12 resultados para Data Protection Directive

em Universidad Politécnica de Madrid


Relevância:

90.00% 90.00%

Publicador:

Resumo:

En este Proyecto de fin de carrera titulado: LA VÍDEOVIGILANCIA: TECNOLOGÍAS ACTUALES Y ASPECTOS SOCIOPOLÍTICOS, tiene como objetivo hacer un estudio en los sistemas de Vídeovigilancia basado en cámaras-IP, con fines de seguridad, control o supervisión. Nos basaremos en exponer los sistemas Vídeovigilancia basados en cámara-IP actuales de ultima generación, cuya principal virtud de estos sistemas, es la comunicación con otros lugares, o espacios públicos como privados y poder visualizar tanto en vivo como en diferido lo que este pasando en ese lugar y en ese momento o haya pasado a través del protocolo de comunicación-IP. Se explicara desde el más básico al más complejo sistema de videovigilancia-IP, también explicaremos su puesta en practica mediante los múltiples interconexiones que estos conlleven. Llegando a este punto, se nos plantea las siguientes cuestiones que da origen a este PFC. Estos sistemas de Vídeovigilancia-IP, captan las imágenes por medio de las cámaras-IP, proporcionando su facilidad tanto de visionado/grabacion, como de control, ya que no es necesario estar presente e interactuando con otros sistemas digitales de diverso índole actuales, gracias al protocolo-IP. Estos sistemas-IP, tienen su puesta en práctica mediante las instalaciones requeridas ,estas podrán ser sencillas o muy complejas de todos los sistemas-IP. Debido al gran aumento masivo, las tecnologías actuales de diverso índole de cámaras-IP en materia de la vídeovigilancia en lugares públicos, y privados en nuestra sociedad actual, lo hace un medio particularmente invasivo y por ello resulta necesario tanto la concurrencia de condiciones que legitimen los tratamientos de datos de personas identificables, como la definición de los principios y garantías que deban aplicarse ya que estas, repercutirán sobre los derechos de las personas, lo que obligara a fijar ciertas garantías. Se nos plantea los casos en los que la captación y/o tratamiento de imágenes con fines de Vídeovigilancia que pertenezcan a personas identificadas o identificables, ha obligado a España, y según dispuesto por la Directiva 95/46/CE del Parlamento Europeo, a regularizar esta situación mediante la Ley Orgánica de Protección de Datos (LOPD) 15/1999 de 13 de diciembre, bajo los procedimientos del Estado español en materia sociopolítica, y dando vigor a esta ley, mediante la aprobación de la Instrucción 1/2006 de 8 de noviembre de 2006, cuyo máximo organismo es la Agencia española de Protección de Datos (AGPD). Una vez planteada la motivación y justificación del proyecto, se derivan unos objetivos a cumplir con la realización del mismo. Los objetivos del proyecto se pueden diferenciar en dos clases principalmente. Los objetivos principales y objetivos secundarios. Los objetivos principales de este PFC, nacen directamente de las necesidades planteadas originalmente en materia de Vídeovigilancia, tanto tecnológicamente basado en las cámaras-IP en la captación y/o tratamiento de imágenes, así como sociopolíticamente donde trataremos de describirlo mediante las indicaciones y criterios con casos prácticos y de cómo deben de aplicarse según la instrucción 1/2006 mediante la LOPD en materia de Vídeovigilancia, en cuanto a la protección de datos que puedan repercutir sobre el derecho de las personas. Por otra parte los objetivos secundarios, son la extensión del objetivo primario y son de orden cuantificador en este PFC, dando una explicación más exhaustiva del objetivo principal. ABSTRACT In this final year project, entitled: THE VIDEOSURVEILLANCE: CURRENT TECHNOLOGIES AND POLITICALSOCIALS ASPECTS, aims to make a study of video surveillance systems based on IP cameras, for security, control or supervision. We will rely on to expose the camera based video surveillance systems IP-current last generation, whose main virtue of these systems, is communication with other places, or public and private spaces and to view both live and time so this happening in that place and at that time or passed through-IP communication protocol. He explained from the most basic to the most complex-IP video surveillance system, also explain its implementation into practice through multiple interconnections that these entail. Arriving at this point, we face the following issues which gave rise to this PFC. These IP-video surveillance systems, captured images through IP-cameras, providing both ease of viewing / recording, as a control, since it is not necessary to be present and interacting with other digital systems such diverse today, thanks IP-protocol. These systems-IP, have their implementation through the facilities required, these can be simple or very complex all-IP video surveillance systems. Due to the large increase in mass, current technologies of different kinds of IP cameras for video surveillance in public places, and private in our society, it makes a particularly invasive and therefore attendance is necessary both conditions that legitimize data processing of identifiable people, as the definition of the principles and safeguards to be applied as these will impact on the rights of the people, which forced to set certain guarantees. We face those cases in which the uptake and / or image processing video surveillance purposes belonging to identified or identifiable, has forced Spain, and as required by Directive 95/46/EC of the European Parliament, to regularize this situation by the Organic Law on Data Protection (LOPD) 15/1999 of December 13, under the procedures of the Spanish State in sociopolitical, and giving effect to this Act, with the approval of the Instruction 1/2006 of 8 November 2006, the governing body is the Spanish Agency for Data Protection (AGPD). Once raised the motivation and justification for the project, resulting in meeting targets to achieve the same. Project objectives can be differentiated into two main classes, the main objectives and secondary objectives: The main objectives of this PFC, born directly from requirements originally raised for capturing both technologically imaging me and try to describe where sociopolitically, the details and criteria as case studies and should be applied according to the instruction 1 / 2006 by the LOPD on video surveillance system in terms of data protection that could impact on the right people. Moreover the secondary objectives are the extension of the primary and are of a quantifier in this PFC, giving a fuller explanation of the main objective.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Los continuos avances tecnológicos están trayendo consigo nuevas formas de almacenar, tratar y comunicar datos personales. Es necesario repensar el derecho fundamental a la protección de datos, y arbitrar mecanismos para adaptarlo a las nuevas formas de tratamiento. a nivel europeo se está trabajando en una nueva propuesta de regulación que consideramos, en general, muy apropiada para afrontar los nuevos retos en esta materia. para ejemplificar todo esto, en el presente estudio se plantea de forma detallada el caso de la computación en nube, sus principales características y algunas preocupaciones acerca de los riesgos potenciales que su utilización trae consigo. Abstract: Rapid technological developments are bringing new ways to store, process and communicate personal data. We need to rethink the fundamental right to data protection and adapt it to new forms of treatment. there is a new «european» proposal for a regulation on the protection of individuals with regard to the processing of personal data, well suited to meet the new challenges. this study offers one example of this: the cloud computing, its main characteristics and some concerns about the potential risks that its use entails.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La proliferación en todo el mundo de las soluciones basadas en la nube hace que las empresas estén valorando mover su infraestructura o parte de ella a la nube, para así reducir los altos costes de inversión necesarios para mantener una infraestructura privada. Uno de los servicios que puede ser centralizado en la nube, mediante recursos compartidos entre varios clientes, son las soluciones de contingencia, como los servicios de protección de datos o los centros de recuperación ante desastres. Mediante este proyecto se pretende llevar a cabo el despliegue de una plataforma de servicios gestionados para ofrecer soluciones centralizadas, a clientes que lo requieran, de copias de seguridad y disaster recovery. Para la realización del proyecto se realizó un estudio de las tecnologías actuales para llevar a cabo la continuidad de negocio, los distintos tipos de backups, así como los tipos de replicación existente, local y remota. Posteriormente, se llevó a cabo un estudio de mercado para barajar las distintas posibilidades existentes para el despliegue de la infraestructura, siempre teniendo en cuenta el cliente objetivo. Finalmente, se realizó la fase de desarrollo, donde se detallan los componentes principales que componen la solución final, la localización de la infraestructura, un caso de uso, así como las principales ventajas de la solución. Se ha de destacar que se trata de un proyecto real, que se llevó a cabo en una empresa externa a la facultad, Omega Peripherals, donde una vez finalizado mi prácticum, se propuso dicho proyecto para desarrollarlo como continuación de mi labor en la empresa y formar parte de mi Trabajo Final de Grado (TFG). ---ABSTRACT---The worldwide proliferation of cloud-based solutions means that companies are evaluating their infrastructure or move part of it to the cloud, to reduce the high investment costs required to maintain a private infrastructure. One of the services that can be centralized in the cloud, through shared resources between multiple clients, are the solutions of contingency services as data protection or disaster recovery centers. This project aims to carry out the deployment of a managed services platform centralized solutions, to customers who need it, backup and disaster recovery services. The project consists of three phases. First, It was performed a study of the current business continuity technologies, the different types of backups, as well as replication types, local and remote. Second, it was performed a market study to shuffle the different possibilities for the deployment of infrastructure, keeping in mind the target customer. Finally, we found the development phase, where it details the main components that make up the final solution, the location of infrastructure, a use case, as well as the main advantages of the solution. It should be emphasized that this is a real project, which was carried out in an outside company to the university, called Omega Peripherals, where once I completed my practicum, it was proposed this project to develop it as a continuation of my job and develop it as my final dissertation.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The availability of electronic health data favors scientific advance through the creation of repositories for secondary use. Data anonymization is a mandatory step to comply with current legislation. A service for the pseudonymization of electronic healthcare record (EHR) extracts aimed at facilitating the exchange of clinical information for secondary use in compliance with legislation on data protection is presented. According to ISO/TS 25237, pseudonymization is a particular type of anonymization. This tool performs the anonymizations by maintaining three quasi-identifiers (gender, date of birth and place of residence) with a degree of specification selected by the user. The developed system is based on the ISO/EN 13606 norm using its characteristics specifically favorable for anonymization. The service is made up of two independent modules: the demographic server and the pseudonymizing module. The demographic server supports the permanent storage of the demographic entities and the management of the identifiers. The pseudonymizing module anonymizes the ISO/EN 13606 extracts. The pseudonymizing process consists of four phases: the storage of the demographic information included in the extract, the substitution of the identifiers, the elimination of the demographic information of the extract and the elimination of key data in free-text fields. The described pseudonymizing system was used in three Telemedicine research projects with satisfactory results. A problem was detected with the type of data in a demographic data field and a proposal for modification was prepared for the group in charge of the drawing up and revision of the ISO/EN 13606 norm.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Recientemente, el paradigma de la computación en la nube ha recibido mucho interés por parte tanto de la industria como del mundo académico. Las infraestructuras cloud públicas están posibilitando nuevos modelos de negocio y ayudando a reducir costes. Sin embargo, una compañía podría desear ubicar sus datos y servicios en sus propias instalaciones, o tener que atenerse a leyes de protección de datos. Estas circunstancias hacen a las infraestructuras cloud privadas ciertamente deseables, ya sea para complementar a las públicas o para sustituirlas por completo. Por desgracia, las carencias en materia de estándares han impedido que las soluciones para la gestión de infraestructuras privadas se hayan desarrollado adecuadamente. Además, la multitud de opciones disponibles ha creado en los clientes el miedo a depender de una tecnología concreta (technology lock-in). Una de las causas de este problema es la falta de alineación entre la investigación académica y los productos comerciales, ya que aquella está centrada en el estudio de escenarios idealizados sin correspondencia con el mundo real, mientras que éstos consisten en soluciones desarrolladas sin tener en cuenta cómo van a encajar con los estándares más comunes o sin preocuparse de hacer públicos sus resultados. Con objeto de resolver este problema, propongo un sistema de gestión modular para infraestructuras cloud privadas enfocado en tratar con las aplicaciones en lugar de centrarse únicamente en los recursos hardware. Este sistema de gestión sigue el paradigma de la computación autónoma y está diseñado en torno a un modelo de información sencillo, desarrollado para ser compatible con los estándares más comunes. Este modelo divide el entorno en dos vistas, que sirven para separar aquello que debe preocupar a cada actor involucrado del resto de información, pero al mismo tiempo permitiendo relacionar el entorno físico con las máquinas virtuales que se despliegan encima de él. En dicho modelo, las aplicaciones cloud están divididas en tres tipos genéricos (Servicios, Trabajos de Big Data y Reservas de Instancias), para que así el sistema de gestión pueda sacar partido de las características propias de cada tipo. El modelo de información está complementado por un conjunto de acciones de gestión atómicas, reversibles e independientes, que determinan las operaciones que se pueden llevar a cabo sobre el entorno y que es usado para hacer posible la escalabilidad en el entorno. También describo un motor de gestión encargado de, a partir del estado del entorno y usando el ya mencionado conjunto de acciones, la colocación de recursos. Está dividido en dos niveles: la capa de Gestores de Aplicación, encargada de tratar sólo con las aplicaciones; y la capa del Gestor de Infraestructura, responsable de los recursos físicos. Dicho motor de gestión obedece un ciclo de vida con dos fases, para así modelar mejor el comportamiento de una infraestructura real. El problema de la colocación de recursos es atacado durante una de las fases (la de consolidación) por un resolutor de programación entera, y durante la otra (la online) por un heurístico hecho ex-profeso. Varias pruebas han demostrado que este acercamiento combinado es superior a otras estrategias. Para terminar, el sistema de gestión está acoplado a arquitecturas de monitorización y de actuadores. Aquella estando encargada de recolectar información del entorno, y ésta siendo modular en su diseño y capaz de conectarse con varias tecnologías y ofrecer varios modos de acceso. ABSTRACT The cloud computing paradigm has raised in popularity within the industry and the academia. Public cloud infrastructures are enabling new business models and helping to reduce costs. However, the desire to host company’s data and services on premises, and the need to abide to data protection laws, make private cloud infrastructures desirable, either to complement or even fully substitute public oferings. Unfortunately, a lack of standardization has precluded private infrastructure management solutions to be developed to a certain level, and a myriad of diferent options have induced the fear of lock-in in customers. One of the causes of this problem is the misalignment between academic research and industry ofering, with the former focusing in studying idealized scenarios dissimilar from real-world situations, and the latter developing solutions without taking care about how they f t with common standards, or even not disseminating their results. With the aim to solve this problem I propose a modular management system for private cloud infrastructures that is focused on the applications instead of just the hardware resources. This management system follows the autonomic system paradigm, and is designed around a simple information model developed to be compatible with common standards. This model splits the environment in two views that serve to separate the concerns of the stakeholders while at the same time enabling the traceability between the physical environment and the virtual machines deployed onto it. In it, cloud applications are classifed in three broad types (Services, Big Data Jobs and Instance Reservations), in order for the management system to take advantage of each type’s features. The information model is paired with a set of atomic, reversible and independent management actions which determine the operations that can be performed over the environment and is used to realize the cloud environment’s scalability. From the environment’s state and using the aforementioned set of actions, I also describe a management engine tasked with the resource placement. It is divided in two tiers: the Application Managers layer, concerned just with applications; and the Infrastructure Manager layer, responsible of the actual physical resources. This management engine follows a lifecycle with two phases, to better model the behavior of a real infrastructure. The placement problem is tackled during one phase (consolidation) by using an integer programming solver, and during the other (online) with a custom heuristic. Tests have demonstrated that this combined approach is superior to other strategies. Finally, the management system is paired with monitoring and actuators architectures. The former able to collect the necessary information from the environment, and the later modular in design and capable of interfacing with several technologies and ofering several access interfaces.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El extraordinario auge de las nuevas tecnologías de la información, el desarrollo de la Internet de las Cosas, el comercio electrónico, las redes sociales, la telefonía móvil y la computación y almacenamiento en la nube, han proporcionado grandes beneficios en todos los ámbitos de la sociedad. Junto a éstos, se presentan nuevos retos para la protección y privacidad de la información y su contenido, como la suplantación de personalidad y la pérdida de la confidencialidad e integridad de los documentos o las comunicaciones electrónicas. Este hecho puede verse agravado por la falta de una frontera clara que delimite el mundo personal del mundo laboral en cuanto al acceso de la información. En todos estos campos de la actividad personal y laboral, la Criptografía ha jugado un papel fundamental aportando las herramientas necesarias para garantizar la confidencialidad, integridad y disponibilidad tanto de la privacidad de los datos personales como de la información. Por otro lado, la Biometría ha propuesto y ofrecido diferentes técnicas con el fin de garantizar la autentificación de individuos a través del uso de determinadas características personales como las huellas dáctilares, el iris, la geometría de la mano, la voz, la forma de caminar, etc. Cada una de estas dos ciencias, Criptografía y Biometría, aportan soluciones a campos específicos de la protección de datos y autentificación de usuarios, que se verían enormemente potenciados si determinadas características de ambas ciencias se unieran con vistas a objetivos comunes. Por ello es imperativo intensificar la investigación en estos ámbitos combinando los algoritmos y primitivas matemáticas de la Criptografía con la Biometría para dar respuesta a la demanda creciente de nuevas soluciones más técnicas, seguras y fáciles de usar que potencien de modo simultáneo la protección de datos y la identificacíón de usuarios. En esta combinación el concepto de biometría cancelable ha supuesto una piedra angular en el proceso de autentificación e identificación de usuarios al proporcionar propiedades de revocación y cancelación a los ragos biométricos. La contribución de esta tesis se basa en el principal aspecto de la Biometría, es decir, la autentificación segura y eficiente de usuarios a través de sus rasgos biométricos, utilizando tres aproximaciones distintas: 1. Diseño de un esquema criptobiométrico borroso que implemente los principios de la biometría cancelable para identificar usuarios lidiando con los problemas acaecidos de la variabilidad intra e inter-usuarios. 2. Diseño de una nueva función hash que preserva la similitud (SPHF por sus siglas en inglés). Actualmente estas funciones se usan en el campo del análisis forense digital con el objetivo de buscar similitudes en el contenido de archivos distintos pero similares de modo que se pueda precisar hasta qué punto estos archivos pudieran ser considerados iguales. La función definida en este trabajo de investigación, además de mejorar los resultados de las principales funciones desarrolladas hasta el momento, intenta extender su uso a la comparación entre patrones de iris. 3. Desarrollando un nuevo mecanismo de comparación de patrones de iris que considera tales patrones como si fueran señales para compararlos posteriormente utilizando la transformada de Walsh-Hadarmard. Los resultados obtenidos son excelentes teniendo en cuenta los requerimientos de seguridad y privacidad mencionados anteriormente. Cada uno de los tres esquemas diseñados han sido implementados para poder realizar experimentos y probar su eficacia operativa en escenarios que simulan situaciones reales: El esquema criptobiométrico borroso y la función SPHF han sido implementados en lenguaje Java mientras que el proceso basado en la transformada de Walsh-Hadamard en Matlab. En los experimentos se ha utilizado una base de datos de imágenes de iris (CASIA) para simular una población de usuarios del sistema. En el caso particular de la función de SPHF, además se han realizado experimentos para comprobar su utilidad en el campo de análisis forense comparando archivos e imágenes con contenido similar y distinto. En este sentido, para cada uno de los esquemas se han calculado los ratios de falso negativo y falso positivo. ABSTRACT The extraordinary increase of new information technologies, the development of Internet of Things, the electronic commerce, the social networks, mobile or smart telephony and cloud computing and storage, have provided great benefits in all areas of society. Besides this fact, there are new challenges for the protection and privacy of information and its content, such as the loss of confidentiality and integrity of electronic documents and communications. This is exarcebated by the lack of a clear boundary between the personal world and the business world as their differences are becoming narrower. In both worlds, i.e the personal and the business one, Cryptography has played a key role by providing the necessary tools to ensure the confidentiality, integrity and availability both of the privacy of the personal data and information. On the other hand, Biometrics has offered and proposed different techniques with the aim to assure the authentication of individuals through their biometric traits, such as fingerprints, iris, hand geometry, voice, gait, etc. Each of these sciences, Cryptography and Biometrics, provides tools to specific problems of the data protection and user authentication, which would be widely strengthen if determined characteristics of both sciences would be combined in order to achieve common objectives. Therefore, it is imperative to intensify the research in this area by combining the basics mathematical algorithms and primitives of Cryptography with Biometrics to meet the growing demand for more secure and usability techniques which would improve the data protection and the user authentication. In this combination, the use of cancelable biometrics makes a cornerstone in the user authentication and identification process since it provides revocable or cancelation properties to the biometric traits. The contributions in this thesis involve the main aspect of Biometrics, i.e. the secure and efficient authentication of users through their biometric templates, considered from three different approaches. The first one is designing a fuzzy crypto-biometric scheme using the cancelable biometric principles to take advantage of the fuzziness of the biometric templates at the same time that it deals with the intra- and inter-user variability among users without compromising the biometric templates extracted from the legitimate users. The second one is designing a new Similarity Preserving Hash Function (SPHF), currently widely used in the Digital Forensics field to find similarities among different files to calculate their similarity level. The function designed in this research work, besides the fact of improving the results of the two main functions of this field currently in place, it tries to expand its use to the iris template comparison. Finally, the last approach of this thesis is developing a new mechanism of handling the iris templates, considering them as signals, to use the Walsh-Hadamard transform (complemented with three other algorithms) to compare them. The results obtained are excellent taking into account the security and privacy requirements mentioned previously. Every one of the three schemes designed have been implemented to test their operational efficacy in situations that simulate real scenarios: The fuzzy crypto-biometric scheme and the SPHF have been implemented in Java language, while the process based on the Walsh-Hadamard transform in Matlab. The experiments have been performed using a database of iris templates (CASIA-IrisV2) to simulate a user population. The case of the new SPHF designed is special since previous to be applied i to the Biometrics field, it has been also tested to determine its applicability in the Digital Forensic field comparing similar and dissimilar files and images. The ratios of efficiency and effectiveness regarding user authentication, i.e. False Non Match and False Match Rate, for the schemes designed have been calculated with different parameters and cases to analyse their behaviour.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Rights expression languages declare the permitted and prohibited actions to be performed on a resource. Along this work, six rights expression languages are compared, abstracting their commonalities and outlining their underlying pattern. Linked Data, which can be object of protection by the intellectual property laws or its access be restricted by an access control system, can be the asset in rights expressions. The requirements for a pattern for licensing Linked Data resources are listed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Linked Data assets (RDF triples, graphs, datasets, mappings...) can be object of protection by the intellectual property law, the database law or its access or publication be restricted by other legal reasons (personal data pro- tection, security reasons, etc.). Publishing a rights expression along with the digital asset, allows the rightsholder waiving some or all of the IP and database rights (leaving the work in the public domain), permitting some operations if certain conditions are satisfied (like giving attribution to the author) or simply reminding the audience that some rights are reserved.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La reutilización de efluentes depurados siempre ha sido una opción en lugares con déficit coyuntural o estructural de recursos hídricos, se haya o no procedido a la regulación y planificación de esta práctica. La necesidad se crea a partir de las demandas de una zona, normalmente riego agrícola, que ven un mejor desarrollo de su actividad por contar con este recurso. España es el país de la UE que más caudal reutiliza, y está dentro de los diez primeros a nivel mundial. La regulación de esta práctica por el RD 1620/2007, ayudó a incorporar la reutilización de efluentes depurados a la planificación hidrológica como parte de los programas de medidas, con objeto de mitigar presiones, como son las extracciones de agua superficial y subterránea, o mejoras medioambientales evitando un vertido. El objeto de este trabajo es conocer la situación de la reutilización de efluentes depurados en España, los diferentes escenarios y planteamientos de esta actividad, el desarrollo del marco normativo y su aplicabilidad, junto a los tratamientos que permiten alcanzar los límites de calidad establecidos en la normativa vigente, en función de los distintos usos. Además, se aporta un análisis de costes de las distintas unidades de tratamiento y tipologías de líneas de regeneración, tanto de las utilizadas después de un tratamiento secundario como de otras opciones de depuración, como son los biorreactores de membrana (MBRs). Para el desarrollo de estos objetivos, en primer lugar, se aborda el conocimiento de la situación de la reutilización en España a través de una base de datos diseñada para cubrir todos los aspectos de esta actividad: datos de la estación depuradora de aguas residuales (EDAR), de la estación regeneradora (ERA), caudales depurados, reutilizados, volúmenes utilizados y ubicación de los distintos usos, tipos de líneas de tratamiento, calidades del agua reutilizada, etc. Las principales fuentes de información son las Confederaciones Hidrográficas (CCHH) a través de las concesiones de uso del agua depurada, las entidades de saneamiento y depuración de las distintas comunidades autónomas (CCAA), ayuntamientos, Planes Hidrológicos de Cuenca (PHC) y visitas a las zonas más emblemáticas. Además, se revisan planes y programas con el fin de realizar una retrospectiva de cómo se ha ido consolidando y desarrollando esta práctica en las distintas zonas de la geografía española. Se han inventariado 322 sistemas de reutilización y 216 tratamientos de regeneración siendo el más extendido la filtración mediante filtro arena seguido de una desinfección mediante hipoclorito, aunque este tratamiento se ha ido sustituyendo por un físico-químico con decantación lamelar, filtro de arena y radiación ultravioleta, tratamiento de regeneración convencional (TRC), y otros tratamientos que pueden incluir membranas, tratamientos de regeneración avanzados (TRA), con dosificación de hipoclorito como desinfección residual, para adaptarse al actual marco normativo. El uso más extendido es el agrícola con el 70% del caudal total reutilizado, estimado en 408 hm3, aunque la capacidad de los tratamientos de regeneración esperada para 2015, tras el Plan Nacional de Reutilización de Aguas (PNRA), es tres veces superior. Respecto al desarrollo normativo, en las zonas donde la reutilización ha sido pionera, las administraciones competentes han ido desarrollando diferentes recomendaciones de calidad y manejo de este tipo de agua. El uso agrícola, y en zonas turísticas, el riego de campos de golf, fueron los dos primeros usos que tuvieron algún tipo de recomendación incluso reglamentación. Esta situación inicial, sin una normativa a nivel estatal ni recomendaciones europeas, creó cierta incertidumbre en el avance de la reutilización tanto a nivel de concesiones como de planificación. En la actualidad sigue sin existir una normativa internacional para la reutilización y regeneración de efluentes depurados. Las recomendaciones de referencia a nivel mundial, y en concreto para el uso agrícola, son las de la OMS (Organización Mundial de la Salud) publicadas 1989, con sus posteriores revisiones y ampliaciones (OMS, 2006). Esta norma combina tratamientos básicos de depuración y unas buenas prácticas basadas en diferentes niveles de protección para evitar problemas sanitarios. Otra normativa que ha sido referencia en el desarrollo del marco normativo en países donde se realiza esta práctica, son las recomendaciones dadas por la Agencia Medioambiente Estadunidense (USEPA, 2012) o las publicadas por el Estado de California (Título 22, 2001). Estas normas establecen unos indicadores y valores máximos dónde el tratamiento de regeneración es el responsable de la calidad final en función del uso. Durante 2015, la ISO trabajaba en un documento para el uso urbano donde se muestra tanto los posibles parámetros que habría que controlar como la manera de actuar para evitar posibles riesgos. Por otro lado, la Comisión Europea (CE) viene impulsando desde el 2014 la reutilización de aguas depuradas dentro del marco de la Estrategia Común de Implantación de la Directiva Marco del Agua, y fundamentalmente a través del grupo de trabajo de “Programas de medidas”. Para el desarrollo de esta iniciativa se está planteando sacar para 2016 una guía de recomendaciones que podría venir a completar el marco normativo de los distintos Estados Miembros (EM). El Real Decreto 1620/2007, donde se establece el marco jurídico de la reutilización de efluentes depurados, tiende más a la filosofía implantada por la USEPA, aunque la UE parece más partidaria de una gestión del riesgo, donde se establecen unos niveles de tolerancia y unos puntos de control en función de las condiciones socioeconómicas de los distintos Estados, sin entrar a concretar indicadores, valores máximos o tratamientos. Sin embargo, en la normativa estadounidense se indican una serie de tratamientos de regeneración, mientras que, en la española, se hacen recomendaciones a este respecto en una Guía sin validez legal. Por tanto, queda sin regular los procesos para alcanzar estos estándares de calidad, pudiendo ser éstos no apropiados para esta práctica. Es el caso de la desinfección donde el uso de hipoclorito puede generar subproductos indeseables. En la Guía de recomendaciones para la aplicación del RD, publicada por el Ministerio de Agricultura y Medioambiente (MAGRAMA) en 2010, se aclaran cuestiones frecuentes sobre la aplicación del RD, prescripciones técnicas básicas para los sistemas de reutilización, y buenas prácticas en función del uso. Aun así, el RD sigue teniendo deficiencias en su aplicación siendo necesaria una revisión de la misma, como en las frecuencias de muestreo incluso la omisión de algunos parámetros como huevos de nematodos que se ha demostrado ser inexistentes tras un tratamiento de regeneración convencional. En este sentido, existe una tendencia a nivel mundial a reutilizar las aguas con fines de abastecimiento, incluir indicadores de presencia de virus o protozoos, o incluir ciertas tecnologías como las membranas u oxidaciones avanzadas para afrontar temas como los contaminantes emergentes. Otro de los objetivos de este trabajo es el estudio de tipologías de tratamiento en función de los usos establecidos en el RD 1620/2007 y sus costes asociados, siendo base de lo establecido a este respecto en la Guía y PNRA anteriormente indicados. Las tipologías de tratamiento propuestas se dividen en líneas con capacidad de desalar y las que no cuentan con una unidad de desalación de aguas salobres de ósmosis inversa o electrodiálisis reversible. Se realiza esta división al tener actuaciones en zonas costeras donde el agua de mar entra en los colectores, adquiriendo el agua residual un contenido en sales que es limitante en algunos usos. Para desarrollar este objetivo se han estudiado las unidades de tratamiento más implantadas en ERAs españolas en cuanto a fiabilidad para conseguir determinada calidad y coste, tanto de implantación como de explotación. El TRC, tiene un coste de implantación de 28 a 48 €.m-3.d y de explotación de 0,06 a 0,09 €. m-3, mientras que, si se precisara desalar, este coste se multiplica por diez en la implantación y por cinco en la explotación. En caso de los usos que requieren de TRA, como los domiciliarios o algunos industriales, los costes serían de 185 a 398 €.m-3.d en implantación y de 0,14 a 0,20 €.m-3 en explotación. En la selección de tecnologías de regeneración, la capacidad del tratamiento en relación al coste es un indicador fundamental. Este trabajo aporta curvas de tendencia coste-capacidad que sirven de herramienta de selección frente a otros tratamientos de regeneración de reciente implantación como son los MBR, u otros como la desalación de agua de mar o los trasvases entre cuencas dentro de la planificación hidrológica. En España, el aumento de las necesidades de agua de alta calidad en zonas con recursos escasos, aumento de zonas sensibles como puntos de captación para potables, zonas de baño o zonas de producción piscícola, y en ocasiones, el escaso terreno disponible para la implantación de nuevas plantas depuradoras (EDARs), han convertido a los MBRs, en una opción dentro del marco de la reutilización de aguas depuradas. En este trabajo, se estudia esta tecnología frente a los TRC y TRA, aportando igualmente curvas de tendencia coste-capacidad, e identificando cuando esta opción tecnológica puede ser más competitiva frente a los otros tratamientos de regeneración. Un MBR es un tratamiento de depuración de fangos activos donde el decantador secundario es sustituido por un sistema de membranas de UF o MF. La calidad del efluente, por tanto, es la misma que el de una EDAR seguida de un TRA. Los MBRs aseguran una calidad del efluente para todos los usos establecidos en el RD, incluso dan un efluente que permite ser directamente tratado por las unidades de desalación de OI o EDR. La implantación de esta tecnología en España ha tenido un crecimiento exponencial, pasando de 13 instalaciones de menos de 5.000 m3. d-1 en el 2006, a más de 55 instalaciones en operación o construcción a finales del 2014, seis de ellas con capacidades por encima de los 15.000 m3. d-1. Los sistemas de filtración en los MBR son los que marcan la operación y diseño de este tipo de instalaciones. El sistema más implantado en España es de membrana de fibra hueca (MFH), sobre todo para instalaciones de gran capacidad, destacando Zenon que cuenta con el 57% de la capacidad total instalada. La segunda casa comercial con mayor número de plantas es Kubota, con membranas de configuración placa plana (MPP), que cuenta con el 30 % de la capacidad total instalada. Existen otras casas comerciales implantadas en MBR españoles como son Toray, Huber, Koch o Microdym. En este documento se realiza la descripción de los sistemas de filtración de todas estas casas comerciales, aportando información de sus características, parámetros de diseño y operación más relevantes. El estudio de 14 MBRs ha posibilitado realizar otro de los objetivos de este trabajo, la estimación de los costes de explotación e implantación de este tipo de sistemas frente a otras alternativas de tratamiento de regeneración. En este estudio han participado activamente ACA y ESAMUR, entidades públicas de saneamiento y depuración de Cataluña y Murcia respectivamente, que cuentan con una amplia experiencia en la explotación de este tipo de sistemas. Este documento expone los problemas de operación encontrados y sus posibles soluciones, tanto en la explotación como en los futuros diseños de este tipo de plantas. El trabajo concluye que los MBRs son una opción más para la reutilización de efluentes depurados, siendo ventajosos en costes, tanto de implantación como de explotación, respecto a EDARs seguidas de TRA en capacidades por encima de los 10.000 m3.d-1. ABSTRACT The reuse of treated effluent has always been an option in places where a situational or structural water deficit exists, whether regulatory and/or planning efforts are completed or not. The need arises from the demand of a sector, commonly agricultural irrigation, which benefits of this new resource. Within the EU, Spain is ahead in the annual volume of reclaimed water, and is among the top ten countries at a global scale. The regulation of this practice through the Royal Decree 1620/2007 has helped to incorporate the water reuse to the hydrological plans as a part of the programme of measures to mitigate pressures such as surface or ground water extraction, or environmental improvements preventing discharges. The object of this study is to gain an overview of the state of the water reuse in Spain, the different scenarios and approaches to this activity, the development of the legal framework and its enforceability, together with the treatments that achieve the quality levels according to the current law, broken down by applications. Additionally, a cost analysis of technologies and regeneration treatment lines for water reclamation is performed, whereas the regeneration treatment is located after a wastewater treatment or other options such as membrane bioreactors (MBR). To develop the abovementioned objectives, the state of water reuse in Spain is studied by means of a database designed to encompass all aspects of the activity: data from the wastewater treatment plants (WWTP), from the water reclamation plants (WRP), the use of reclaimed water, treated water and reclaimed water annual volumes and qualities, facilities and applications, geographic references, technologies, regeneration treatment lines, etc. The main data providers are the River Basin authorities, through the concession or authorization for water reuse, (sanitary and wastewater treatment managers from the territorial governments, local governments, Hydrological Plans of the River Basins and field visits to the main water reuse systems. Additionally, a review of different plans and programmes on wastewater treatment or water reuse is done, aiming to put the development and consolidation process of this activity in the different regions of Spain in perspective. An inventory of 322 reuse systems and 216 regeneration treatments has been gathered on the database, where the most extended regeneration treatment line was sand filtration followed by hypochlorite disinfection, even though recently it is being replaced by physical–chemical treatment with a lamella settling system, depth sand filtration, and a disinfection with ultraviolet radiation and hypochlorite as residual disinfectant, named conventional regeneration treatment (CRT), and another treatment that may include a membrane process, named advanced regeneration treatment (ART), to adapt to legal requirements. Agricultural use is the most extended, accumulating 70% of the reclaimed demand, estimated at 408 hm3, even though the expected total capacity of WRPs for 2015, after the implementation of the National Water Reuse Plan (NWRP) is three times higher. According to the development of the water reuse legal framework, there were pioneer areas where competent authorities developed different quality and use recommendations for this new resource. Agricultural use and golf course irrigation in touristic areas were the first two uses with recommendations and even legislation. The initial lack of common legislation for water reuse at a national or European level created some doubts which affected the implementation of water reuse, both from a planning and a licensing point of view. Currently there is still a lack of common international legislation regarding water reuse, technologies and applications. Regarding agricultural use, the model recommendations at a global scale are those set by the World Health Organization published in 1989, and subsequent reviews and extensions about risk prevention (WHO, 2006). These documents combine wastewater treatments with basic regeneration treatments reinforced by good practices based on different levels of protection to avoid deleterious health effects. Another relevant legal reference for this practices has been the Environmental Protection Agency of the US (USEPA, 2012), or those published by the State of California (Title 22, 2001). These establish indicator targets and maximum thresholds where regeneration treatment lines are responsible for the final quality according to the different uses. During 2015, the ISO has worked on a document aimed at urban use, where the possible parameters to be monitored together with risk prevention have been studied. On the other hand, the European Commission has been promoting the reuse of treated effluents within the Common Implementation Strategy of the Water Framework Directive, mainly through the work of the Programme of Measures Working Group. Within this context, the publication of a recommendation guide during 2016 is intended, as a useful tool to fill in the legal gaps of different Member States on the matter. The Royal Decree 1620/2007, where the water reuse regulation is set, resembles the principles of the USEPA more closely, even though the EU shows a tendency to prioritize risk assessment by establishing tolerance levels and thresholds according to socioeconomic conditions of the different countries, without going into details of indicators, maximum thresholds or treatments. In contrast, in the US law, regeneration treatments are indicated, while in the Spanish legislation, the only recommendations to this respect are compiled in a non-compulsory guide. Therefore, there is no regulation on the different treatment lines used to achieve the required quality standards, giving room for inappropriate practices in this respect. This is the case of disinfection, where the use of hypochlorite may produce harmful byproducts. In the recommendation Guide for the application of the Royal Decree (RD), published by the Ministry of Agriculture and Environment (MAGRAMA) in 2010, clarifications of typical issues that may arise from the application of the RD are given, as well as basic technical parameters to consider in reuse setups, or good practices according to final use. Even so, the RD still presents difficulties in its application and requires a review on issues such as the sampling frequency of current quality parameters or even the omission of nematode eggs indicator, which have been shown to be absent after CRT. In this regard, there is a global tendency to employ water reuse for drinking water, including indicators for the presence of viruses and protozoans, or to include certain technologies such as membranes or advanced oxidation processes to tackle problems like emerging pollutants. Another of the objectives of this study is to provide different regeneration treatment lines to meet the quality requirements established in the RD 1620/2007 broken down by applications, and to estimate establishment and operational costs. This proposal has been based on what is established in the above mentioned Guide and NWRP. The proposed treatment typologies are divided in treatment trains with desalination, like reverse osmosis or reversible electrodialisis, and those that lack this treatment for brackish water. This separation is done due to coastal facilities, where sea water may permeate the collecting pipes, rising salt contents in the wastewater, hence limiting certain uses. To develop this objective a study of the most common treatment units set up in Spanish WRPs is conducted in terms of treatment train reliability to obtain an acceptable relationship between the required quality and the capital and operational costs. The CRT has an establishment cost of 28 to 48 €.m-3.d and an operation cost of 0.06 to 0.09 €.m-3, while, if desalination was required, these costs would increase tenfold for implementation and fivefold for operation. In the cases of uses that require ART, such as residential or certain industrial uses, the costs would be of 185 to 398 €.m-3.d for implementation and of 0.14 to 0.20 €.m-3 for operation. When selecting regeneration treatment lines, the relation between treatment capacity and cost is a paramount indicator. This project provides cost-capacity models for regeneration treatment trains. These may serve as a tool when selecting between different options to fulfill water demands with MBR facilities, or others such as sea water desalination plants or inter-basin water transfer into a water planning framework. In Spain, the requirement for high quality water in areas with low resource availability, the increasing number of sensitive zones, such as drinking water extraction, recreational bathing areas, fish protected areas and the lack of available land to set up new WWTPs, have turned MBRs into a suitable option for water reuse. In this work this technology is analyzed in contrast to CRT and ART, providing cost-capacity models, and identifying when and where this treatment option may outcompete other regeneration treatments. An MBR is an activated sludge treatment where the secondary settling is substituted by a membrane system of UF or MF. The quality of the effluent is, therefore, comparable to that of a WWTP followed by an ART. MBRs ensure a sufficient quality level for the requirements of the different uses established in the RD, even producing an effluent that can be directly treated in OI or EDR processes. The implementation of this technology in Spain has grown exponentially, growing from 13 facilities with less than 5000 m3.d-1 in 2006 to above 55 facilities operating by the end of 2014, 6 of them with capacities over 15000 m3.d-1. The membrane filtration systems for MBR are the ones that set the pace of operation and design of this type of facilities. The most widespread system in Spain is the hollow fiber membrane configuration, especially on high flow capacities, being Zenon commercial technology, which mounts up to 57% of the total installed capacity, the main contributor. The next commercial technology according to plant number is Kubota, which uses flat sheet membrane configuration, which mounts up to 30% of the total installed capacity. Other commercial technologies exist within the Spanish MBR context, such as Toray, Huber, Koch or Microdym. In this document an analysis of all of these membrane filtration systems is done, providing information about their characteristics and relevant design and operation parameters. The study of 14 full scale running MBRs has enabled to pursue another of the objectives of this work: the estimation of the implementation and operation costs of this type of systems in contrast to other regeneration alternatives. Active participation of ACA and ESAMUR, public wastewater treatment and reuse entities of Cataluña and Murcia respectively, has helped attaining this objective. A number of typical operative problems and their possible solutions are discussed, both for operation and plant design purposes. The conclusion of this study is that MBRs are another option to consider for water reuse, being advantageous in terms of both implementation and operational costs, when compared with WWTPs followed by ART, when considering flow capacities above 10000 m3.d-1.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La protección de las aguas subterráneas es una prioridad de la política medioambiental de la UE. Por ello ha establecido un marco de prevención y control de la contaminación, que incluye provisiones para evaluar el estado químico de las aguas y reducir la presencia de contaminantes en ellas. Las herramientas fundamentales para el desarrollo de dichas políticas son la Directiva Marco del Agua y la Directiva Hija de Aguas Subterráneas. Según ellas, las aguas se consideran en buen estado químico si: • la concentración medida o prevista de nitratos no supera los 50 mg/l y la de ingredientes activos de plaguicidas, de sus metabolitos y de los productos de reacción no supera el 0,1 μg/l (0,5 μg/l para el total de los plaguicidas medidos) • la concentración de determinadas sustancias de riesgo es inferior al valor umbral fijado por los Estados miembros; se trata, como mínimo, del amonio, arsénico, cadmio, cloruro, plomo, mercurio, sulfatos, tricloroetileno y tetracloroetileno • la concentración de cualquier otro contaminante se ajusta a la definición de buen estado químico enunciada en el anexo V de la Directiva marco sobre la política de aguas • en caso de superarse el valor correspondiente a una norma de calidad o a un valor umbral, una investigación confirma, entre otros puntos, la falta de riesgo significativo para el medio ambiente. Analizar el comportamiento estadístico de los datos procedentes de la red de seguimiento y control puede resultar considerablemente complejo, debido al sesgo positivo que suelen presentar dichos datos y a su distribución asimétrica, debido a la existencia de valores anómalos y diferentes tipos de suelos y mezclas de contaminantes. Además, la distribución de determinados componentes en el agua subterránea puede presentar concentraciones por debajo del límite de detección o no ser estacionaria debida a la existencia de tendencias lineales o estacionales. En el primer caso es necesario realizar estimaciones de esos valores desconocidos, mediante procedimientos que varían en función del porcentaje de valores por debajo del límite de detección y el número de límites de detección aplicables. En el segundo caso es necesario eliminar las tendencias de forma previa a la realización de contrastes de hipótesis sobre los residuos. Con esta tesis se ha pretendido establecer las bases estadísticas para el análisis riguroso de los datos de las redes de calidad con objeto de realizar la evaluación del estado químico de las masas de agua subterránea para la determinación de tendencias al aumento en la concentración de contaminantes y para la detección de empeoramientos significativos, tanto en los casos que se ha fijado un estándar de calidad por el organismo medioambiental competente como en aquéllos que no ha sido así. Para diseñar una metodología que permita contemplar la variedad de casos existentes, se han analizado los datos de la Red Oficial de Seguimiento y Control del Estado Químico de las Aguas Subterráneas del Ministerio de Agricultura, Alimentación y Medio Ambiente (Magrama). A continuación, y dado que los Planes Hidrológicos de Cuenca son la herramienta básica de las Directivas, se ha seleccionado la Cuenca del Júcar, dada su designación como cuenca piloto en la estrategia de implementación común (CIS) de la Comisión Europea. El objetivo principal de los grupos de trabajo creados para ello se dirigió a implementar la Directiva Derivada de Agua Subterráneas y los elementos de la Directiva Marco del Agua relacionadas, en especial la toma de datos en los puntos de control y la preparación del primer Plan de Gestión de Cuencas Hidrográficas. Dada la extensión de la zona y con objeto de analizar una masa de agua subterránea (definida como la unidad de gestión en las Directivas), se ha seleccionado una zona piloto (Plana de Vinaroz Peñiscola) en la que se han aplicado los procedimientos desarrollados con objeto de determinar el estado químico de dicha masa. Los datos examinados no contienen en general valores de concentración de contaminantes asociados a fuentes puntuales, por lo que para la realización del estudio se han seleccionado valores de concentración de los datos más comunes, es decir, nitratos y cloruros. La estrategia diseñada combina el análisis de tendencias con la elaboración de intervalos de confianza cuando existe un estándar de calidad e intervalos de predicción cuando no existe o se ha superado dicho estándar. De forma análoga se ha procedido en el caso de los valores por debajo del límite de detección, tomando los valores disponibles en la zona piloto de la Plana de Sagunto y simulando diferentes grados de censura con objeto de comparar los resultados obtenidos con los intervalos producidos de los datos reales y verificar de esta forma la eficacia del método. El resultado final es una metodología general que integra los casos existentes y permite definir el estado químico de una masa de agua subterránea, verificar la existencia de impactos significativos en la calidad del agua subterránea y evaluar la efectividad de los planes de medidas adoptados en el marco del Plan Hidrológico de Cuenca. ABSTRACT Groundwater protection is a priority of the EU environmental policy. As a result, it has established a framework for prevention and control of pollution, which includes provisions for assessing the chemical status of waters and reducing the presence of contaminants in it. The measures include: • criteria for assessing the chemical status of groundwater bodies • criteria for identifying significant upward trends and sustained concentrations of contaminants and define starting points for reversal of such trends • preventing and limiting indirect discharges of pollutants as a result of percolation through soil or subsoil. The basic tools for the development of such policies are the Water Framework Directive and Groundwater Daughter Directive. According to them, the groundwater bodies are considered in good status if: • measured or predicted concentration of nitrate does not exceed 50 mg / l and the active ingredients of pesticides, their metabolites and reaction products do not exceed 0.1 mg / l (0.5 mg / l for total of pesticides measured) • the concentration of certain hazardous substances is below the threshold set by the Member States concerned, at least, of ammonium, arsenic, cadmium, chloride, lead, mercury, sulphates, trichloroethylene and tetrachlorethylene • the concentration of other contaminants fits the definition of good chemical status set out in Annex V of the Framework Directive on water policy • If the value corresponding to a quality standard or a threshold value is exceeded, an investigation confirms, among other things, the lack of significant risk to the environment. Analyzing the statistical behaviour of the data from the monitoring networks may be considerably complex due to the positive bias which often presents such information and its asymmetrical distribution, due to the existence of outliers and different soil types and mixtures of pollutants. Furthermore, the distribution of certain components in groundwater may have concentrations below the detection limit or may not be stationary due to the existence of linear or seasonal trends. In the first case it is necessary to estimate these unknown values, through procedures that vary according to the percentage of values below the limit of detection and the number of applicable limits of detection. In the second case removing trends is needed before conducting hypothesis tests on residuals. This PhD thesis has intended to establish the statistical basis for the rigorous analysis of data quality networks in order to conduct the evaluation of the chemical status of groundwater bodies for determining upward and sustained trends in pollutant concentrations and for the detection of significant deterioration in cases in which an environmental standard has been set by the relevant environmental agency and those that have not. Aiming to design a comprehensive methodology to include the whole range of cases, data from the Groundwater Official Monitoring and Control Network of the Ministry of Agriculture, Food and Environment (Magrama) have been analysed. Then, since River Basin Management Plans are the basic tool of the Directives, the Júcar river Basin has been selected. The main reason is its designation as a pilot basin in the common implementation strategy (CIS) of the European Commission. The main objective of the ad hoc working groups is to implement the Daughter Ground Water Directive and elements of the Water Framework Directive related to groundwater, especially the data collection at control stations and the preparation of the first River Basin Management Plan. Given the size of the area and in order to analyze a groundwater body (defined as the management unit in the Directives), Plana de Vinaroz Peñíscola has been selected as pilot area. Procedures developed to determine the chemical status of that body have been then applied. The data examined do not generally contain pollutant concentration values associated with point sources, so for the study concentration values of the most common data, i.e., nitrates and chlorides have been selected. The designed strategy combines trend analysis with the development of confidence intervals when there is a standard of quality and prediction intervals when there is not or the standard has been exceeded. Similarly we have proceeded in the case of values below the detection limit, taking the available values in Plana de Sagunto pilot area and simulating different degrees of censoring in order to compare the results obtained with the intervals achieved from the actual data and verify in this way the effectiveness of the method. The end result is a general methodology that integrates existing cases to define the chemical status of a groundwater body, verify the existence of significant impacts on groundwater quality and evaluate the effectiveness of the action plans adopted in the framework of the River Basin Management Plan.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Hoy en día, el proceso de un proyecto sostenible persigue realizar edificios de elevadas prestaciones que son, energéticamente eficientes, saludables y económicamente viables utilizando sabiamente recursos renovables para minimizar el impacto sobre el medio ambiente reduciendo, en lo posible, la demanda de energía, lo que se ha convertido, en la última década, en una prioridad. La Directiva 2002/91/CE "Eficiencia Energética de los Edificios" (y actualizaciones posteriores) ha establecido el marco regulatorio general para el cálculo de los requerimientos energéticos mínimos. Desde esa fecha, el objetivo de cumplir con las nuevas directivas y protocolos ha conducido las políticas energéticas de los distintos países en la misma dirección, centrándose en la necesidad de aumentar la eficiencia energética en los edificios, la adopción de medidas para reducir el consumo, y el fomento de la generación de energía a través de fuentes renovables. Los edificios de energía nula o casi nula (ZEB, Zero Energy Buildings ó NZEB, Net Zero Energy Buildings) deberán convertirse en un estándar de la construcción en Europa y con el fin de equilibrar el consumo de energía, además de reducirlo al mínimo, los edificios necesariamente deberán ser autoproductores de energía. Por esta razón, la envolvente del edifico y en particular las fachadas son importantes para el logro de estos objetivos y la tecnología fotovoltaica puede tener un papel preponderante en este reto. Para promover el uso de la tecnología fotovoltaica, diferentes programas de investigación internacionales fomentan y apoyan soluciones para favorecer la integración completa de éstos sistemas como elementos arquitectónicos y constructivos, los sistemas BIPV (Building Integrated Photovoltaic), sobre todo considerando el próximo futuro hacia edificios NZEB. Se ha constatado en este estudio que todavía hay una falta de información útil disponible sobre los sistemas BIPV, a pesar de que el mercado ofrece una interesante gama de soluciones, en algunos aspectos comparables a los sistemas tradicionales de construcción. Pero por el momento, la falta estandarización y de una regulación armonizada, además de la falta de información en las hojas de datos técnicos (todavía no comparables con las mismas que están disponibles para los materiales de construcción), hacen difícil evaluar adecuadamente la conveniencia y factibilidad de utilizar los componentes BIPV como parte integrante de la envolvente del edificio. Organizaciones internacionales están trabajando para establecer las normas adecuadas y procedimientos de prueba y ensayo para comprobar la seguridad, viabilidad y fiabilidad estos sistemas. Sin embargo, hoy en día, no hay reglas específicas para la evaluación y caracterización completa de un componente fotovoltaico de integración arquitectónica de acuerdo con el Reglamento Europeo de Productos de la Construcción, CPR 305/2011. Los productos BIPV, como elementos de construcción, deben cumplir con diferentes aspectos prácticos como resistencia mecánica y la estabilidad; integridad estructural; seguridad de utilización; protección contra el clima (lluvia, nieve, viento, granizo), el fuego y el ruido, aspectos que se han convertido en requisitos esenciales, en la perspectiva de obtener productos ambientalmente sostenibles, saludables, eficientes energéticamente y económicamente asequibles. Por lo tanto, el módulo / sistema BIPV se convierte en una parte multifuncional del edificio no sólo para ser física y técnicamente "integrado", además de ser una oportunidad innovadora del diseño. Las normas IEC, de uso común en Europa para certificar módulos fotovoltaicos -IEC 61215 e IEC 61646 cualificación de diseño y homologación del tipo para módulos fotovoltaicos de uso terrestre, respectivamente para módulos fotovoltaicos de silicio cristalino y de lámina delgada- atestan únicamente la potencia del módulo fotovoltaico y dan fe de su fiabilidad por un período de tiempo definido, certificando una disminución de potencia dentro de unos límites. Existe también un estándar, en parte en desarrollo, el IEC 61853 (“Ensayos de rendimiento de módulos fotovoltaicos y evaluación energética") cuyo objetivo es la búsqueda de procedimientos y metodologías de prueba apropiados para calcular el rendimiento energético de los módulos fotovoltaicos en diferentes condiciones climáticas. Sin embargo, no existen ensayos normalizados en las condiciones específicas de la instalación (p. ej. sistemas BIPV de fachada). Eso significa que es imposible conocer las efectivas prestaciones de estos sistemas y las condiciones ambientales que se generan en el interior del edificio. La potencia nominal de pico Wp, de un módulo fotovoltaico identifica la máxima potencia eléctrica que éste puede generar bajo condiciones estándares de medida (STC: irradición 1000 W/m2, 25 °C de temperatura del módulo y distribución espectral, AM 1,5) caracterizando eléctricamente el módulo PV en condiciones específicas con el fin de poder comparar los diferentes módulos y tecnologías. El vatio pico (Wp por su abreviatura en inglés) es la medida de la potencia nominal del módulo PV y no es suficiente para evaluar el comportamiento y producción del panel en términos de vatios hora en las diferentes condiciones de operación, y tampoco permite predecir con convicción la eficiencia y el comportamiento energético de un determinado módulo en condiciones ambientales y de instalación reales. Un adecuado elemento de integración arquitectónica de fachada, por ejemplo, debería tener en cuenta propiedades térmicas y de aislamiento, factores como la transparencia para permitir ganancias solares o un buen control solar si es necesario, aspectos vinculados y dependientes en gran medida de las condiciones climáticas y del nivel de confort requerido en el edificio, lo que implica una necesidad de adaptación a cada contexto específico para obtener el mejor resultado. Sin embargo, la influencia en condiciones reales de operación de las diferentes soluciones fotovoltaicas de integración, en el consumo de energía del edificio no es fácil de evaluar. Los aspectos térmicos del interior del ambiente o de iluminación, al utilizar módulos BIPV semitransparentes por ejemplo, son aún desconocidos. Como se dijo antes, la utilización de componentes de integración arquitectónica fotovoltaicos y el uso de energía renovable ya es un hecho para producir energía limpia, pero también sería importante conocer su posible contribución para mejorar el confort y la salud de los ocupantes del edificio. Aspectos como el confort, la protección o transmisión de luz natural, el aislamiento térmico, el consumo energético o la generación de energía son aspectos que suelen considerarse independientemente, mientras que todos juntos contribuyen, sin embargo, al balance energético global del edificio. Además, la necesidad de dar prioridad a una orientación determinada del edificio, para alcanzar el mayor beneficio de la producción de energía eléctrica o térmica, en el caso de sistemas activos y pasivos, respectivamente, podría hacer estos últimos incompatibles, pero no necesariamente. Se necesita un enfoque holístico que permita arquitectos e ingenieros implementar sistemas tecnológicos que trabajen en sinergia. Se ha planteado por ello un nuevo concepto: "C-BIPV, elemento fotovoltaico consciente integrado", esto significa necesariamente conocer los efectos positivos o negativos (en términos de confort y de energía) en condiciones reales de funcionamiento e instalación. Propósito de la tesis, método y resultados Los sistemas fotovoltaicos integrados en fachada son a menudo soluciones de vidrio fácilmente integrables, ya que por lo general están hechos a medida. Estos componentes BIPV semitransparentes, integrados en el cerramiento proporcionan iluminación natural y también sombra, lo que evita el sobrecalentamiento en los momentos de excesivo calor, aunque como componente estático, asimismo evitan las posibles contribuciones pasivas de ganancias solares en los meses fríos. Además, la temperatura del módulo varía considerablemente en ciertas circunstancias influenciada por la tecnología fotovoltaica instalada, la radiación solar, el sistema de montaje, la tipología de instalación, falta de ventilación, etc. Este factor, puede suponer un aumento adicional de la carga térmica en el edificio, altamente variable y difícil de cuantificar. Se necesitan, en relación con esto, más conocimientos sobre el confort ambiental interior en los edificios que utilizan tecnologías fotovoltaicas integradas, para abrir de ese modo, una nueva perspectiva de la investigación. Con este fin, se ha diseñado, proyectado y construido una instalación de pruebas al aire libre, el BIPV Env-lab "BIPV Test Laboratory", para la caracterización integral de los diferentes módulos semitransparentes BIPV. Se han definido también el método y el protocolo de ensayos de caracterización en el contexto de un edificio y en condiciones climáticas y de funcionamiento reales. Esto ha sido posible una vez evaluado el estado de la técnica y la investigación, los aspectos que influyen en la integración arquitectónica y los diferentes tipos de integración, después de haber examinado los métodos de ensayo para los componentes de construcción y fotovoltaicos, en condiciones de operación utilizadas hasta ahora. El laboratorio de pruebas experimentales, que consiste en dos habitaciones idénticas a escala real, 1:1, ha sido equipado con sensores y todos los sistemas de monitorización gracias a los cuales es posible obtener datos fiables para evaluar las prestaciones térmicas, de iluminación y el rendimiento eléctrico de los módulos fotovoltaicos. Este laboratorio permite el estudio de tres diferentes aspectos que influencian el confort y consumo de energía del edificio: el confort térmico, lumínico, y el rendimiento energético global (demanda/producción de energía) de los módulos BIPV. Conociendo el balance de energía para cada tecnología solar fotovoltaica experimentada, es posible determinar cuál funciona mejor en cada caso específico. Se ha propuesto una metodología teórica para la evaluación de estos parámetros, definidos en esta tesis como índices o indicadores que consideran cuestiones relacionados con el bienestar, la energía y el rendimiento energético global de los componentes BIPV. Esta metodología considera y tiene en cuenta las normas reglamentarias y estándares existentes para cada aspecto, relacionándolos entre sí. Diferentes módulos BIPV de doble vidrio aislante, semitransparentes, representativos de diferentes tecnologías fotovoltaicas (tecnología de silicio monocristalino, m-Si; de capa fina en silicio amorfo unión simple, a-Si y de capa fina en diseleniuro de cobre e indio, CIS) fueron seleccionados para llevar a cabo una serie de pruebas experimentales al objeto de demostrar la validez del método de caracterización propuesto. Como resultado final, se ha desarrollado y generado el Diagrama Caracterización Integral DCI, un sistema gráfico y visual para representar los resultados y gestionar la información, una herramienta operativa útil para la toma de decisiones con respecto a las instalaciones fotovoltaicas. Este diagrama muestra todos los conceptos y parámetros estudiados en relación con los demás y ofrece visualmente toda la información cualitativa y cuantitativa sobre la eficiencia energética de los componentes BIPV, por caracterizarlos de manera integral. ABSTRACT A sustainable design process today is intended to produce high-performance buildings that are energy-efficient, healthy and economically feasible, by wisely using renewable resources to minimize the impact on the environment and to reduce, as much as possible, the energy demand. In the last decade, the reduction of energy needs in buildings has become a top priority. The Directive 2002/91/EC “Energy Performance of Buildings” (and its subsequent updates) established a general regulatory framework’s methodology for calculation of minimum energy requirements. Since then, the aim of fulfilling new directives and protocols has led the energy policies in several countries in a similar direction that is, focusing on the need of increasing energy efficiency in buildings, taking measures to reduce energy consumption, and fostering the use of renewable sources. Zero Energy Buildings or Net Zero Energy Buildings will become a standard in the European building industry and in order to balance energy consumption, buildings, in addition to reduce the end-use consumption should necessarily become selfenergy producers. For this reason, the façade system plays an important role for achieving these energy and environmental goals and Photovoltaic can play a leading role in this challenge. To promote the use of photovoltaic technology in buildings, international research programs encourage and support solutions, which favors the complete integration of photovoltaic devices as an architectural element, the so-called BIPV (Building Integrated Photovoltaic), furthermore facing to next future towards net-zero energy buildings. Therefore, the BIPV module/system becomes a multifunctional building layer, not only physically and functionally “integrated” in the building, but also used as an innovative chance for the building envelope design. It has been found in this study that there is still a lack of useful information about BIPV for architects and designers even though the market is providing more and more interesting solutions, sometimes comparable to the existing traditional building systems. However at the moment, the lack of an harmonized regulation and standardization besides to the non-accuracy in the technical BIPV datasheets (not yet comparable with the same ones available for building materials), makes difficult for a designer to properly evaluate the fesibility of this BIPV components when used as a technological system of the building skin. International organizations are working to establish the most suitable standards and test procedures to check the safety, feasibility and reliability of BIPV systems. Anyway, nowadays, there are no specific rules for a complete characterization and evaluation of a BIPV component according to the European Construction Product Regulation, CPR 305/2011. BIPV products, as building components, must comply with different practical aspects such as mechanical resistance and stability; structural integrity; safety in use; protection against weather (rain, snow, wind, hail); fire and noise: aspects that have become essential requirements in the perspective of more and more environmentally sustainable, healthy, energy efficient and economically affordable products. IEC standards, commonly used in Europe to certify PV modules (IEC 61215 and IEC 61646 respectively crystalline and thin-film ‘Terrestrial PV Modules-Design Qualification and Type Approval’), attest the feasibility and reliability of PV modules for a defined period of time with a limited power decrease. There is also a standard (IEC 61853, ‘Performance Testing and Energy Rating of Terrestrial PV Modules’) still under preparation, whose aim is finding appropriate test procedures and methodologies to calculate the energy yield of PV modules under different climate conditions. Furthermore, the lack of tests in specific conditions of installation (e.g. façade BIPV devices) means that it is difficult knowing the exact effective performance of these systems and the environmental conditions in which the building will operate. The nominal PV power at Standard Test Conditions, STC (1.000 W/m2, 25 °C temperature and AM 1.5) is usually measured in indoor laboratories, and it characterizes the PV module at specific conditions in order to be able to compare different modules and technologies on a first step. The “Watt-peak” is not enough to evaluate the panel performance in terms of Watt-hours of various modules under different operating conditions, and it gives no assurance of being able to predict the energy performance of a certain module at given environmental conditions. A proper BIPV element for façade should take into account thermal and insulation properties, factors as transparency to allow solar gains if possible or a good solar control if necessary, aspects that are linked and high dependent on climate conditions and on the level of comfort to be reached. However, the influence of different façade integrated photovoltaic solutions on the building energy consumption is not easy to assess under real operating conditions. Thermal aspects, indoor temperatures or luminance level that can be expected using building integrated PV (BIPV) modules are not well known. As said before, integrated photovoltaic BIPV components and the use of renewable energy is already a standard for green energy production, but would also be important to know the possible contribution to improve the comfort and health of building occupants. Comfort, light transmission or protection, thermal insulation or thermal/electricity power production are aspects that are usually considered alone, while all together contribute to the building global energy balance. Besides, the need to prioritize a particular building envelope orientation to harvest the most benefit from the electrical or thermal energy production, in the case of active and passive systems respectively might be not compatible, but also not necessary. A holistic approach is needed to enable architects and engineers implementing technological systems working in synergy. A new concept have been suggested: “C-BIPV, conscious integrated BIPV”. BIPV systems have to be “consciously integrated” which means that it is essential to know the positive and negative effects in terms of comfort and energy under real operating conditions. Purpose of the work, method and results The façade-integrated photovoltaic systems are often glass solutions easily integrable, as they usually are custommade. These BIPV semi-transparent components integrated as a window element provides natural lighting and shade that prevents overheating at times of excessive heat, but as static component, likewise avoid the possible solar gains contributions in the cold months. In addition, the temperature of the module varies considerably in certain circumstances influenced by the PV technology installed, solar radiation, mounting system, lack of ventilation, etc. This factor may result in additional heat input in the building highly variable and difficult to quantify. In addition, further insights into the indoor environmental comfort in buildings using integrated photovoltaic technologies are needed to open up thereby, a new research perspective. This research aims to study their behaviour through a series of experiments in order to define the real influence on comfort aspects and on global energy building consumption, as well as, electrical and thermal characteristics of these devices. The final objective was to analyze a whole set of issues that influence the global energy consumption/production in a building using BIPV modules by quantifying the global energy balance and the BIPV system real performances. Other qualitative issues to be studied were comfort aspect (thermal and lighting aspects) and the electrical behaviour of different BIPV technologies for vertical integration, aspects that influence both energy consumption and electricity production. Thus, it will be possible to obtain a comprehensive global characterization of BIPV systems. A specific design of an outdoor test facility, the BIPV Env-lab “BIPV Test Laboratory”, for the integral characterization of different BIPV semi-transparent modules was developed and built. The method and test protocol for the BIPV characterization was also defined in a real building context and weather conditions. This has been possible once assessed the state of the art and research, the aspects that influence the architectural integration and the different possibilities and types of integration for PV and after having examined the test methods for building and photovoltaic components, under operation conditions heretofore used. The test laboratory that consists in two equivalent test rooms (1:1) has a monitoring system in which reliable data of thermal, daylighting and electrical performances can be obtained for the evaluation of PV modules. The experimental set-up facility (testing room) allows studying three different aspects that affect building energy consumption and comfort issues: the thermal indoor comfort, the lighting comfort and the energy performance of BIPV modules tested under real environmental conditions. Knowing the energy balance for each experimented solar technology, it is possible to determine which one performs best. A theoretical methodology has been proposed for evaluating these parameters, as defined in this thesis as indices or indicators, which regard comfort issues, energy and the overall performance of BIPV components. This methodology considers the existing regulatory standards for each aspect, relating them to one another. A set of insulated glass BIPV modules see-through and light-through, representative of different PV technologies (mono-crystalline silicon technology, mc-Si, amorphous silicon thin film single junction, a-Si and copper indium selenide thin film technology CIS) were selected for a series of experimental tests in order to demonstrate the validity of the proposed characterization method. As result, it has been developed and generated the ICD Integral Characterization Diagram, a graphic and visual system to represent the results and manage information, a useful operational tool for decision-making regarding to photovoltaic installations. This diagram shows all concepts and parameters studied in relation to each other and visually provides access to all the results obtained during the experimental phase to make available all the qualitative and quantitative information on the energy performance of the BIPV components by characterizing them in a comprehensive way.