29 resultados para Special Protection Systems
em Universidad Politécnica de Madrid
Resumo:
La norma UNE-EN 13374 “Sistemas provisionales de protección de borde. Especificaciones del producto, métodos de ensayo” (1) clasifica los sistemas provisionales de protección de borde (SPPB) en tres clases (A, B y C), en función del ángulo de la superficie de trabajo y de la altura de caída de la persona a proteger. Los sistemas clase A son los indicados cuando la inclinación de la superficie de trabajo es menor de 10º. La norma establece los requisitos de flecha y de resistencia de los SPPB. Los requisitos se pueden comprobar tanto analítica como experimentalmente. El objetivo del trabajo ha sido la evaluación del comportamiento de los SPPB utilizados habitualmente en las obras y establecer los cambios necesarios para que cumplan con la norma UNE-EN 13374. Para ello se han evaluado analítica y experimentalmente tres SPPB clase A, fabricados con acero S235. Los resultados obtenidos muestran que, el sistema empleado de forma habitual en obras no supera los requisitos de la norma ni analítica ni experimentalmente. El tercer sistema supera los requisitos con las dos metodologías de análisis. El segundo sistema supera los requisitos cuando la evaluación se realiza analíticamente pero no cuando la vía utilizada es la experimental.
Resumo:
Scour compromises the operation of offshore facilities. This article describes the results of an investigation aimed at the analysis of different methods used in the scour protection systems design at offshore wind farms. The study is focused on transitional waters, where monopile foundations present medium or large diameters. Using the experience of offshore wind farms currently installed, a new design formula is proposed. All of this with the aim of improving a preliminary design of scour protection systems considering maritime parameters
Resumo:
El Hogar Digital Accesible (HDA) de la ETSIST nace con el propósito de acercar las nuevas Tecnologías de la Información a las personas que precisan de necesidades concretas de accesibilidad y usabilidad, dotándoles de herramientas que les permitan aumentar su calidad de vida, confort, seguridad y autonomía. El entorno del HDA consta de elementos de control para puertas, persianas, iluminación, agua o gas, sensores de temperatura, incendios, gas, sistemas de climatización, sistemas de entretenimiento y sistemas de seguridad tales como detectores de presencia y alarmas. Todo ello apoyado sobre una arquitectura de red que proporciona una pasarela residencial y un acceso a banda ancha. El objetivo principal de este PFG ha sido el desarrollo de un sistema de autenticación para el Hogar Digital Accesible de bajo coste. La idea de integrar un sistema de autenticación en el HDA, surge de la necesidad de proteger de accesos no deseados determinados servicios disponibles dentro de un ámbito privado. Algunos de estos servicios pueden ser tales como el acceso a la lectura de los mensajes disponibles en el contestador automático, el uso de equipos multimedia, la desconexión de alarmas de seguridad o simplemente la configuración de ambientes según el usuario que esté autenticado (intensidad de luz, temperatura de la sala, etc.). En el desarrollo han primado los principios de accesibilidad, usabilidad y seguridad necesarios para la creación de un entorno no invasivo, que permitiera acreditar la identidad del usuario frente al sistema HDA. Se ha planteado como posible solución, un sistema basado en el reconocimiento de un trazo realizado por el usuario. Este trazo se usará como clave de cara a validar a los usuarios. El usuario deberá repetir el trazado que registró en el sistema para autenticarse. Durante la ejecución del presente PFG, se justificará la elección de este mecanismo de autenticación frente a otras alternativas disponibles en el mercado. Para probar la aplicación, se ha podido contar con dos periféricos de distintas gamas, el uDraw creado para la PS3 que se compone de una tableta digitalizadora y un lápiz que permite recoger los trazos realizados por el usuario de forma inalámbrica y la tableta digitalizadora Bamboo de Wacom. La herramienta desarrollada permite a su vez, la posibilidad de ser usada por otro tipo de dispositivos como es el caso del reloj con acelerómetro de 3 ejes de Texas Instruments Chronos eZ430 capaz de trasladar los movimientos del usuario al puntero de un ratón. El PFG se encuentra dividido en tres grandes bloques de flujo de trabajo. El primero se centra en el análisis del sistema y las tecnologías que lo componen, incluyendo los distintos algoritmos disponibles para realizar la autenticación basada en reconocimiento de patrones aplicados a imágenes que mejor se adaptan a las necesidades del usuario. En el segundo bloque se recoge una versión de prueba basada en el análisis y el diseño UML realizado previamente, sobre la que se efectuaron pruebas de concepto y se comprobó la viabilidad del proyecto. El último bloque incluye la verificación y validación del sistema mediante pruebas que certifican que se han alcanzado los niveles de calidad necesarios para la consecución de los objetivos planteados, generando finalmente la documentación necesaria. Como resultado del trabajo realizado, se ha obtenido un sistema que plantea una arquitectura fácilmente ampliable lograda a través del uso de técnicas como la introspección, que permiten separar la lógica de la capa de negocio del código que la implementa, pudiendo de forma simple e intuitiva sustituir código mediante ficheros de configuración, lo que hace que el sistema sea flexible y escalable. Tras la realización del PFG, se puede concluir que el producto final obtenido ha respondido de forma satisfactoria alcanzando los niveles de calidad requeridos, siendo capaz de proporcionar un sistema de autenticación alternativo a los convencionales, manteniendo unas cotas de seguridad elevadas y haciendo de la accesibilidad y el precio sus características más reseñables. ABSTRACT. Accessible Digital Home (HDA) of the ETSIST was created with the aim of bringing the latest information and communications technologies closer to the people who has special needs of accessibility and usability increasing their quality of life, comfort, security and autonomy. The HDA environment has different control elements for doors, blinds, lighting, water or gas, temperature sensors, fire protection systems, gas flashover, air conditioning systems, entertainments systems and security systems such as intruders detectors and alarms. Everything supported by an architecture net which provides a broadband residential services gateway. The main goal of this PFG was the development of a low-cost authentication system for the Accessible Digital Home. The idea of integrating an authentication system on the HDA, stems from the need to safeguard certain private key network resources from unauthorized access. Some of said resources are the access to the answering machine messages, the use of multimedia devices, the alarms deactivation or the parameter settings for each environment as programmed by the authenticated user (light intensity, room temperature, etc.). During the development priority was given to concepts like accessibility, usability and security. All of them necessary to create a non invasive environment that allows the users to certify their identity. A system based on stroke pattern recognition, was considered as a possible solution. This stroke is used as a key to validate users. The user must repeat the stroke that was saved on the system to validate access. The selection of this authentication mechanism among the others available options will be justified during this PFG. Two peripherals with different ranges were used to test the application. One of them was uDraw design for the PS3. It is wireless and is formed by a pen and a drawing tablet that allow us to register the different strokes drawn by the user. The other one was the Wacom Bamboo tablet, that supports the same functionality but with better accuracy. The developed tool allows another kind of peripherals like the 3-axes accelerometer digital wristwatch Texas Instruments Chronos eZ430 capable of transfering user movements to the mouse cursor. The PFG is divided by three big blocks that represent different workflows. The first block is focused on the system analysis and the technologies related to it, including algorithms for image pattern recognition that fits the user's needs. The second block describes how the beta version was developed based on the UML analysis and design previously done. It was tested and the viability of the project was verified. The last block contains the system verification and validation. These processes certify that the requirements have been fulfilled as well as the quality levels needed to reach the planned goals. Finally all the documentation has been produced. As a result of the work, an expandable system has been created, due to the introspection that provides the opportunity to separate the business logic from the code that implements it. With this technique, the code could be replaced throughout configuration files which makes the system flexible and highly scalable. Once the PFG has finished, it must therefore be concluded that the final product has been a success and high levels of quality have been achieved. This authentication tool gives us a low-cost alternative to the conventional ones. The new authentication system remains security levels reasonably high giving particular emphasis to the accessibility and the price.
Resumo:
Underground coal mines explosions generally arise from the inflammation of a methane/air mixture. This explosion can also generate a subsequent coal dust explosion. Traditionally such explosions have being fought eliminating one or several of the factors needed by the explosion to take place. Although several preventive measures are taken to prevent explosions, other measures should be considered to reduce the effects or even to extinguish the flame front. Unlike other protection methods that remove one or two of the explosion triangle elements, namely; the ignition source, the oxidizing agent and the fuel, explosion barriers removes all of them: reduces the quantity of coal in suspension, cools the flame front and the steam generated by vaporization removes the oxygen present in the flame. Passive water barriers are autonomous protection systems against explosions that reduce to a satisfactory safety level the effects of methane and/or flammable dust explosions. The barriers are activated by the pressure wave provoked in the explosion destroying the barrier troughs and producing a uniform dispersion of the extinguishing agent throughout the gallery section in quantity enough to extinguish the explosion flame. Full scale tests have been carried out in Polish Barbara experimental mine at GIG Central Mining Institute in order to determine the requirements and the optimal installation conditions of these devices for small sections galleries which are very frequent in the Spanish coal mines. Full scale tests results have been analyzed to understand the explosion timing and development, in order to assess on the use of water barriers in the typical small crosssection Spanish galleries. Several arrangements of water barriers have been designed and tested to verify the effectiveness of the explosion suppression in each case. The results obtained demonstrate the efficiency of the water barriers in stopping the flame front even with smaller amounts of water than those established by the European standard. According to the tests realized, water barriers activation times are between 0.52 s and 0.78 s and the flame propagation speed are between 75 m/s and 80 m/s. The maximum pressures (Pmax) obtained in the full scale tests have varied between 0.2 bar and 1.8 bar. Passive barriers protect effectively against the spread of the flame but cannot be used as a safeguard of the gallery between the ignition source and the first row of water troughs or bags, or even after them, as the pressure could remain high after them even if the flame front has been extinguished.
Resumo:
El objetivo del presente proyecto es identificar y definir la problemática del ruido neutrónico en el tratamiento y procesamiento de los canales de medida y tratamiento del flujo neutrónico interno y externo en los sistemas de control y protección de los reactores nucleares tipo PWR (que trabajan con agua a presión) que dan lugar a actuaciones indeseadas de los sistemas de vigilancia y control no relacionadas con situaciones reales del proceso como cambios significativos en los parámetros de temperatura y por lo tanto de potencia del reactor que reducen la disponibilidad de operación de la central y provocan transitorios no justificados por dichas actuaciones. Finalmente, se proponen algunas soluciones. Abstract The aim of this project is to identify and define the problem of neutron noise in PWR nuclear power plants, its influence on the treatment and processing of the measurement channels and external neutron flux treatment, its contributions to the control and protection systems that result in undesired actions of monitoring and control systems that are not related to the actual process conditions. These actions reduce the availability of plant operation and unjustified transient causes. Finally, some possible solutions are proposed
Resumo:
El fenómeno de la socavación puede poner en peligro la operatividad o la seguridad de estructuras offshore comprometiendo su estabilidad global. Hasta el momento, la gran mayoría de las investigaciones destinadas a estudiar el origen y el desarrollo de este fenómeno han estado centradas en entornos fluviales, bajo condiciones de corriente continua. En la última década, debido al crecimiento del mercado de la eólica marina, han surgido numerosos estudios para la caracterización de este fenómeno en el entorno marino, teniendo en cuenta que estas estructuras se encuentran sometidas de forma simultánea a los efectos de la corriente y el oleaje, y las corrientes provocadas por las mareas. Ante la observada carencia de criterios existentes para el diseño de protecciones frente a la socavación, la presente Tesis Doctoral surge con el objetivo principal de desarrollar una serie de recomendaciones que permitan mejorar y optimizar el diseño de estas estructuras, teniendo en cuenta no sólo los parámetros geométricos de las cimentaciones de los aerogeneradores, o la propia erosión, sino también, variables características del oleaje como la altura de ola, el periodo o la longitud de onda, así como la profundidad o la batimétrica de la cimentación. La caracterización de los sistemas de protección basados en materiales naturales destinados al control de la socavación en obras marítimas presentes en instalaciones eólicas marinas no es el único objetivo alcanzado en la presente Tesis Doctoral. A través de la calibración del parámetro de altura de ola adimensional (H0) en diferentes parques eólicos europeos, y de acuerdo al criterio propuesto por Van der Meer (1988), se propone la clasificación de este tipo de estructuras de protección, basadas en material granular o escollera. La información recopilada sobre la socavación registrada en numerosos parques eólicos con protección también ha permitido estudiar la funcionalidad de este tipo de protecciones instaladas hasta la fecha. Asímismo, gracias al conocimiento adquirido sobre el fenómeno de la socavación, se plantea una propuesta para la mejora de la caracterización de este fenómeno en ambiente marino basada en el estudio de la influencia del campo de aceleraciones. La presente Tesis Doctoral permite mejorar el diseño de las protecciones frente a la socavación que se utilizan en parques eólicos marinos teniendo en cuenta las acciones del clima marítimo, supliendo de este modo las carencias que hasta el momento presentan las formulaciones existentes, las cuales únicamente toman en consideración la geometría de las cimentaciones, el ángulo de rozamiento interno del terreno y la estimación de la máxima socavación que puede llegar a producirse. Scour phenomenon jeopardizes the stability and functionality of offshore structures compromising its overall stability. So far, most studies about the origin and the development of this phenomenon have been focused on river environments (under steady current conditions). In the last decade a lot of research projects about the characterization of this phenomenon have been carried out due to the growth of offshore wind industry. These projects take into account that these structures are subjected simultaneously to current, waves and tidal effects. This PhD Thesis arises due to the current lack of criteria for the design of scour protections. Its main objective is to develop some recommendations to improve and to optimize the design of scour protection structures. For that it is necessary to take into account not only the geometrical parameters of foundations or the erosion forecasted, but also wave variables such as wave height, wave period or wavelength. Characterization of protection systems based on natural materials for the control of the scour in offshore wind farms was not the only goal achieved in this PhD Thesis. Through the calibration of the dimensionless wave height parameter (H0) in different European offshore wind farms, and according to the criteria proposed by Van der Meer (1988), a classification of these protection structures based on natural elements (rocks or riprap) has been proposed. Scour data registered in numerous offshore wind farms with scour protection systems also allowed to study the functionality of this type of protection installed up to now. Thanks to the knowledge acquired about the scour development, a proposal for the improvement of the characterization of this phenomenon in marine environment is proposed. This has been based on the study of the influence of the acceleration parameters. This PhD Thesis improves the design of scour protections used in offshore wind facilities taking into account maritime climate actions. To solve the current formulae deficiencies only considering the foundation geometry, the internal friction angle of the seabed and the maximum scour depth forecasted.
Resumo:
Because of their remarkable mechanical properties, nanocrystalline metals have been the focus of much research in recent years. Refining their grain size to the nanometer range (<100 nm) effectively reduces their dislocation mobility, thus achieving very high yield strength and surface hardness—as predicted by the Hall–Petch relation—as well as higher strain-rate sensitivity. Recent works have additionally suggested that nanocrystalline metals exhibit an even higher compressive strength under shock loading. However, the increase in strength of these materials is generally accompanied by an important reduction in ductility. As an alternative, efforts have been focused on ultrafine crystals, i.e. polycrystals with a grain size in the range of 500 nm to 1 μm, in which “growth twins” (twins introduced inside the grain before deformation) act as barriers against dislocation movement, thus increasing the strength in a similar way as nanocrystals but without significant loss of ductility. Due to their outstanding mechanical properties, both nanocrystalline and nanotwinned ultrafine crystalline steels appear to be relevant candidates for ballistic protection. The aim of the present work is to compare their ballistic performance against coarse-grained steel, as well as to identify the effect of the hybridization with a carbon fiber–epoxy composite layer. Hybridization is proposed as a way to improve the nanocrystalline brittle properties in a similar way as is done with ceramics in other protection systems. The experimental campaign is finally complemented by numerical simulations to help identify some of the intrinsic deformation mechanisms not observable experimentally. As a conclusion, nanocrystalline and nanotwinned ultrafine crystals show a lower energy absorption than coarse-grained steel under ballistic loading, but under equal impact conditions with no penetration, deformation in the impact direction is smaller by nearly 40%. This a priori surprising difference in the energy absorption is rationalized by the more important local contribution of the deviatoric stress vs. volumetric stress under impact than under uniaxial deformation. Ultimately, the deformation advantage could be exploited in the future for personal protection systems where a small deformation under impact is of key importance.
Resumo:
Electrical Protection systems and Automatic Voltage Regulators (AVR) are essential components of actual power plants. Its installation and setting is performed during the commissioning, and it needs extensive experience since any failure in this process or in the setting, may entails some risk not only for the generator of the power plant, but also for the reliability of the power grid. In this paper, a real time power plant simulation platform is presented as a tool for improving the training and learning process on electrical protections and automatic voltage regulators. The activities of the commissioning procedure which can be practiced are described, and the applicability of this tool for improving the comprehension of this important part of the power plants is discussed. A commercial AVR and a multifunction protective relay have been tested with satisfactory results.
Resumo:
El presente proyecto tiene como objetivo principal el análisis de la viabilidad de estacionamiento de vehículos propulsados por gas natural comprimido (GNC) desde el punto de vista de formación de atmosferas potencialmente explosivas en los garajes subterráneos. Además se ha realizado una breve introducción sobre el GNC explicando el origen, la composición y los diferentes usos que tiene. Se ha realizado la evaluación de riesgos asociados a la utilización de vehículos propulsados por gas natural y estimación de tasas de escape en el circuito de combustible de los vehículos propulsados por GNC. Para ello se ha aplicado la normativa UNE EN 60079-10 traspuesta en España mediante el Real Decreto del 681/2003 sobre la salud y la seguridad de los trabajadores y el Real Decreto 400/1996 sobre aparatos y sistemas de protección para su uso en atmósferas explosivas. Finalmente se han expuesto las medidas de prevención y protección necesarias para prevenir la generación de atmosferas potencialmente explosivas en los garajes subterráneos y se han detallado los procedimientos y las operaciones que han de realizarse. En las conclusiones se han explicado las acciones más importantes que deben emprenderse para mejorar la seguridad de personas e instalaciones en las áreas de riesgo por presencia de atmósferas potencialmente explosivas. ABSTRACT The main objective of this project is to analyze the viability of the parking of vehicles powered by compressed natural gas (CNG) in the underground garages from the point of view of generated of potentially explosive atmospheres in garages. A brief introduction about the CNG explaining the origin, composition and the different uses that it has is also included. An assessment of the risks associated with the use of vehicles powered by natural gas has been provided as well as an estimate of the exhaust rates on the gas circuit of CNG vehicles. In order to do that, the standard UNE EN 60079-10 transposed in Spain by the Royal Decree 681/2003 about the health and safety of workers and the Royal Decree 400/1996 about equipment and protection systems to be used in explosive atmospheres have been applied. Finally, the necessary preventive and protective measures to prevent the generation of potentially explosive atmospheres in underground garages have been presented and the procedures and operations to be performed have been detailed. In the conclusions, the most important actions to be taken in order to improve the safety of people and facilities in the areas at risk of having potentially explosive atmospheres have been described.
Resumo:
The installation of offshore scour protection systems in offshore wind farms allows avoid the effect of scour phenomenon around these structures. Up to date, numerous research projects have been carried out to justify the necessity of the scour protection systems and also to optimize their design. Protection systems based on riprap is frequently used due to its low cost and easy availability compared to other solutions such as geotextile bags or prefabricated concrete blocks. The sizing of these structures can be performed according to a series of recommendations that can optimize the costs associated with them, but there have been only few studies with real data up to now which have allowed identify the need for such protections. This investigation aims to assess the functionality of the scour protections adopted through the available data about their characteristics and the scour depth developed around the foundations. In this sense, this paper presents the results of a study that analyzes the functionality of scour protections in different European offshore wind farms.
Resumo:
El área urbana localizada en el contorno de la ría de Vigo se vino comportando hasta finales de los años ochenta del siglo XX como una verdadera "ciudad difusa", entendida la difusión como la forma de urbanización de baja densidad que todavía conserva unas características y una funcionalidad propiamente urbanas, aportadas por la malla tradicional parroquial de caminos y núcleos de población. Esta Tesis demuestra que en el período de veinte años transcurrido entre 1990 y 2010, el área, en la que ya se apreciaban fenómenos de naturaleza metropolitana y policentrismo, experimentó una transformación basada en los factores y formas de urbanización estudiados en otras áreas y ciudades intermedias de similares dimensiones. Para la delimitación del ámbito de estudio se consideraron las diferentes dimensiones y escalas de áreas funcionales utilizadas en distintos estudios y planes territoriales, eligiéndose el que toma como referente principal la Ría de Vigo como soporte de la conurbación polinuclear de su contorno. Para investigar el desarrollo urbanístico operado en el período se estudiaron los factores y formas de urbanización característicos de la urbanización en territorios de baja densidad en esta época, y las variables de densidad es de población y vivienda, primacía y polaridad territorial, ritmos de edificación, planeamiento urbanístico y territorial, actividades económicas, movilidad, desplazamientos residenciatrabajo y vacíos urbanos. Las conclusiones permiten observar como el crecimiento residencial descentralizado, que se ha dado principalmente en el litoral, y la localización periférica de las actividades y dotaciones públicas han introducido elementos de dispersión y fragmentación espacial y social, así como las nuevas y potentes infraestructuras viarias, que han mejorado los desplazamientos a costa de una dependencia abusiva del vehículo privado, y han comenzado a amenazar la sostenibilidad del sistema. La planificación de ordenación territorial a escala metropolitana y el planeamiento urbanístico, que se comenzaron a utilizar con normalidad en esta época, se vislumbran como una oportunidad para reconducir el proceso, integrando los territorios genéricos surgidos entre las nuevas infraestructuras y dotaciones y la malla tradicional, así como los vacíos urbanos susceptibles de compactación, protegiendo aquellos otros vacíos que deben constituir la principal reserva ecológica: Los montes en mano común y la Ría de Vigo. La necesidad de una planificación operativa, sostenible y participativa, que integre la ordenación territorial, la gestión integral de los recursos de la Ría, y articule las diferentes competencias y escalas, la gobernanza , la participación ciudadana y el mercado, se considera la principal conclusión para el futuro. ABSTRACT The urban area located around the Ría de Vigo* used to behave like a “diffused city” until the late 1980s, understanding this difussion as the low-density urbanization that still today exhibits ‘urban’ characteristics and functionality, given by the traditional network of parish paths and town cores. This Thesis shows that during the twenty-year period from 1990 to 2010, this area, which previously showed signals of polycentrism and metropolitan character, started a transformation based on the factors and ways of urbanization studied in other areas and intermediate cities of similar dimensions. In order to demarcate the scope of this study, different dimensions and functional area scales previously used in other studies have been taken into account, choosing the one that takes the Ría de Vigo as the main reference and the basis of the polynuclear conurbation of its surroundings. To research the urban development in this period, factors and ways of urbanization regarding lowdensity territories have been considered, as well as some variables like density of population and housing, territorial primacy and polarity, building rates, territorial planning, economic activities, mobility, home-to-work trips and urban holes. Conclusions allow us to point out how the decentralised residential growing (that occurred mainly on the litoral surface) and the periferic localization of the activities and public facilities, have created elements of “sprawl” and spacial and social fragmentation, which, together with the new and powerfull road infraestructures network (that made the movements easier by means of an abusive dependence on the private vehicle), have started to threaten the sustainability of the system. The planification of the territorial ordinance at metropolitan scale and the urban planning, that in that time started to be established, can be considered as an opportunity to get things back on track, integrating the territories risen up from the new infrastructures and facilities and the traditional network together with the urban holes liable to be compacted, with a special protection of the spaces that must be the main ecological reserve: the communal forests and the Ría de Vigo. The need of a sustainable and participatory operative planification, able to integrate the territory planning, the integral management of resources and the citizen involvement and the market, has to be considered as the main goal for the future.
Resumo:
El tema de estudio de esta tesis es el análisis morfológico y cronológico de diez ejemplares emblemáticos de la arquitectura doméstica señorial de la Granada del siglo XVI, analizados en comparación con otros casos de referencia construidos en el mismo período en la propia ciudad, conservados y desaparecidos. También se han tenido en cuenta las principales manifestaciones arquitectónicas de los mayores focos urbanos contemporáneos en el reino de Castilla. El trabajo se ha desarrollado partiendo de la realización de una planimetría precisa y completa de las diez casas documentadas, uniendo al trabajo in situ sobre los datos materiales el estudio de las fuentes de archivo y de la bibliografía especializada existente sobre la materia. El análisis formal de las unidades domésticas ha sido enfocado al estudio tipológico de lo construido, haciendo especial hincapié en las pervivencias andalusíes sobre las cuales los nuevos moradores edificaron o adaptaron sus casas solariegas. En apoyo a las hipótesis presentadas se aporta la documentación arqueológica derivada de las excavaciones realizadas en los solares de las viviendas objeto de análisis, además de los planos de los estados previos a las recientes reformas sufridas por muchos de estos edificios. El análisis comparativo con algunos edificios contemporáneos en los que se ha documentado y estudiado cronológicamente su evolución histórica, ha permitido afianzar las hipótesis de datación y de reconstrucción de la distribución espacial de las fábricas originarias de la época tratada. Los objetivos de la investigación han sido orientados a poner de manifiesto la delicada y compleja transición de la medina nazarí a la ciudad cristiana, tratando también ciertas características multiculturales propias de las técnicas constructivas y de sociedad de la época. Los resultados de este estudio multidisciplinar se han registrado en un mapa de datos creado con el Sistema de Información Geográfico, en el que se han incluido tanto los datos cronológicos como formales, individualizando los ambientes que constituyen las pervivencias medievales y los que se han construido después, aportando sus distintas dataciones. Se ha querido dar respuesta a varios interrogativos: ¿Cómo se adapta la arquitectura castellana al tejido urbano andalusí? ¿Reaprovecha las preexistencias o las elimina en cada momento? ¿De qué modo la ciudad ha ido modificándose hasta configurarse como una ciudad moderna? ¿Cuánto se ha mantenido este patrimonio de casas? ¿Cómo se debería conservar? Se ha tratado de resolver estas cuestiones formulando síntesis gráficas en las que se puede comprender la evolución histórica de las viviendas acontecida a lo largo del siglo XVI, junto con sus transformaciones recientes provocadas por las intervenciones contemporáneas. Asimismo se aporta el estudio de las principales características de las intervenciones acometidas sobre este patrimonio único de viviendas, que por su propia naturaleza es altamente perecedero y necesita que se formulen criterios eficaces y correctos para su mayor conservación. El punto de partida de este trabajo no ha sido solamente el análisis de campo sino también la recopilación y ordenación de los datos procedentes de la bibliografía existente para formular discursos coherentes y precisos sobre la evolución de este tipo de viviendas históricas, cuyos valores son tan expuestos a graves deterioros que su catalogación, documentación y valoración se hacen imprescindibles. Pese a que las diez viviendas incluidas en los capítulos de estudio detallado estén catalogadas en los Planes Especiales de Protección (Albaicín, 1990 y Centro, 2002), sus caracteres formales y sus elementos estructurales y decorativos de valor histórico han sufrido un evidente proceso de expolio o destrucción, hecho grave que esta Tesis quiere reflejar de cara a la deseable futura puesta en valor real de estos edificios así como, indirectamente, de sus ámbitos urbanísticos de pertenencia. ABSTRACT The purpose of this thesis is to study the morphological and chronological characteristics of ten emblematic mansions belonging to the architectural period of the 16th Century in Granada, Spain. These houses are compared with other similar outstanding constructions of the same period that are located in the city, which have either been preserved or disappeared. Also, this study has taken into account the main architectural expressions of greater contemporary urban areas of the Kingdom of Castile. The work carried out began, first of all, by drawing a precise and thorough planimetry of the ten surveyed houses, together with in situ tasks based on physical data, a study of archival data, and the specialized existing bibliography on the subject. The formal analysis of the home units is focused as a typological study of erected buildings, with a special attention on Al Andalus remains over which the new householders constructed or adapted their mansions. The hypotheses brought forward have been supported by the archaeological documentation that had been elaborated during the excavation works of the houses concerned in this study. Moreover, the drawings of the states of the sites, previously to the most recent renovation works many of these buildings have undergone, have been presented. The comparative analysis made with some contemporary buildings, which have been chronologically documented and studied in their historical evolution, has confirmed the dating hypotheses, and that of the reconstruction of the spatial distribution of the original factories the period discussed. The aims of this research have been oriented to bring to light the delicate and complex transition of the town, from the Nasrid period to Christian times. The research has also dealt with some special multicultural characteristics of the constructive techniques, as well as of the society of that period. The results of this multidisciplinary study have been registered on a data map created with the Geographical Information System, which includes both the chronological and formal data. The Medieval settings, and those of later constructions, have been individualised and dated. Several questions have been answered: how the Castilian architecture adapts to the Al Andalus urban design? Have the pre-existing structures been reused or eliminated at each stage? How has the town evolved until becoming a modern city? To which degree this heritage of houses has remained? How should it been preserved? These questions have been approached by means of graphical syntheses in an attempt to bring an understanding of the historical evolution of the houses throughout the 16th Century. But also, this work shows the more recent transformations these structures suffered over the contemporary period. Moreover, there is a study of the main characteristics of interventions over this unique patrimony of housing which by nature is perishable and needs a formulation of correct and efficient criteria for better conservation. The starting point of this work has not only been that of field analysis, but also the gathering and ordering of the existing bibliographical data, in order to formulate coherent and precise statements on the evolution of this type of historical housing. Its treasures are so exposed to severe deterioration that their cataloguing, documentation and appreciation are becoming crucial. Despite the fact that the ten houses considered in the chapters of this detailed study are listed in the special protection plans (Planes Especiales de Protección, Albaicín plan of 1990 and the town centre plan of 2002) their formal characteristics, as well as structural and decorative historical value, have suffered gradual plunders or destruction. This thesis tries to reflect how serious is that matter and the need in the future to give this heritage and the surrounding urban environment, a real value.
Resumo:
Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.
Resumo:
Runtime management of distributed information systems is a complex and costly activity. One of the main challenges that must be addressed is obtaining a complete and updated view of all the managed runtime resources. This article presents a monitoring architecture for heterogeneous and distributed information systems. It is composed of two elements: an information model and an agent infrastructure. The model negates the complexity and variability of these systems and enables the abstraction over non-relevant details. The infrastructure uses this information model to monitor and manage the modeled environment, performing and detecting changes in execution time. The agents infrastructure is further detailed and its components and the relationships between them are explained. Moreover, the proposal is validated through a set of agents that instrument the JEE Glassfish application server, paying special attention to support distributed configuration scenarios.
Resumo:
CIAO is an advanced programming environment supporting Logic and Constraint programming. It offers a simple concurrent kernel on top of which declarative and non-declarative extensions are added via librarles. Librarles are available for supporting the ISOProlog standard, several constraint domains, functional and higher order programming, concurrent and distributed programming, internet programming, and others. The source language allows declaring properties of predicates via assertions, including types and modes. Such properties are checked at compile-time or at run-time. The compiler and system architecture are designed to natively support modular global analysis, with the two objectives of proving properties in assertions and performing program optimizations, including transparently exploiting parallelism in programs. The purpose of this paper is to report on recent progress made in the context of the CIAO system, with special emphasis on the capabilities of the compiler, the techniques used for supporting such capabilities, and the results in the áreas of program analysis and transformation already obtained with the system.