11 resultados para Intrinsically photosensitive RGCs
em Universidad Politécnica de Madrid
Resumo:
An earlier analysis of the Hall-magnetohydrodynamics (MHD) tearing instability [E. Ahedo and J. J. Ramos, Plasma Phys. Controlled Fusion 51, 055018 (2009)] is extended to cover the regime where the growth rate becomes comparable or exceeds the sound frequency. Like in the previous subsonic work, a resistive, two-fluid Hall-MHD model with massless electrons and zero-Larmor-radius ions is adopted and a linear stability analysis about a force-free equilibrium in slab geometry is carried out. A salient feature of this supersonic regime is that the mode eigenfunctions become intrinsically complex, but the growth rate remains purely real. Even more interestingly, the dispersion relation remains of the same form as in the subsonic regime for any value of the instability Mach number, provided only that the ion skin depth is sufficiently small for the mode ion inertial layer width to be smaller than the macroscopic lengths, a generous bound that scales like a positive power of the Lundquist number
Resumo:
Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.
Resumo:
In this paper, an architecture based on a scalable and flexible set of Evolvable Processing arrays is presented. FPGA-native Dynamic Partial Reconfiguration (DPR) is used for evolution, which is done intrinsically, letting the system to adapt autonomously to variable run-time conditions, including the presence of transient and permanent faults. The architecture supports different modes of operation, namely: independent, parallel, cascaded or bypass mode. These modes of operation can be used during evolution time or during normal operation. The evolvability of the architecture is combined with fault-tolerance techniques, to enhance the platform with self-healing features, making it suitable for applications which require both high adaptability and reliability. Experimental results show that such a system may benefit from accelerated evolution times, increased performance and improved dependability, mainly by increasing fault tolerance for transient and permanent faults, as well as providing some fault identification possibilities. The evolvable HW array shown is tailored for window-based image processing applications.
Resumo:
Evolvable hardware (EH) is an interesting alternative to conventional digital circuit design, since autonomous generation of solutions for a given task permits self-adaptivity of the system to changing environments, and they present inherent fault tolerance when evolution is intrinsically performed. Systems based on FPGAs that use Dynamic and Partial Reconfiguration (DPR) for evolving the circuit are an example. Also, thanks to DPR, these systems can be provided with scalability, a feature that allows a system to change the number of allocated resources at run-time in order to vary some feature, such as performance. The combination of both aspects leads to scalable evolvable hardware (SEH), which changes in size as an extra degree of freedom when trying to achieve the optimal solution by means of evolution. The main contributions of this paper are an architecture of a scalable and evolvable hardware processing array system, some preliminary evolution strategies which take scalability into consideration, and to show in the experimental results the benefits of combined evolution and scalability. A digital image filtering application is used as use case.
Resumo:
Un escenario habitualmente considerado para el uso sostenible y prolongado de la energía nuclear contempla un parque de reactores rápidos refrigerados por metales líquidos (LMFR) dedicados al reciclado de Pu y la transmutación de actínidos minoritarios (MA). Otra opción es combinar dichos reactores con algunos sistemas subcríticos asistidos por acelerador (ADS), exclusivamente destinados a la eliminación de MA. El diseño y licenciamiento de estos reactores innovadores requiere herramientas computacionales prácticas y precisas, que incorporen el conocimiento obtenido en la investigación experimental de nuevas configuraciones de reactores, materiales y sistemas. A pesar de que se han construido y operado un cierto número de reactores rápidos a nivel mundial, la experiencia operacional es todavía reducida y no todos los transitorios se han podido entender completamente. Por tanto, los análisis de seguridad de nuevos LMFR están basados fundamentalmente en métodos deterministas, al contrario que las aproximaciones modernas para reactores de agua ligera (LWR), que se benefician también de los métodos probabilistas. La aproximación más usada en los estudios de seguridad de LMFR es utilizar una variedad de códigos, desarrollados a base de distintas teorías, en busca de soluciones integrales para los transitorios e incluyendo incertidumbres. En este marco, los nuevos códigos para cálculos de mejor estimación ("best estimate") que no incluyen aproximaciones conservadoras, son de una importancia primordial para analizar estacionarios y transitorios en reactores rápidos. Esta tesis se centra en el desarrollo de un código acoplado para realizar análisis realistas en reactores rápidos críticos aplicando el método de Monte Carlo. Hoy en día, dado el mayor potencial de recursos computacionales, los códigos de transporte neutrónico por Monte Carlo se pueden usar de manera práctica para realizar cálculos detallados de núcleos completos, incluso de elevada heterogeneidad material. Además, los códigos de Monte Carlo se toman normalmente como referencia para los códigos deterministas de difusión en multigrupos en aplicaciones con reactores rápidos, porque usan secciones eficaces punto a punto, un modelo geométrico exacto y tienen en cuenta intrínsecamente la dependencia angular de flujo. En esta tesis se presenta una metodología de acoplamiento entre el conocido código MCNP, que calcula la generación de potencia en el reactor, y el código de termohidráulica de subcanal COBRA-IV, que obtiene las distribuciones de temperatura y densidad en el sistema. COBRA-IV es un código apropiado para aplicaciones en reactores rápidos ya que ha sido validado con resultados experimentales en haces de barras con sodio, incluyendo las correlaciones más apropiadas para metales líquidos. En una primera fase de la tesis, ambos códigos se han acoplado en estado estacionario utilizando un método iterativo con intercambio de archivos externos. El principal problema en el acoplamiento neutrónico y termohidráulico en estacionario con códigos de Monte Carlo es la manipulación de las secciones eficaces para tener en cuenta el ensanchamiento Doppler cuando la temperatura del combustible aumenta. Entre todas las opciones disponibles, en esta tesis se ha escogido la aproximación de pseudo materiales, y se ha comprobado que proporciona resultados aceptables en su aplicación con reactores rápidos. Por otro lado, los cambios geométricos originados por grandes gradientes de temperatura en el núcleo de reactores rápidos resultan importantes para la neutrónica como consecuencia del elevado recorrido libre medio del neutrón en estos sistemas. Por tanto, se ha desarrollado un módulo adicional que simula la geometría del reactor en caliente y permite estimar la reactividad debido a la expansión del núcleo en un transitorio. éste módulo calcula automáticamente la longitud del combustible, el radio de la vaina, la separación de los elementos de combustible y el radio de la placa soporte en función de la temperatura. éste efecto es muy relevante en transitorios sin inserción de bancos de parada. También relacionado con los cambios geométricos, se ha implementado una herramienta que, automatiza el movimiento de las barras de control en busca d la criticidad del reactor, o bien calcula el valor de inserción axial las barras de control. Una segunda fase en la plataforma de cálculo que se ha desarrollado es la simulació dinámica. Puesto que MCNP sólo realiza cálculos estacionarios para sistemas críticos o supercríticos, la solución más directa que se propone sin modificar el código fuente de MCNP es usar la aproximación de factorización de flujo, que resuelve por separado la forma del flujo y la amplitud. En este caso se han estudiado en profundidad dos aproximaciones: adiabática y quasiestática. El método adiabático usa un esquema de acoplamiento que alterna en el tiempo los cálculos neutrónicos y termohidráulicos. MCNP calcula el modo fundamental de la distribución de neutrones y la reactividad al final de cada paso de tiempo, y COBRA-IV calcula las propiedades térmicas en el punto intermedio de los pasos de tiempo. La evolución de la amplitud de flujo se calcula resolviendo las ecuaciones de cinética puntual. Este método calcula la reactividad estática en cada paso de tiempo que, en general, difiere de la reactividad dinámica que se obtendría con la distribución de flujo exacta y dependiente de tiempo. No obstante, para entornos no excesivamente alejados de la criticidad ambas reactividades son similares y el método conduce a resultados prácticos aceptables. Siguiendo esta línea, se ha desarrollado después un método mejorado para intentar tener en cuenta el efecto de la fuente de neutrones retardados en la evolución de la forma del flujo durante el transitorio. El esquema consiste en realizar un cálculo cuasiestacionario por cada paso de tiempo con MCNP. La simulación cuasiestacionaria se basa EN la aproximación de fuente constante de neutrones retardados, y consiste en dar un determinado peso o importancia a cada ciclo computacial del cálculo de criticidad con MCNP para la estimación del flujo final. Ambos métodos se han verificado tomando como referencia los resultados del código de difusión COBAYA3 frente a un ejercicio común y suficientemente significativo. Finalmente, con objeto de demostrar la posibilidad de uso práctico del código, se ha simulado un transitorio en el concepto de reactor crítico en fase de diseño MYRRHA/FASTEF, de 100 MW de potencia térmica y refrigerado por plomo-bismuto. ABSTRACT Long term sustainable nuclear energy scenarios envisage a fleet of Liquid Metal Fast Reactors (LMFR) for the Pu recycling and minor actinides (MAs) transmutation or combined with some accelerator driven systems (ADS) just for MAs elimination. Design and licensing of these innovative reactor concepts require accurate computational tools, implementing the knowledge obtained in experimental research for new reactor configurations, materials and associated systems. Although a number of fast reactor systems have already been built, the operational experience is still reduced, especially for lead reactors, and not all the transients are fully understood. The safety analysis approach for LMFR is therefore based only on deterministic methods, different from modern approach for Light Water Reactors (LWR) which also benefit from probabilistic methods. Usually, the approach adopted in LMFR safety assessments is to employ a variety of codes, somewhat different for the each other, to analyze transients looking for a comprehensive solution and including uncertainties. In this frame, new best estimate simulation codes are of prime importance in order to analyze fast reactors steady state and transients. This thesis is focused on the development of a coupled code system for best estimate analysis in fast critical reactor. Currently due to the increase in the computational resources, Monte Carlo methods for neutrons transport can be used for detailed full core calculations. Furthermore, Monte Carlo codes are usually taken as reference for deterministic diffusion multigroups codes in fast reactors applications because they employ point-wise cross sections in an exact geometry model and intrinsically account for directional dependence of the ux. The coupling methodology presented here uses MCNP to calculate the power deposition within the reactor. The subchannel code COBRA-IV calculates the temperature and density distribution within the reactor. COBRA-IV is suitable for fast reactors applications because it has been validated against experimental results in sodium rod bundles. The proper correlations for liquid metal applications have been added to the thermal-hydraulics program. Both codes are coupled at steady state using an iterative method and external files exchange. The main issue in the Monte Carlo/thermal-hydraulics steady state coupling is the cross section handling to take into account Doppler broadening when temperature rises. Among every available options, the pseudo materials approach has been chosen in this thesis. This approach obtains reasonable results in fast reactor applications. Furthermore, geometrical changes caused by large temperature gradients in the core, are of major importance in fast reactor due to the large neutron mean free path. An additional module has therefore been included in order to simulate the reactor geometry in hot state or to estimate the reactivity due to core expansion in a transient. The module automatically calculates the fuel length, cladding radius, fuel assembly pitch and diagrid radius with the temperature. This effect will be crucial in some unprotected transients. Also related to geometrical changes, an automatic control rod movement feature has been implemented in order to achieve a just critical reactor or to calculate control rod worth. A step forward in the coupling platform is the dynamic simulation. Since MCNP performs only steady state calculations for critical systems, the more straight forward option without modifying MCNP source code, is to use the flux factorization approach solving separately the flux shape and amplitude. In this thesis two options have been studied to tackle time dependent neutronic simulations using a Monte Carlo code: adiabatic and quasistatic methods. The adiabatic methods uses a staggered time coupling scheme for the time advance of neutronics and the thermal-hydraulics calculations. MCNP computes the fundamental mode of the neutron flux distribution and the reactivity at the end of each time step and COBRA-IV the thermal properties at half of the the time steps. To calculate the flux amplitude evolution a solver of the point kinetics equations is used. This method calculates the static reactivity in each time step that in general is different from the dynamic reactivity calculated with the exact flux distribution. Nevertheless, for close to critical situations, both reactivities are similar and the method leads to acceptable practical results. In this line, an improved method as an attempt to take into account the effect of delayed neutron source in the transient flux shape evolutions is developed. The scheme performs a quasistationary calculation per time step with MCNP. This quasistationary simulations is based con the constant delayed source approach, taking into account the importance of each criticality cycle in the final flux estimation. Both adiabatic and quasistatic methods have been verified against the diffusion code COBAYA3, using a theoretical kinetic exercise. Finally, a transient in a critical 100 MWth lead-bismuth-eutectic reactor concept is analyzed using the adiabatic method as an application example in a real system.
Resumo:
La telepesencia combina diferentes modalidades sensoriales, incluyendo, entre otras, la visual y la del tacto, para producir una sensación de presencia remota en el operador. Un elemento clave en la implementación de sistemas de telepresencia para permitir una telemanipulación del entorno remoto es el retorno de fuerza. Durante una telemanipulación, la energía mecánica es transferida entre el operador humano y el entorno remoto. En general, la energía es una propiedad de los objetos físicos, fundamental en su mutual interacción. En esta interacción, la energía se puede transmitir entre los objetos, puede cambiar de forma pero no puede crearse ni destruirse. En esta tesis, se aplica este principio fundamental para derivar un nuevo método de control bilateral que permite el diseño de sistemas de teleoperación estables para cualquier arquitectura concebible. El razonamiento parte del hecho de que la energía mecánica insertada por el operador humano en el sistema debe transferirse hacia el entorno remoto y viceversa. Tal como se verá, el uso de la energía como variable de control permite un tratamiento más general del sistema que el control convencional basado en variables específicas del sistema. Mediante el concepto de Red de Potencia de Retardo Temporal (RPRT), el problema de definir los flujos de energía en un sistema de teleoperación es solucionado con independencia de la arquitectura de comunicación. Como se verá, los retardos temporales son la principal causa de generación de energía virtual. Este hecho se observa con retardos a partir de 1 milisegundo. Esta energía virtual es añadida al sistema de forma intrínseca y representa la causa principal de inestabilidad. Se demuestra que las RPRTs son transportadoras de la energía deseada intercambiada entre maestro y esclavo pero a la vez generadoras de energía virtual debido al retardo temporal. Una vez estas redes son identificadas, el método de Control de Pasividad en el Dominio Temporal para RPRTs se propone como mecanismo de control para asegurar la pasividad del sistema, y as__ la estabilidad. El método se basa en el simple hecho de que esta energía virtual debido al retardo debe transformarse en disipación. As__ el sistema se aproxima al sistema deseado, donde solo la energía insertada desde un extremo es transferida hacia el otro. El sistema resultante presenta dos cualidades: por un lado la estabilidad del sistema queda garantizada con independencia de la arquitectura del sistema y del canal de comunicación; por el otro, el rendimiento es maximizado en términos de fidelidad de transmisión energética. Los métodos propuestos se sustentan con sistemas experimentales con diferentes arquitecturas de control y retardos entre 2 y 900 ms. La tesis concluye con un experimento que incluye una comunicación espacial basada en el satélite geoestacionario ASTRA. ABSTRACT Telepresence combines different sensorial modalities, including vision and touch, to produce a feeling of being present in a remote location. The key element to successfully implement a telepresence system and thus to allow telemanipulation of a remote environment is force feedback. In a telemanipulation, mechanical energy must convey from the human operator to the manipulated object found in the remote environment. In general, energy is a property of all physical objects, fundamental to their mutual interactions in which the energy can be transferred among the objects and can change form but cannot be created or destroyed. In this thesis, we exploit this fundamental principle to derive a novel bilateral control mechanism that allows designing stable teleoperation systems with any conceivable communication architecture. The rationale starts from the fact that the mechanical energy injected by a human operator into the system must be conveyed to the remote environment and Vice Versa. As will be seen, setting energy as the control variable allows a more general treatment of the controlled system in contrast to the more conventional control of specific systems variables. Through the Time Delay Power Network (TDPN) concept, the issue of defining the energy flows involved in a teleoperation system is solved with independence of the communication architecture. In particular, communication time delays are found to be a source of virtual energy. This fact is observed with delays starting from 1 millisecond. Since this energy is added, the resulting teleoperation system can be non-passive and thus become unstable. The Time Delay Power Networks are found to be carriers of the desired exchanged energy but also generators of virtual energy due to the time delay. Once these networks are identified, the Time Domain Passivity Control approach for TDPNs is proposed as a control mechanism to ensure system passivity and therefore, system stability. The proposed method is based on the simple fact that this intrinsically added energy due to the communication must be transformed into dissipation. Then the system becomes closer to the ambitioned one, where only the energy injected from one end of the system is conveyed to the other one. The resulting system presents two benefits: On one hand, system stability is guaranteed through passivity independently from the chosen control architecture and communication channel; on the other, performance is maximized in terms of energy transfer faithfulness. The proposed methods are sustained with a set of experimental implementations using different control architectures and communication delays ranging from 2 to 900 milliseconds. An experiment that includes a communication Space link based on the geostationary satellite ASTRA concludes this thesis.
Resumo:
This work is concerned with the numerical solution of the evolution equations of thermomechanical systems, in such a way that the scheme itself satisfies the laws of thermodynamics. Within this framework, we present a novel integration scheme for the dynamics of viscoelastic continuum bodies in isothermal conditions. This method intrinsically satisfies the laws of thermodynamics arising from the continuum, as well as the possible additional symmetries. The resulting solutions are physically accurate since they preserve the fundamental physical properties of the model. Furthermore, the method gives an excellent performance with respect to robustness and stability. Proof for these claims as well as numerical examples that illustrate the performance of the novel scheme are provided
Resumo:
Durante la última década, se han llevado acabo numeroso estudios sobre la síntesis de materiales fotoluminiscentes sub-micrónicos, en gran medida, al amplio número de aplicaciones que demandan este tipo de materiales. En concreto dentro de los materiales fosforescentes o también denominados materiales con una prolongada persistencia de la luminiscencia, los estudios se han enfocado en la matriz de SrAl2O4 dopada con Europio (Eu2+) y Disprosio (Dy3+) dado que tiene mayor estabilidad y persistencia de la fosforescencia con respecto a otras matrices. Estos materiales se emplean mayoritariamente en pinturas luminiscentes, tintas, señalización de seguridad pública, cerámicas, relojes, textiles y juguetes fosforescentes. Dado al amplio campo de aplicación de los SrAl2O4:Eu, Dy, se han investigado múltiples rutas de síntesis como la ruta sol-gel, la síntesis hidrotermal, la síntesis por combustión, la síntesis láser y la síntesis en estado sólido con el fin de desarrollar un método eficiente y que sea fácilmente escalable. Sin embargo, en la actualidad el método que se emplea para el procesamiento a nivel industrial de los materiales basados en aluminato de estroncio es la síntesis por estado sólido, que requiere de temperaturas de entre 1300 a 1900oC y largos tiempos de procesamiento. Además el material obtenido tiene un tamaño de partícula de 20 a 100 μm; siendo este tamaño restrictivo para el empleo de este tipo de material en determinadas aplicaciones. Por tanto, el objetivo de este trabajo es el desarrollo de nuevas estrategias que solventen las actuales limitaciones. Dentro de este marco se plantean una serie de objetivos específicos: Estudio de los parámetros que gobiernan los procesos de reducción del tamaño de partícula mediante molienda y su relación en la respuesta fotoluminiscente. Estudio de la síntesis por combustión de SrAl2O4:Eu, Dy, evaluando el efecto de la temperatura y la cantidad de combustible (urea) en el proceso para la obtención de partículas cristalinas minimizando la presencia de fases secundarias. Desarrollo de nuevas rutas de síntesis de SrAl2O4:Eu, Dy empleando el método de sales fundidas. Determinación de los mecanismos de reacción en presencia de la sal fundida en función de los parámetros de proceso que comprende la relación de sales y reactivos, la naturaleza de la alúmina y su tamaño, la temperatura y atmósfera de tratamiento. Mejora de la eficiencia de los procesos de síntesis para obtener productos con propiedades finales óptimas en procesos factibles industrialmente para su transferencia tecnológica. Es este trabajo han sido evaluados los efectos de diferentes procesos de molienda para la reducción del tamaño de partícula del material de SrAl2O4:Eu, Dy comercial. En el proceso de molienda en medio húmedo por atrición se observa la alteración de la estructura cristalina del material debido a la reacción de hidrólisis generada incluso empleando como medio líquido etanol absoluto. Con el fin de solventar las desventajas de la molienda en medio húmedo se llevo a cabo un estudio de la molturación en seco del material. La molturación en seco de alta energía reduce significativamente el tamaño medio de partícula. Sin embargo, procesos de molienda superiores a una duración de 10 minutos ocasionan un aumento del estado de aglomeración de las partículas y disminuyen drásticamente la respuesta fotoluminiscente del material. Por tanto, se lleva a cabo un proceso de molienda en seco de baja energía. Mediante este método se consigue reducir el tamaño medio de partícula, d50=2.8 μm, y se mejora la homogeneidad de la distribución del tamaño de partícula evitando la amorfización del material. A partir de los resultados obtenidos mediante difracción de rayos X y microscopia electrónica de barrido se infiere que la disminución de la intensidad de la fotoluminiscencia después de la molienda en seco de alta energía con respecto al material inicial se debe principalmente a la reducción del tamaño de cristalito. Se observan menores variaciones en la intensidad de la fotoluminiscencia cuando se emplea un método de molienda de baja de energía ya que en estos procesos se preserva el dominio cristalino y se reduce la amorfización significativamente. Estos resultados corroboran que la intensidad de la fotoluminiscencia y la persistencia de la luminiscencia de los materiales de SrAl2O4:Eu2+, Dy3+ dependen extrínsecamente de la morfología de las partículas, del tamaño de partícula, el tamaño de grano, los defectos superficiales e intrínsecamente del tamaño de cristalito. Siendo las características intrínsecas las que dominan con respecto a las extrínsecas y por tanto tienen mayor relevancia en la respuesta fotoluminiscente. Mediante síntesis por combustión se obtuvieron láminas nanoestructuradas de SrAl2O4:Eu, Dy de ≤1 μm de espesor. La cantidad de combustible, urea, en la reacción influye significativamente en la formación de determinadas fases cristalinas. Para la síntesis del material de SrAl2O4:Eu, Dy es necesario incluir un contenido de urea mayor que el estequiométrico (siendo m=1 la relación estequiométrica). La incorporación de un exceso de urea (m>1) requiere de la presencia de un agente oxidante interno, HNO3, para que la reacción tenga lugar. El empleo de un mayor contenido de urea como combustible permite una quelación efectiva de los cationes en el sistema y la creación de las condiciones reductoras para obtener un material de mayor cristalinidad y con mejores propiedades fotoluminiscentes. El material de SrAl2O4:Eu, Dy sintetizado a una temperatura de ignición de 600oC tiene un tamaño medio 5-25 μm con un espesor de ≤1 μm. Mediante procesos de molturación en seco de baja energía es posible disminuir el tamaño medio de partícula ≈2 μm y homogenizar la distribución del tamaño de partícula pero hay un deterioro asociado de la respuesta luminiscente. Sin embargo, se puede mejorar la respuesta fotoluminiscente empleando un tratamiento térmico posterior a 900oC N2-H2 durante 1 hora que no supone un aumento del tamaño de partícula pero si permite aumentar el tamaño de cristalito y la reducción del Eu3+ a Eu2+. Con respecto a la respuesta fotoluminiscente, se obtiene valores de la intensidad de la fotoluminiscencia entre un 35%-21% con respecto a la intensidad de un material comercial de referencia. Además la intensidad inicial del decaimiento de la fosforescencia es un 20% de la intensidad del material de referencia. Por tanto, teniendo en cuenta estos resultados, es necesario explorar otros métodos de síntesis para la obtención de los materiales bajo estudio. Por esta razón, en este trabajo se desarrollo una ruta de síntesis novedosa para sintetizar SrAl2O4:Eu, Dy mediante el método de sales fundidas para la obtención de materiales de gran cristalinidad con tamaños de cristalito del orden nanométrico. Se empleo como sal fundente la mezcla eutéctica de NaCl y KCl, denominada (NaCl-KCl)e. La principal ventaja de la incorporación de la mezcla es el incremento la reactividad del sistema, reduciendo la temperatura de formación del SrAl2O4 y la duración del tratamiento térmico en comparación con la síntesis en estado sólido. La formación del SrAl2O4 es favorecida ya que se aumenta la difusión de los cationes de Sr2+ en el medio líquido. Se emplearon diferentes tipos de Al2O3 para evaluar el papel del tamaño de partícula y su naturaleza en la reacción asistida por sales fundidas y por tanto en la morfología y propiedades del producto final. Se obtuvieron partículas de morfología pseudo-esférica de tamaño ≤0.5 μm al emplear como alúmina precursora partículas sub-micrónicas ( 0.5 μm Al2O3, 0.1 μm Al2 O3 y γ-Al2O3). El mecanismo de reacción que tiene lugar se asocia a procesos de disolución-precipitación que dominan al emplear partículas de alúmina pequeñas y reactivas. Mientras al emplear una alúmina de 6 μm Al2O3 prevalecen los procesos de crecimiento cristalino siguiendo un patrón o plantilla debido a la menor reactividad del sistema. La nucleación y crecimiento de nanocristales de SrAl2O4:Eu, Dy se genera sobre la superficie de la alúmina que actúa como soporte. De esta forma se desarrolla una estructura del tipo coraza-núcleo («core-shell» en inglés) donde la superficie externa está formada por los cristales fosforescentes de SrAl2O4 y el núcleo está formado por alúmina. Las partículas obtenidas tienen una respuesta fotoluminiscente diferente en función de la morfología final obtenida. La optimización de la relación Al2O3/SrO del material de SrAl2O4:Eu, Dy sintetizado a partir de la alúmina de 6 μm permite reducir las fases secundarias y la concentración de dopantes manteniendo la respuesta fotoluminiscente. Comparativamente con un material comercial de SrAl2O4:Eu, Dy de referencia, se han alcanzado valores de la intensidad de la emisión de hasta el 90% y de la intensidad inicial de las curvas de decaimiento de la luminiscencia de un 60% para el material sintetizado por sales fundidas que tiene un tamaño medio ≤ 10μm. Por otra parte, es necesario tener en cuenta que el SrAl2O4 tiene dos polimorfos, la fase monoclínica que es estable a temperaturas inferiores a 650oC y la fase hexagonal, fase de alta temperatura, estable a temperaturas superiores de 650oC. Se ha determinado que fase monoclínica presenta propiedades luminiscentes, sin embargo existen discordancias a cerca de las propiedades luminiscentes de la fase hexagonal. Mediante la síntesis por sales fundidas es posible estabilizar la fase hexagonal empleando como alúmina precursora γ-Al2O3 y un exceso de Al2O3 (Al2O3/SrO:2). La estabilización de la fase hexagonal a temperatura ambiente se produce cuando el tamaño de los cristales de SrAl2O4 es ≤20 nm. Además se observó que la fase hexagonal presenta respuesta fotoluminiscente. El diseño de materiales de SrAl2O4:Eu,Dy nanoestructurados permite modular la morfología del material y por tanto la intensidad de la de la fotoluminiscencia y la persistencia de la luminiscencia. La disminución de los materiales precursores, la temperatura y el tiempo de tratamiento significa la reducción de los costes económicos del material. De ahí la viabilidad de los materiales de SrAl2O4:Eu,Dy obtenidos mediante los procesos de síntesis propuestos en esta memoria de tesis para su posterior escalado industrial. ABSTRACT The synthesis of sub-micron photoluminescent particles has been widely studied during the past decade because of the promising industrial applications of these materials. A large number of matrices has been developed, being SrAl2O4 host doped with europium (Eu2+) and dysprosium (Dy3+) the most extensively studied, because of its better stability and long-lasting luminescence. These functional inorganic materials have a wide field of application in persistent luminous paints, inks and ceramics. Large attention has been paid to the development of an efficient method of preparation of SrAl2O4 powders, including solgel method, hydrothermal synthesis, laser synthesis, combustion synthesis and solid state reaction. Many of these techniques are not compatible with large-scale production and with the principles of sustainability. Moreover, industrial processing of highly crystalline powders usually requires high synthesis temperatures, typically between 1300 a 1900oC, with long processing times, especially for solid state reaction. As a result, the average particle size is typically within the 20-100 μm range. This large particle size is limiting for current applications that demand sub-micron particles. Therefore, the objective of this work is to develop new approaches to overcome these limitations. Within this frame, it is necessary to undertake the following purposes: To study the parameters that govern the particle size reduction by milling and their relation with the photoluminescence properties. To obtain SrAl2O4:Eu, Dy by combustion synthesis, assessing the effect of the temperature and the amount of fuel (urea) to synthesize highly crystalline particles minimizing the presence of secondary phases. To develop new synthesis methods to obtain SrAl2O4:Eu, Dy powders. The molten salt synthesis has been proposed. As the method is a novel route, the reaction mechanism should be determine as a function of the salt mixture, the ratio of the salt, the kind of Al2O3 and their particle size and the temperature and the atmosphere of the thermal treatment. To improve the efficiency of the synthesis process to obtain SrAl2O4:Eu, Dy powders with optimal final properties and easily scalable. On the basis of decreasing the particle size by using commercial product SrAl2O4:Eu2+, Dy3+ as raw material, the effects of different milling methods have been evaluated. Wet milling can significantly alter the structure of the material through hydrolysis reaction even in ethanol media. For overcoming the drawbacks of wet milling, a dry milling-based processes are studied. High energy dry milling process allows a great reduction of the particle size, however milling times above 10 min produce agglomeration and accelerates the decrease of the photoluminescence feature. To solve these issues the low energy dry milling process proposed effectively reduces the particle size to d50=2.8 μm, and improves the homogeneity avoiding the amorphization in comparison with previous methods. The X-ray diffraction and scanning electron microscope characterization allow to infer that the large variations in PL (Photoluminescence) values by high energy milling process are a consequence mainly of the crystallite size reduction. The lesser variation in PL values by low energy milling proces is related to the coherent crystalline domain preservation and the unnoticeable amorphization. These results corroborate that the photoluminescence intensity and the persistent luminescence of the SrAl2O4:Eu2+, Dy3+ powders depend extrinsically on the morphology of the particles such as particle size, grain size, surface damage and intrinsically on the crystallinity (crystallite size); being the intrinsically effects the ones that have a significant influence on the photoluminescent response. By combustion method, nanostructured SrAl2O4:Eu2+, Dy3+ sheets with a thickness ≤1 μm have been obtained. The amount of fuel (urea) in the reaction has an important influence on the phase composition; urea contents larger than the stoichiometric one require the presence of an oxidant agent such as HNO3 to complete the reaction. A higher amount of urea (excess of urea: denoted m>1, being m=1 the stoichiometric composition) including an oxidizing agent produces SrAl2O4:Eu2+,Dy3+ particles with persistent luminescence due to the effective chelation of the cations and the creation of suitable atmospheric conditions to reduce the Eu3+ to Eu2+. Therefore, optimizing the synthesis parameters in combustion synthesis by using a higher amount of urea and an internal oxidizing agent allows to complete the reaction. The amount of secondary phases can be significantly reduced and the photoluminescence response can be enhanced. This situation is attributed to a higher energy that improves the crystallinity of the powders. The powders obtained have a particle size c.a. 5-25 μm with a thickness ≤1 μm and require relatively low ignition temperatures (600oC). It is possible to reduce the particle size by a low energy dry milling but this process implies the decrease of the photoluminescent response. However, a post-thermal treatment in a reducing atmosphere allows the improvement of the properties due to the increment of crystallinity and the reduction of Eu3+ to Eu2+. Compared with the powder resulted from solid state method (commercial reference: average particle size, 20 μm and heterogeneous particle size distribution) the emission intensity of the powder prepared by combustion method achieve the values between 35% to 21% of the reference powder intensity. Moreover, the initial intensity of the decay curve is 20% of the intensity of the reference powder. Taking in account these results, it is necessary to explore other methods to synthesize the powders For that reason, an original synthetic route has been developed in this study: the molten salt assisted process to obtain highly crystalline SrAl2O4 powders with nanometric sized crystallites. The molten salt was composed of a mixture of NaCl and KCl using a 0.5:0.5 molar ratio (eutectic mixture hereafter abbreviated as (NaCl-KCl)e). The main advantages of salt addition is the increase of the reaction rate, the significant reduction of the synthesis temperature and the duration of the thermal treatment in comparison with classic solid state method. The SrAl2O4 formation is promoted due to the high mobility of the Sr2+ cations in the liquid medium. Different kinds of Al2O3 have been employed to evaluate the role of the size and the nature of this precursor on the kinetics of reaction, on the morphology and the final properties of the product. The SrAl2O4:Eu2+, Dy3+ powders have pseudo-spherical morphology and particle size ≤0.5 μm when a sub-micron Al2O3 ( 0.5 μm Al2O3, 0.1 μm Al2O3 and γ-Al2O3) has been used. This can be attributed to a higher reactivity in the system and the dominance of dissolution-precipitation mechanism. However, the use of larger alumina (6 μm Al2O3) modifies the reaction pathway leading to a different reaction evolution. More specifically, the growth of SrAl2O4 sub-micron particles on the surface of hexagonal platelets of 6μm Al2O3 is promoted. The particles retain the shape of the original Al2O3 and this formation process can be attributed to a «core-shell» mechanism. The particles obtained exhibit different photoluminescent response as a function of the final morphology of the powder. Therefore, through this study, it has been elucidated the reaction mechanisms of SrAl2O4 formation assisted by (NaCl-KCl)e that are governed by the diffusion of SrCO3 and the reactivity of the alumina particles. Optimizing the Al2O3/SrO ratio of the SrAl2O4:Eu, Dy powders synthesized with 6 μm Al2O3 as a precursor, the secondary phases and the concentration of dopant needed can be reduced keeping the photoluminescent response of the synthesized powder. Compared with the commercial reference powder, up to 90% of the emission intensity of the reference powder has been achieved for the powder prepared by molten salt method using 6μm Al2O3 as alumina precursor. Concerning the initial intensity of the decay curve, 60% of the initial intensity of the reference powder has been obtained. Additionally, it is necessary to take into account that SrAl2O4 has two polymorphs: monoclinic symmetry that is stable at temperatures below 650oC and hexagonal symmetry that is stable above this temperature. Monoclinic phase shows luminescent properties. However, there is no clear agreement on the emission of the hexagonal structure. By molten salt, it is possible to stabilize the hexagonal phase of SrAl2O4 employing an excess of Al2O3 (Al2O3/SrO: 2) and γ-Al2O3 as a precursor. The existence of nanometric crystalline domains with lower size (≤20 nm) allows the stabilization of the hexagonal phase. Moreover, it has been evidenced that the hexagonal polymorph exhibits photoluminescent response. To sum up, the design of nanostructured SrAl2O4:Eu2+, Dy3+ materials allows to obtain different morphologies and as consequence different photoluminescent responses. The reduction of temperature, duration of the thermal treatment and the precursors materials needed imply the decrease of the economic cost of the material. Therefore, the viability, suitability and scalability of the synthesis strategy developed in this work to process SrAl2O4:Eu2+, Dy3+ are demonstrated.
Resumo:
El territorio chileno esta propenso, desde antes que se constituyera como nación, al impacto del comportamiento de la naturaleza que le es inherente y que también le produce daños. Está representado en los seísmos, los más dañinos. Todavía, la sociedad chilena no termina de comprender que esos daños, son parte de un desequilibrio de una convivencia armoniosa entre ella y esa naturaleza, puesto que el ser humano que vive y habita sobre ella, también lo es. Así entonces, cada vez que el territorio y su espacio son remecidos por los seísmos, la naturaleza, manifestada en la sociedad, adquiere nuevos aprendizajes para mejorar la respuesta al próximo evento. El terremoto 2010 de 8.8° Richter, fue el segundo de mayor magnitud después del otro que hasta ahora, es el más grande del planeta, y que pudo ser medido. Aquel, fue el terremoto de Valdivia de 9,5° Richter, ocurrido el 22 de mayo de 1960. Las sociedades no son estáticas, cambian, son dinámicas. Esta vez el seísmo del 2010, ocurrió en una sociedad que hace ya 35 años, adoptó un modelo de economía de libre mercado. La pobreza que tenía a 1990, era de aproximadamente, un 40%. La del 2010, de un 14%. Durante la dictadura militar hubo otro seísmo de 7,8° Richter, recién instalándose el modelo aludido. El del 2010, permite sacar conclusiones en el contexto de este modelo económico. Los resultados aparentemente son interesantes en cuanto a que hubo pocas víctimas pero por otra parte, hubo un gran daño económico. La tesis profundiza en el impacto del seísmo en la dimensión del parque habitacional construido y de la vivienda social y en los habitantes más pobres y vulnerables. Es la primera investigación sobre seísmos y vivienda social en Chile. Se asume la hipótesis que ciertas variables por una parte, y una cultura antisísmica por otra, están presentes y han penetrado en los sectores populares durante los últimos 50 años y que ello, podría estar en la base de los resultados obtenidos. Se plantea una suerte de “matrimonio bien avenido” entre el habitante y políticas públicas en vivienda. De ello, se derivan recomendaciones para mejorar los avances en el problema investigado que se contextualizan en referencia al marco teórico elaborado. Sin embargo, y no obstante lo investigado, lo ya avanzado no garantiza buenos resultados en el próximo evento, Por ello, los aprendizajes nutren a otros, nuevos, que acompañarán a la sociedad chilena en su esencia e identidad como nación. ABSTRACT Long before its establishment as an independent nation, the Chilean territory has been prone to the impact of nature, which is an inherent and damaging feature of this land. Such an impact is represented by earthquakes, which are regarded as the most damaging natural disasters. Today, the Chilean society is still unable to understand that these impacts are part of an unbalanced coexistence between individuals and nature since human beings, who live and inhabit this space, are also an element of nature. Therefore, each time this territory is hit by earthquakes, nature —represented by society— learns new lessons in order to provide a better response to future events. The 2010 earthquake, which rated 8.8 on the Richter scale, was the second largest earthquake after the most powerful earthquake ever recorded. Such an event was the Valdivia earthquake of May 22, 1960, which rated 9.5 on the Richter scale. Societies are not static as they are changing and dynamic. The 2010 earthquake took place within a context in which society operated under a free market economy model that had been running for 35 years. As of 1990, 40 per cent of the population lived in poverty; in 2010, such a figure was reduced to 14 per cent. Likewise, a magnitude 7.8 quake struck the country during the military regime period in the early days of the above model. The 2010 earthquake allows us to draw some conclusions within the context of this economic model. Results are interesting since there were few fatalities but significant economic loss. This thesis provides insights into the impact of the 2010 earthquake on the housing stock, social housing and those living in poverty and vulnerability. This is the first research on earthquakes and social housing conducted in Chile. The hypothesis is that certain variables and anti-seismic culture have permeated popular segments of the population over the last 50 years. The latter may be at the basis of the results obtained during this research. Likewise, this study proposes a certain “happy marriage” between the inhabitant and public policies on housing. The above offers some recommendations intended to further explore this issue; these suggestions are contextualized according to the theoretical framework developed in this research. However, current progress on this matter does not ensure positive results in the event of an earthquake. This is why these lessons will serve as models for future events, which are intrinsically tied to local society and Chilean identity.
Resumo:
Esta investigación analiza la capacidad del urbanismo de albergar sistemas emergentes de gestión urbana. El objetivo de esta tesis es describir estos procedimientos informales, realizando un exhaustivo recorrido a través de diversas experiencias de alteración del modo de gestión urbana al uso, para dar lugar a una sistematización de estos procesos que siente las bases para plantear nuevas formas de gestión urbana. Es decir, el fin no es tanto hacer una clasificación de las intervenciones más relevantes en materia urbana, sino descubrir su estructura, un orden para el desorden, una taxonomía en esas actuaciones que permita reformular las formas actuales de gestión de lo público. Se ha tratado de dibujar un mapa de oportunidades posibles en torno a la gestión del espacio urbano. A través de los procesos estudiados, esta investigación analiza los éxitos y fracasos obtenidos en los últimos cinco años de gestión alternativa de espacios vacantes, buscando extraer formulas susceptibles de incorporarse al modo actual de hacer ciudad. Este estudio pretende abordar un aspecto parcial, aunque fundamental del urbanismo, dando prioridad a lo público, sin la intención de negar el resto de formas del espacio urbano. Se concentra en los parámetros relativos a la interpretación de lo público: desatiende al conjunto urbano para descifrar ese fragmento. Así, el interés principal de esta tesis se concentra en la producción del espacio público. Al entender este ámbito como no exclusivo del urbanismo, otras actividades como el arte, la filosofía, la antropología o la sociología han aportado aspectos fundamentales dentro de esta investigación. De esta forma se ofrece un acercamiento poliédrico desde puntos de vista interdisciplinares, tratando de descubrir con rigor las posibilidades contrastadas de mejora del espacio urbano producido por los procesos emergentes de gestión informal de lo público. Mediante un metodología creada ex profeso (una estructura definida por tres líneas estratégicas: Gobernanza, Complejidad y Cohesión Social, que se desglosan en seis conceptos clave cada una) esta investigación analiza los aspectos relativos a la producción informal del espacio público de los sistemas emergentes. En relación con la Gobernanza, una parte de esta tesis se dedica al estudio de la informalidad, la transversalidad, la apropiación, la participación, la transparencia y las redes. La Complejidad se ha estudiado en su relación con la diversidad urbana, el uso sostenible del espacio público, la reactivación, la producción de espacio público, la ecología urbana y los procesos creativos. Para Cohesión Social se ha investigado la innovación en equipamientos, los procesos bottom-up, el rizoma, la identidad, los sistemas líquidos y el empoderamiento. Esta máquina para analizar se prueba en tres soportes urbanos: la escena urbana, los edificios-contenedores y los vacíos urbanos. Se han estudiado cinco situaciones urbanas en la ciudad de Madrid, seleccionados por ser las prácticas urbanas más relevantes de los últimos cinco años. Si bien este análisis nace de estos cincos casos, el modelo podría ser útil para otras investigaciones interesadas en los aspectos informales de la gestión urbana. Esta investigación se propone reclamar otras dimensiones más innovadoras que, si bien se escapan a los modos habituales de trabajar del urbanista, se revelan intensamente en los modos actuales de reclamar y producir espacio urbano. Se ha pretendido descubrir el espacio urbano como contenedor situacional del sentido público, potencial multiplicador de efectos funcionales como la gestión, la temporalidad, la participación, la rehabilitación, la multiplicidad de usos, la corrección del compacidad; efectos perceptuales y estéticos en la escena urbana; efectos políticos, de formación, de adquisición de poder; efectos sociales como la generación de nuevas redes, la creación de identidades. Se pretende que esta investigación arroje conclusiones que puedan tener aplicabilidad en la gestión y planificación del espacio público de ciudades y entornos urbanos inmersos a procesos semejantes. ABSTRACT This research examines the ability of urban planning to accommodate emerging urban management systems. The purpose of this thesis is to describe such informal procedures, by carrying out an exhaustive review across the different approaches to urban management, in order to systematize them as the basis for new ways of urban management. The aim is not, that is, to classify relevant urban interventions, but to recognize the intrinsic structure, an order for disorder, a taxonomy in those proceedings that could help reformulating existing forms of public management. The attempt has been to draw a map of possible opportunities around the management of urban space. Through the processes that have been the object of study, this research analyzes the successes and failures over the last five years of alternative management of vacant spaces, seeking to extract formulas that are likely to join the current way of making city. The focus of this urban study is the interpretation of public concepts, considered as key dimensions, not obliterating the other forms of urban space, but trying to make an in-depth analysis of this fragment within the global urban concept. Other activities intrinsically associated to public space generation, such as art, philosophy, anthropology or even sociology, are also contributing to this research. This interdisciplinary approach tries to enrich the research by recognizing the informal elements participating in emergent public management processes. The ex profeso devised methodology is structured by three main strategies: governance, complexity and Social Cohesiveness. Governance considers elements associated to informality, transversal dynamics, appropriation, participation, transparency and networking. Complexity encompasses elements of urban diversity, sustainable usage of public space, reactivation, urban space production, urban ecology and creative processes. Social Cohesiveness includes elements for equipment innovation, bottom-up processes, rhizome, identity, liquid systems and empowerment. This analyzing machine is tested on three urban scenarios: the urban scene, container buildings and empty spaces. Five relevant urban situations in Madrid have been selected, all of them developed in last five years, thus establishing the basis for other experiences of informal urban management. The result of the research, confirms the relevance of additional dimensions to traditional approaches for urban development. The urban space is recognized as a situational container of public sense and a potential multiplier of functional effects such as public management, temporality, participation, rehabilitation, multiplicity of uses, correction of compactness; perceptual and esthetic effects on the urban scene; politic effects, training, empowerment; social effects as generating new networks and identity creation. To sum up, the purpose of this thesis is to share the conclusions obtained by evaluating reference scenarios that could be applied in similar processes for cities and urban environment management and planning.
Resumo:
Three-dimensional Direct Numerical Simulations combined with Particle Image Velocimetry experiments have been performed on a hemisphere-cylinder at Reynolds number 1000 and angle of attack 20◦. At these flow conditions, a pair of vortices, so-called “horn” vortices, are found to be associated with flow separation. In order to understand the highly complex phenomena associated with this fully threedimensional massively separated flow, different structural analysis techniques have been employed: Proper Orthogonal and Dynamic Mode Decompositions, POD and DMD, respectively, as well as criticalpoint theory. A single dominant frequency associated with the von Karman vortex shedding has been identified in both the experimental and the numerical results. POD and DMD modes associated with this frequency were recovered in the analysis. Flow separation was also found to be intrinsically linked to the observed modes. On the other hand, critical-point theory has been applied in order to highlight possible links of the topology patterns over the surface of the body with the computed modes. Critical points and separation lines on the body surface show in detail the presence of different flow patterns in the base flow: a three-dimensional separation bubble and two pairs of unsteady vortices systems, the horn vortices, mentioned before, and the so-called “leeward” vortices. The horn vortices emerge perpendicularly from the body surface at the separation region. On the other hand, the leeward vortices are originated downstream of the separation bubble, as a result of the boundary layer separation. The frequencies associated with these vortical structures have been quantified.