29 resultados para power spectral analysis


Relevância:

80.00% 80.00%

Publicador:

Resumo:

We develop a novel remote sensing technique for the observation of waves on the ocean surface. Our method infers the 3-D waveform and radiance of oceanic sea states via a variational stereo imagery formulation. In this setting, the shape and radiance of the wave surface are given by minimizers of a composite energy functional that combines a photometric matching term along with regularization terms involving the smoothness of the unknowns. The desired ocean surface shape and radiance are the solution of a system of coupled partial differential equations derived from the optimality conditions of the energy functional. The proposed method is naturally extended to study the spatiotemporal dynamics of ocean waves and applied to three sets of stereo video data. Statistical and spectral analysis are carried out. Our results provide evidence that the observed omnidirectional wavenumber spectrum S(k) decays as k-2.5 is in agreement with Zakharov's theory (1999). Furthermore, the 3-D spectrum of the reconstructed wave surface is exploited to estimate wave dispersion and currents.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

So far, no experimental data of the infrared and Raman spectra of 13C isotopologue of dimethyl ether are available. With the aim of providing some clues of its low-lying vibrational bands and with the hope of contributing in a next spectral analysis, a number of vibrational transition frequencies below 300 cm−1 of the infrared spectrum and around 400 cm−1 of the Raman spectrum have been predicted and their assignments were proposed. Calculations were carried out through an ab initio three dimensional potential energy surface based on a previously reported one for the most abundant dimethyl ether isotopologue (M. Villa et al., J. Phys. Chem. A 115 (2011) 13573). The potential function was vibrationally corrected and computed with a highly correlated CCSD(T) method involving the COC bending angle and the two large amplitude CH3 internal rotation degrees of freedom. Also, the Hamiltonian parameters could represent a support for the spectral characterization of this species. Although the computed vibrational term values are expected to be very accurate, an empirical adjustment of the Hamiltonian has been performed with the purpose of anticipating some workable corrections to any possible divergence of the vibrational frequencies. Also, the symmetry breaking derived from the isotopic substitution of 13C in the dimethyl ether was taken into account when the symmetrization procedure was applied.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La determinación del origen de un material utilizado por el hombre en la prehistoria es de suma importancia en el ámbito de la arqueología. En los últimos años, los estudios de procedencia han utilizado técnicas que suelen ser muy precisas pero con el inconveniente de ser metodologías de carácter destructivo. El fenómeno de la minería a gran escala es una de las características que acompaña al Neolítico, de ahí que la revolución correspondiente a este periodo sea una de las etapas más importantes para la humanidad. El yacimiento arqueológico de Casa Montero es una mina de sílex neolítica ubicada en la Península Ibérica, de gran importancia por su antigüedad y su escala productiva. Este sitio arqueológico corresponde a una cantera de explotación de rocas silícicas desarrollada en el periodo neolítico en la que solamente se han encontrado los desechos de la extracción minera, lo cual incrementa la variabilidad de las muestras analizadas, de las que se desconoce su contexto económico, social y cultural. Es de gran interés arqueológico saber por qué esos grupos neolíticos explotaban de forma tan intensiva determinados tipos de material y cuál era el destino de la cadena productiva del sílex. Además, por ser una excavación de rescate, que ha tenido que procesar varias toneladas de material, en un tiempo relativamente corto, requiere de métodos expeditivos de clasificación y manejo de dicho material. Sin embargo,la implementación de cualquier método de clasificación debe evitar la alteración o modificación de la muestra,ya que,estudios previos sobre caracterización de rocas silícicas tienen el inconveniente de alterar parcialmente el objeto de estudio. Por lo que el objetivo de esta investigación fue la modelización del registro y procesamiento de datos espectrales adquiridos de rocas silícicas del yacimiento arqueológico de Casa Montero. Se implementó la metodología para el registro y procesamiento de datos espectrales de materiales líticos dentro del contexto arqueológico. Lo anterior se ha conseguido con la aplicación de modelos de análisis espectral, algoritmos de suavizado de firmas espectrales, reducción de la dimensionalidad de las características y la aplicación de métodos de clasificación, tanto de carácter vectorial como raster. Para la mayoría de los procedimientos se ha desarrollado una aplicación informática validada tanto por los propios resultados obtenidos como comparativamente con otras aplicaciones. Los ensayos de evaluación de la metodología propuesta han permitido comprobar la eficacia de los métodos. Por lo que se concluye que la metodología propuesta no solo es útil para materiales silícicos, sino que se puede generalizar en aquellos procesos donde la caracterización espectral puede ser relevante para la clasificación de materiales que no deban ser alterados, además, permite aplicarla a gran escala, dado que los costes de ejecución son mínimos si se comparan con los de métodos convencionales. Así mismo, es de destacar que los métodos propuestos, representan la variabilidad del material y permiten relacionarla con el estado del yacimiento, según su contenido respecto de las tipologías de la cadena operativa. ABSTRACT: The determination of the origin of a material used by man in prehistory is very important in the field of archaeology. In recent years the provenance studies have used techniques that tend to be very precise but with the drawback of being destructive methodologies. The phenomenon of mining on a large scale is a feature that accompanies the Neolithic period; the Neolithic revolution is one of the most important periods of humanity. The archaeological site of Casa Montero is a Neolithic flint mine located in the Iberian Peninsula of great importance for its antiquity and its scale. This archaeological site corresponds to a quarry exploitation of silicic rocks developed in the Neolithic period, in which only found debris from mining, which increases the variability of the samples analyzed, including their economic, social and cultural context is unknown. It is of great archaeological interest to know why these Neolithic groups exploited as intensive certain types of material and what the final destination of flint was in the productive chain. In addition, being an excavation of rescue that had to process several tons of material in a relatively short time requires expeditious methods of classification and handling of the material. However, the implementation of any method of classification should avoid the alteration or modification of the sample, since previous studies on characterization of silicic rocks have the disadvantage of destroying or partially modify the object of study. So the objective of this research wasthe modeling of the registration and processing of acquired spectral data of silicic rocks of the archaeological site of Casa Montero. The methodology implemented for modeling the registration and processing of existing spectral data of lithic materials within the archaeological context, was presented as an alternative to the conventional classification methods (methods destructive and expensive) or subjective methods that depend on the experience of the expert. The above has been achieved with the implementation of spectral analysis models, smoothing of spectral signatures and the dimensionality reduction algorithms. Trials of validation of the proposed methodology allowed testing the effectiveness of the methods in what refers to the spectral characterization of siliceous materials of Casa Montero. Is remarkable the algorithmic contribution of the signal filtering, improve of quality and reduction of the dimensionality, as well the proposal of using raster structures for efficient storage and analysis of spectral information. For which it is concluded that the proposed methodology is not only useful for siliceous materials, but it can be generalized in those processes where spectral characterization may be relevant to the classification of materials that must not be altered, also allows to apply it on a large scale, given that the implementation costs are minimal when compared with conventional methods.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The vertical dynamic actions transmitted by railway vehicles to the ballasted track infrastructure is evaluated taking into account models with different degree of detail. In particular, we have studied this matter from a two-dimensional (2D) finite element model to a fully coupled three-dimensional (3D) multi-body finite element model. The vehicle and track are coupled via a non-linear Hertz contact mechanism. The method of Lagrange multipliers is used for the contact constraint enforcement between wheel and rail. Distributed elevation irregularities are generated based on power spectral density (PSD) distributions which are taken into account for the interaction. The numerical simulations are performed in the time domain, using a direct integration method for solving the transient problem due to the contact nonlinearities. The results obtained include contact forces, forces transmitted to the infrastructure (sleeper) by railpads and envelopes of relevant results for several track irregularities and speed ranges. The main contribution of this work is to identify and discuss coincidences and differences between discrete 2D models and continuum 3D models, as wheel as assessing the validity of evaluating the dynamic loading on the track with simplified 2D models

Relevância:

80.00% 80.00%

Publicador:

Resumo:

By spectral analysis, and using joint time-frequency representations, we present the theoretical basis to design invariant bandlimited Airy pulses with an arbitrary degree of robustness and an arbitrary range of single-mode fiber chromatic dispersion. The numerically simulated examples confirm the theoretically predicted pulse partial invariance in the propagation of the pulse in the fiber.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

MFCC coefficients extracted from the power spectral density of speech as a whole, seems to have become the de facto standard in the area of speaker recognition, as demonstrated by its use in almost all systems submitted to the 2013 Speaker Recognition Evaluation (SRE) in Mobile Environment [1], thus relegating to background this component of the recognition systems. However, in this article we will show that selecting the adequate speaker characterization system is as important as the selection of the classifier. To accomplish this we will compare the recognition rates achieved by different recognition systems that relies on the same classifier (GMM-UBM) but connected with different feature extraction systems (based on both classical and biometric parameters). As a result we will show that a gender dependent biometric parameterization with a simple recognition system based on GMM- UBM paradigm provides very competitive or even better recognition rates when compared to more complex classification systems based on classical features

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La cuestión principal abordada en esta tesis doctoral es la mejora de los sistemas biométricos de reconocimiento de personas a partir de la voz, proponiendo el uso de una nueva parametrización, que hemos denominado parametrización biométrica extendida dependiente de género (GDEBP en sus siglas en inglés). No se propone una ruptura completa respecto a los parámetros clásicos sino una nueva forma de utilizarlos y complementarlos. En concreto, proponemos el uso de parámetros diferentes dependiendo del género del locutor, ya que como es bien sabido, la voz masculina y femenina presentan características diferentes que deberán modelarse, por tanto, de diferente manera. Además complementamos los parámetros clásicos utilizados (MFFC extraídos de la señal de voz), con un nuevo conjunto de parámetros extraídos a partir de la deconstrucción de la señal de voz en sus componentes de fuente glótica (más relacionada con el proceso y órganos de fonación y por tanto con características físicas del locutor) y de tracto vocal (más relacionada con la articulación acústica y por tanto con el mensaje emitido). Para verificar la validez de esta propuesta se plantean diversos escenarios, utilizando diferentes bases de datos, para validar que la GDEBP permite generar una descripción más precisa de los locutores que los parámetros MFCC clásicos independientes del género. En concreto se plantean diferentes escenarios de identificación sobre texto restringido y texto independiente utilizando las bases de datos de HESPERIA y ALBAYZIN. El trabajo también se completa con la participación en dos competiciones internacionales de reconocimiento de locutor, NIST SRE (2010 y 2012) y MOBIO 2013. En el primer caso debido a la naturaleza de las bases de datos utilizadas se obtuvieron resultados cercanos al estado del arte, mientras que en el segundo de los casos el sistema presentado obtuvo la mejor tasa de reconocimiento para locutores femeninos. A pesar de que el objetivo principal de esta tesis no es el estudio de sistemas de clasificación, sí ha sido necesario analizar el rendimiento de diferentes sistemas de clasificación, para ver el rendimiento de la parametrización propuesta. En concreto, se ha abordado el uso de sistemas de reconocimiento basados en el paradigma GMM-UBM, supervectores e i-vectors. Los resultados que se presentan confirman que la utilización de características que permitan describir los locutores de manera más precisa es en cierto modo más importante que la elección del sistema de clasificación utilizado por el sistema. En este sentido la parametrización propuesta supone un paso adelante en la mejora de los sistemas de reconocimiento biométrico de personas por la voz, ya que incluso con sistemas de clasificación relativamente simples se consiguen tasas de reconocimiento realmente competitivas. ABSTRACT The main question addressed in this thesis is the improvement of automatic speaker recognition systems, by the introduction of a new front-end module that we have called Gender Dependent Extended Biometric Parameterisation (GDEBP). This front-end do not constitute a complete break with respect to classical parameterisation techniques used in speaker recognition but a new way to obtain these parameters while introducing some complementary ones. Specifically, we propose a gender-dependent parameterisation, since as it is well known male and female voices have different characteristic, and therefore the use of different parameters to model these distinguishing characteristics should provide a better characterisation of speakers. Additionally, we propose the introduction of a new set of biometric parameters extracted from the components which result from the deconstruction of the voice into its glottal source estimate (close related to the phonation process and the involved organs, and therefore the physical characteristics of the speaker) and vocal tract estimate (close related to acoustic articulation and therefore to the spoken message). These biometric parameters constitute a complement to the classical MFCC extracted from the power spectral density of speech as a whole. In order to check the validity of this proposal we establish different practical scenarios, using different databases, so we can conclude that a GDEBP generates a more accurate description of speakers than classical approaches based on gender-independent MFCC. Specifically, we propose scenarios based on text-constrain and text-independent test using HESPERIA and ALBAYZIN databases. This work is also completed with the participation in two international speaker recognition evaluations: NIST SRE (2010 and 2012) and MOBIO 2013, with diverse results. In the first case, due to the nature of the NIST databases, we obtain results closed to state-of-the-art although confirming our hypothesis, whereas in the MOBIO SRE we obtain the best simple system performance for female speakers. Although the study of classification systems is beyond the scope of this thesis, we found it necessary to analise the performance of different classification systems, in order to verify the effect of them on the propose parameterisation. In particular, we have addressed the use of speaker recognition systems based on the GMM-UBM paradigm, supervectors and i-vectors. The presented results confirm that the selection of a set of parameters that allows for a more accurate description of the speakers is as important as the selection of the classification method used by the biometric system. In this sense, the proposed parameterisation constitutes a step forward in improving speaker recognition systems, since even when using relatively simple classification systems, really competitive recognition rates are achieved.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this paper we present the tests on a structure designed to be a gymnasium, which has natural frequencies within that range. In these tests the gym slab was instrumented with acceleration sensors and different people jumped on a force plate installed on the floor. The test results have been compared with predictions based on the two existing load modelling alternatives (Sim and SCI Guide) and two new methodologies for modelling jumping loads has been proposed. The results of the force plate trials were analysed in an attempt to better characterize the profile of the jump force and determine how best to approximate it. In the first proposed methodology the study is carried out in the frequency domain using an average power spectral density of the jumps. In the second proposed methodology, the jump force is decomposed into the summation of one peak with a large period and a number of peaks with smaller periods. Utilizing a similar model to that of the Sim model, the approximation will still be comprised of the summation of two quadratic cosine functions.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La determinación de la línea histórica de deforestación como parte del establecimiento de la línea de referencia de emisiones, en el marco del programa REDD (Reducing Emissions from Deforestation and Forest Degradation), permite medir la evolución de la pérdida de bosque en un periodo definido de tiempo. El objetivo fue calcular la línea histórica de deforestación mediante estudio multitemporal para el periodo 1998-2011, en la región de San Martín (Perú), utilizando la metodología de Análisis de Mezclas Espectrales (Spectral Mixtures Analysis) con imágenes Landsat 5-TM. Palabras clave: teledetección, Landsat 5-TM, análisis de mezclas espectrales, REDD, Protocolo de Kioto, deforestación, Amazonía, SMA Spectral Mixture Analysis for the study of deforestation and establishing reference emissions level within the REDD Program framework. Application to the region of San Martin, Peru. Abstract: Determination of the historical baseline of deforestation as part of establishing the reference emissions level within the REDD (Reducing Emissions from Deforestation and Forest Degradation) Program framework allows for the measurement of the evolution of forest loss over a defined period time. The objective was to estimate the historical baseline of deforestation through a multi-temporal study for the period 1998-2011, in the region of San Martin (Peru), using the methodology of Spectral Mixture Analysis (Mixtures Spectral Analysis) from Landsat 5-TM imagery. Keywords: remote sensing, Landsat 5-TM, spectral mixtures analysis, REDD, Kyoto Protocol, deforestation, Amazon, SMA

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En el Campus Sur de la Universidad Politécnica de Madrid se ha llevado a cabo un proyecto para obtener una caracterización del subsuelo mediante ensayos ReMi, en colaboración con el departamento de Geofísica del Instituto Geográfico Nacional. La técnica ReMi (Refraction Microtremor) permite, mediante ensayos geofísicos realizados localmente sobre el terreno,obtener los parámetros físicos del mismo, que resultan de especial interés en el ámbito de la ingeniería civil. Esta técnica se caracteriza por englobarse dentro de la sísmica pasiva, muy empleada en prospección geofísica y basada en la obtención del modelo subyacente de distribución de velocidades de propagación de la onda S en función de la profundidad, con la ventaja de aprovechar el ruido sísmico ambiental como fuente de energía. Fue desarrollada en el Laboratorio Sismológico de Nevada (EEUU) por Louie (2001), con el objetivo de presentar una técnica innovadora en la obtención de las velocidades de propagación de manera experimental. Presenta ciertas ventajas, como la observación directa de la dispersión de ondas superficiales,que da un buen resultado de la velocidad de onda S, siendo un método no invasivo, de bajo coste y buena resolución, aplicable en entornos urbanos o sensibles en los que tanto otras técnicas sismológicas como otras variedades de prospección presentan dificultades. La velocidad de propagación de la onda S en los 30 primeros metros VS30, es ampliamente reconocida como un parámetro equivalente válido para caracterizar geotécnicamente el subsuelo y se halla matemáticamente relacionada con la velocidad de propagación de las ondas superficiales a observar mediante la técnica ReMi. Su observación permite el análisis espectral de los registros adquiridos, obteniéndose un modelo representado por la curva de dispersión de cada emplazamiento, de modo que mediante una inversión se obtiene el modelo de velocidad de propagación en función de la profundidad. A través de estos modelos, pueden obtenerse otros parámetros de interés sismológico. Estos resultados se representan sobre mapas isométricos para obtener una relación espacial de los mismos, particularmente conocido como zonación sísmica. De este análisis se extrae que la VS30 promedio del Campus no es baja en exceso, correspondiéndose a posteriori con los resultados de amplificación sísmica, período fundamental de resonancia del lugar y profundidad del sustrato rocoso. En última instancia se comprueba que los valores de amplificación sísmica máxima y el período al cual se produce posiblemente coincidan con los períodos fundamentales de resonancia de algunos edificios del Campus. ABSTRACT In South Campus at Polytechnic University of Madrid, a project has been carried out to obtain a proper subsoil description by applying ReMi tests, in collaboration with the Department of Geophysics of the National Geographic Institute. Through geophysical tests conducted locally, the ReMi (Refraction Microtremor) technique allows to establish the physical parameters of soil, which are of special interest in the field of civil engineering. This technique is part of passive seismic methods, often used in geophysical prospecting. It focuses in obtaining the underlying model of propagation velocity distribution of the shear wave according to depth and has the advantage of being able to use seismic ambient noise as a source of energy. It was developed in the Nevada Seismological Laboratory (USA) by Louie (2001) as an innovative technique for obtaining propagation velocities experimentally. It has several other advantages, including the direct observation of the dispersion of surface waves, which allows to reliably measure S wave velocity. This is a non-invasive, low cost and good resolution method, which can be applied in urban or sensitive environments where other prospection methods present difficulties. The propagation velocity of shear waves in the first 30 meters Vs30 is widely recognized as a valid equivalent parameter to geotechnically characterize the subsurface. It is mathematically related to surface wave's velocity of propagation, which are to observe using REMI technique. Spectral analysis of acquired data sets up a model represented by the dispersion curve at each site, so that, using an inversion process, propagation velocity model in relation to depth is obtained. Through this models, other seismologically interesting parameters can be obtained. These results are represented on isometric maps in order to obtain a spatial relationship between them, a process which is known as seismic zonation. This analysis infers that Vs30 at South Campus is not alarmingly low , corresponding with subsequent results of seismic amplification, fundamental period of resonance of soil and depth of bedrock. Ultimately, it's found that calculated values of soil's fundamental periods at which maximum seismic amplification occurs, may possibly match fundamental periods of some Campus buildings.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En esta investigación se han analizado morteros de cal de cronología romana en el interior de la Península Ibérica. Para ello, se seleccionó una serie de muestras procedentes de diversos yacimientos, y de estructuras de carácter industrial. Estas muestras presentan aditivos cerámicos y conglomerantes de cal, como característica principal. Desde un principio el esfuerzo debía de centrarse en los fragmentos cerámicos presentes en los morteros. Para ello se documentaron varios morteros con aditivos cerámicos, a fin de conocer sus características básicas (componentes, distribución, micro-estratigrafía, granulometría, etc.). Por ello, y una vez tomadas las muestras, ésta fueron tratadas y procesadas para desarrollar una primera fase de estudio por medio de macroscopía. Se obtuvieron buenos resultados en cuanto a la caracterización visual de los morteros, localizando y documentando los fragmentos cerámicos. Durante la observación de dichos aditivos se observó que los fragmentos cerámicos tenían unas coronas o anillos de coloración que recorrían el borde, justo al contacto con la matriz de cal. Fueron seleccionados algunos fragmentos en los que eran más visibles dichos anillos. A fin de conocer la posible relación entre algunos yacimientos cercanos y la presencia de dicho anillo cromáticos se desarrolló una microscopía óptica polarizada, realizando láminas delgadas de las muestras y sobre los fragmentos cerámicos más determinantes, en concreto de una serie de enclaves del valle del Henares. Además de caracterizar microscópicamente los morteros, se observó que los anillos no eran un defecto visual ni una alteración física, producida tal vez por la extracción, la fase del corte o por la cocción de la cerámica. Tras analizar varios ejemplares se pudo apreciar que esos anillos eran habituales en todas las muestras y que se presentaban de diferente manera, es decir, que se observaban en granos cerámicos de diferentes características físicas (cochura, tamaño, situación con respecto del conglomerante, etc.). A fin de conocer los aspectos químicos de dicha alteración se seleccionó un grupo de muestras en las que los resultados macroscópicos habían sido muy claros, y en las que la microscopía óptica polarizada había determinado en los bordes, áreas adecuadas para otros análisis. Se realizó un mapeado o mapping de elementos químicos, a fin de saber qué podía estar sucediendo en esa interfaz entre el fragmento cerámico y la matriz de cal. Gracias a los resultados obtenidos se comprobó que existía una acumulación potencial de calcio tanto en el interior de los granos cerámicos como en el exterior, justo en la zona de contacto con el conglomerante, formando manchas que recorrían longitudinalmente el borde. Estos datos fueron muy útiles para llevar a cabo la siguiente fase de estudio, que permitiría conocer puntualmente qué estaba sucediendo químicamente en esa zona de contacto. Finalmente y con el objetivo de describir química y puntualmente este efecto en las adiciones cerámicas, se volvió a seleccionar una serie de muestras, escogidas esta vez en función de los granos cerámicos que cumpliesen unas variables estadísticas. Se eligieron granos con distintos tipos de cocciones, así como granos con tamaños diversos y granos con aditivo ceniciento en la matriz de cal, pensando que podrían ser las variables más útiles de interpretar de existir algún tipo de cambio químico entre la arcilla cocida y la matriz de cal. Tales variables se adaptaron a un sistema estadístico multi-varial y geométrico, con el objetivo de sintetizar los resultados y visualizar de forma óptima los datos en conjunto, como se ha comentado en varias ocasiones en este trabajo. Una vez seleccionados los granos por variables se procedió a realizar un análisis lineal y espectral semi-cuantitativo de SEM-EDX, con el que se caracterizaba químicamente una sección lineal del grano, desde la matriz de arcilla cocida de la cerámica hasta la matriz de cal –del interior al exterior del grano- pasando por el centro de la banda de reacción. Este análisis permitió determinar que se había producido una serie de cambios químicos porcentuales en los granos de cerámica. Dichos cambios se resumen en un incremento global de los porcentajes de calcio en el interior de las bandas de reacción de la cerámica, desde el borde mismo del anillo hasta el exterior. Así también se observaron picos porcentuales en el interfaz del fragmento cerámico con la matriz de cal, lo que confirmaba los resultados obtenidos por medio del mapping. Globalmente en todas las muestras se apreció un hombro en las gráficas de calcio a su paso por la zona de afección del anillo de reacción. Los restantes porcentajes de magnesio, silicio y aluminio se mantienen normales. En esta tesis se ha confirmado que dicho incremento global de calcio se acentúa en las muestras en donde no hay cenizas en la matriz de cal. Los casos correspondientes a estos granos sufren un incremento mayor que en el resto. La segunda variable que sufre un mayor incremento de calcio es la que corresponde a granos con buena cocción de la arcilla. Por lo tanto, parece que la tercera variable, la que corresponde con el tamaño del fragmento cerámico, no es decisiva. Por lo tanto, teniendo en cuenta la prueba visual de los anillos de reacción, y atendiendo a los resultados químicos, podríamos pensar que ese incremento de calcio en la banda de reacción de los fragmentos cerámicos se debió a una absorción de calcio en el interior de la arcilla cocida en la fase inmediatamente previa al fraguado, incluso durante el apagado de la cal. Es en este punto donde estaría la clave del cambio químico que se produce en esta interfaz, el calcio sílice-aluminato del que algunos autores ya han investigado. Esta absorción de calcio en el interior del grano no vendría sola, sino que generaría una costra de cal en el interfaz exterior de la cerámica, la cual ha sido observada químicamente por mapping y mineralógicamente por medio de microscopía óptica de polarización. La consecuencia de estos resultados es, primero, la mejora de nuestro conocimiento general acerca del factor hidráulico en los morteros. Asimismo se aprecia que la incorporación de materiales orgánicos como cenizas, puede alterar los porcentajes de calcio en el interior de los aditivos cerámicos, por lo que habría que sopesar, en trabajos futuros, si este tipo de material es adecuado o no en las mezclas destinadas a la restauración, así como seguir indagando en las propiedades de los morteros con la incorporación de aditivos orgánicos. Desde el punto de vista de la catalogación de los suelos industriales hidráulicos de época romana, además de mejorar la documentación incorporando micro-estratigrafías y granulometrías, la investigación de este material histórico constructivo mejora en cuanto a que se incorporan ensayos sencillos, que facilitan incluso la peritación de un estado de conservación por medio de una lupa binocular. Arqueológicamente hablando, es muy interesante correlacionar fábricas diferentes de estructuras situadas o bien en un mismo yacimiento, o bien en una misma área regional. Los estudios de caracterización y micro-estratigrafía no sólo aportan datos nuevos de cara a la restauración de morteros, sino que crean la posibilidad de generar patrones constructivos que sirvan de fósiles-guía para datar relativamente a unas estructuras o a otras. En lo referido a los resultados obtenidos en los diferentes complejos arqueológicos se ha observado una diferencia entre los morteros destinados a piletas y cubetas con respecto a los suelos industriales de uso indeterminado. La muestra correspondiente al yacimiento de Las Arenas no dispone de ninguna micro-estratigrafía, como sí por el contrario en las muestras obtenidas en Rotonda de Mejorada, Val de la Viña y La Magdalena. En estos enclaves las estructuras presentan grandes similitudes, con diferentes niveles constructivos empleando morteros de cal con áridos y gravas en las capas interiores, y áridos con adiciones cerámicas en las exteriores. En lo relativo a la granulometría las adiciones cerámicas de las muestras de Val de la Viña y La Magdalena presentan varias coincidencias en cuanto al tamaño de los granos y la distribución. Asimismo, de las muestras tomadas en La Magdalena, existe una gran diferencia entre las muestras MG1, MG2, MG3 y MG4 con respecto a las muestras MG5 y MG6, correspondientes éstas últimas a un mortero con fragmentos cerámicos de gran tamaño. Las estructuras EMG1 y EMG2, correspondientes a una cubeta y una pileta de La Magdalena, guardan similitud en lo referido a la micro-estratigrafía y a la granulometría. Se ha determinado que su función, así como su fabricación, debieron estar vinculadas a un mismo contexto cronocultural. Química y mineralógicamente, las muestras presentan características iguales, con presencia de un conglomerante de cal con áridos y aditivos cerámicos de diferentes cochuras. Destaca la muestra de Las Arenas, con un tamaño de los fragmentos cerámicos muy superior al resto, seguido de la estructura EMG3 de La Magdalena. Las muestras restantes de éste enclave, junto con las muestras recogidas en Val de la Viña y Rotonda de Mejorada presentan condiciones similares. En conclusión, los datos revelan que existían diferentes fábricas destinadas a distintas finalidades, y que las estructuras industriales empleaban aditivos cerámicos para la manipulación de productos con líquidos, de distintas densidades pero que requerían de cierto grado de hidraulicidad. ABSTRACT Lime Roman mortars from the Iberian Peninsula has been analyzed in this reesearch. A group of samples were selected from some sites and all the samples come from industrial structures. All this samples show ceramic additives. From the start, the effort was centered in the pieces of pottery that were found in the mortars. The samples were treated and processed to develop a first phase of the research using macroscopy. With this technique, great results were achieved in the characterization of mortars, the microstratigraphy and the location of the ceramic pieces. While observing these pieces, it was seen that the fragments of pottery had a ring bordering the piece. The pieces with the bigger and more vivid rings were chosen and they were analyzed by a polarized light microscope. The mortars were characterized microscopically and it also showed that the rings were not a physical alteration or a visual defect. After some more tests, the rings were a chemical change associated with the hydraulicity of the mortar. The best samples were selected and mappings of their chemical elements were performed in order to know what could be happening in the interface between the ceramic matrix fragment and lime. With the results obtained it was found that there was a potential; both calcium accumulation within the ceramic grains and outside, just in the area of contact with the binder, forming spots longitudinally along the edge. These data were very useful for carrying out the next phase of study, which would meet promptly what was happening chemically in the area of contact. Another group of samples were taken, and this time focused on ceramic grains that met a statistical variables. Grains were chosen with two types of cooking as well as grains with different sizes and grains with ash additive in the matrix of lime, thinking that might be the most logical to be some sort of chemical change between the baked clay and lime array variables . Such variables were adapted to a multi-varial and geometric statistical system in order to synthesize the results and optimally display the data together, as mentioned several times in this work. After selecting the variables grains proceeded to perform a linear and spectral analysis SEM-EDX. This analysis led to determine that the chemical changes were graduals. These changes are summarized in an increase in the percentages of calcium inside the reaction rim of ceramics, from the edge to the outer ring. So percentage increasing is also observed at the interface of the ceramic matrix fragment with lime, confirming the results obtained by the mapping. Overall in all samples can be seen a shoulder in graphic calcium through the area of the ring reaction condition. The remaining percentages of magnesium, silicon and aluminum are usual. We have promptly confirmed that the increase of calcium is accentuated in samples where there is no ash and lime matrix. Cases for these grains suffer a greater increase than the rest. The second variable suffering more calcium is increased corresponding to good cooking grains with clay. Therefore, it appears that the variable size of the fragment is not critical. Therefore, considering the visual tests to the rings and their response to chemical results, we might think that increasing calcium inside the ceramic fragments was due to an injection of calcium inside clay in the run-up to the setting phase. It is at this point that would be the key to the chemical change that occurs at this interface, silica-calcium aluminate some authors have already investigated. This injection of calcium into the grain does not come alone, but generate a lime crust on the outside interface of ceramics, which we tested for mapping is real in our samples. The consequence of these results is the improvement of our understanding of historical hydraulic factor in building materials, such as mortar. For example, knowing that the incorporation of organic materials such as ash powder, may be detrimental to the injection of calcium inside the ceramic additives. Archaeologically speaking, it's very interesting to correlate different factories or structures located on a single site, or in the same regional area. Characterization studies and microstratigraphy not only provide new information to help restore mortars, but create the possibility of generating constructive patterns that serve as guide fossils to determinate the age of the structures. With regard to the results obtained in different archaeological sites it has seen a difference between mortars of pools or sinks with respect to industrial floors of undetermined use. The sample of the site of Las Arenas does not have any micro-stratigraphy, as if instead in the samples obtained in Rotonda de Mejorada, Val de la Viña and La Magdalena sites. In these settlements the structures are really similar, with different construction levels using lime mortars with aggregates and gravel in the inner layers, and ceramic aggregates as external additions. With regard to the grain size of the ceramic additions Val de la Viña and La Magdalena samples has several coincidences about the size of grains and distribution. Also, samples taken at La Magdalena, there is a difference between the MG1, MG2, MG3 and MG4 samples and the MG5 and MG6 samples, so the last corresponding to a mortar samples with larger ceramic fragments. The EMG1 and EMG2 structures, corresponding to a bucket and a pool of La Magdalena settlement, have similarities with regard to micro-stratigraphy and grain size. It has been determined that the function and manufacturing must be linked with a same chronocultural context.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The paper proposes a new application of non-parametric statistical processing of signals recorded from vibration tests for damage detection and evaluation on I-section steel segments. The steel segments investigated constitute the energy dissipating part of a new type of hysteretic damper that is used for passive control of buildings and civil engineering structures subjected to earthquake-type dynamic loadings. Two I-section steel segments with different levels of damage were instrumented with piezoceramic sensors and subjected to controlled white noise random vibrations. The signals recorded during the tests were processed using two non-parametric methods (the power spectral density method and the frequency response function method) that had never previously been applied to hysteretic dampers. The appropriateness of these methods for quantifying the level of damage on the I-shape steel segments is validated experimentally. Based on the results of the random vibrations, the paper proposes a new index that predicts the level of damage and the proximity of failure of the hysteretic damper

Relevância:

50.00% 50.00%

Publicador:

Resumo:

The optical and radio-frequency spectra of a monolithic master-oscillator power-amplifier emitting at 1.5 ?m have been analyzed in a wide range of steady-state injection conditions. The analysis of the spectral maps reveals that, under low injection current of the master oscillator, the device operates in two essentially different operation modes depending on the current injected into the amplifier section. The regular operation mode with predominance of the master oscillator alternates with lasing of the compound cavity modes allowed by the residual reflectance of the amplifier front facet. The quasi-periodic occurrence of these two regimes as a function of the amplifier current has been consistently interpreted in terms of a thermally tuned competition between the modes of the master oscillator and the compound cavity modes.