34 resultados para Refinamento adaptativo

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los sistemas basados en componentes hardware con niveles de paralelismo estático tienden a infrautilizar sus recursos lógicos, ya que se diseñan para soportar el peor escenario posible. Este hecho se acentúa cuando se trabaja con los nuevos estándares de compresión de vídeo, como son el H.264/AVC y el SVC. Estos necesitan soluciones flexibles, capaces de soportar distintos escenarios, y escalables a fin de maximizar la utilización de recursos en todo momento. Por ello, y como alternativa a las soluciones estáticas o multiprocesadoras, este artículo presenta una arquitectura hardware escalable y reconfigurable dinámicamente para el filtrado de bucle adaptativo o Deblocking Filter. Su funcionamiento se basa en el de los arrays sistólicos, y su estrategia de paralelismo maximiza el número de macrobloques que pueden ser procesos simultáneamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo principal de este trabajo es el diseño y desarrollo de un sistema de control on-line del acabado superficial en procesos de torneado automatizado CNC. El sistema de control se divide en dos fases principales: en la primera fase, se diseña un sistema de monitorización del acabado superficial basado en el análisis de las fuerzas de corte del proceso de mecanizado; en la segunda fase, se desarrolla un sistema de control adaptativo en lazo cerrado basado en la información obtenida durante la monitorización del proceso de corte. Este sistema permite mantener el acabado superficial dentro de un rango de valores óptimos mediante el ajuste on-line del avance a través de la comunicación con el PLC del torno CNC. El sistema de control desarrollado logra mantener la rugosidad superficial dentro de los valores preestablecidos en la fase de diseño detectando y corrigiendo errores durante la ejecución del mecanizado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El proyecto, “Aplicaciones de filtrado adaptativo LMS para mejorar la respuesta de acelerómetros”, se realizó con el objetivo de eliminar señales no deseadas de la señal de información procedentes de los acelerómetros para aplicaciones automovilísticas, mediante los algoritmos de los filtros adaptativos LMS. Dicho proyecto, está comprendido en tres áreas para su realización y ejecución, los cuales fueron ejecutados desde el inicio hasta el último día de trabajo. En la primera área de aplicación, diseñamos filtros paso bajo, paso alto, paso banda y paso banda eliminada, en lo que son los filtros de butterworth, filtros Chebyshev, de tipo uno como de tipo dos y filtros elípticos. Con esta primera parte, lo que se quiere es conocer, o en nuestro caso, recordar el entorno de Matlab, en sus distintas ecuaciones prediseñadas que nos ofrece el mencionado entorno, como también nos permite conocer un poco las características de estos filtros. Para posteriormente probar dichos filtros en el DSP. En la segunda etapa, y tras recordar un poco el entorno de Matlab, nos centramos en la elaboración y/o diseño de nuestro filtro adaptativo LMS; experimentado primero con Matlab, para como ya se dijo, entender y comprender el comportamiento del mismo. Cuando ya teníamos claro esta parte, procedimos a “cargar” el código en el DSP, compilarlo y depurarlo, realizando estas últimas acciones gracias al Visual DSP. Resaltaremos que durante esta segunda etapa se empezó a excitar las entradas del sistema, con señales provenientes del Cool Edit Pro, y además para saber cómo se comportaba el filtro adaptativo LMS, se utilizó señales provenientes de un generador de funciones, para obtener de esta manera un desfase entre las dos señales de entrada; aunque también se utilizó el propio Cool Edit Pro para obtener señales desfasadas, pero debido que la fase tres no podíamos usar el mencionado software, realizamos pruebas con el generador de funciones. Finalmente, en la tercera etapa, y tras comprobar el funcionamiento deseado de nuestro filtro adaptativo DSP con señales de entrada simuladas, pasamos a un laboratorio, en donde se utilizó señales provenientes del acelerómetro 4000A, y por supuesto, del generador de funciones; el cual sirvió para la formación de nuestra señal de referencia, que permitirá la eliminación de una de las frecuencias que se emitirá del acelerómetro. Por último, cabe resaltar que pudimos obtener un comportamiento del filtro adaptativo LMS adecuado, y como se esperaba. Realizamos pruebas, con señales de entrada desfasadas, y obtuvimos curiosas respuestas a la salida del sistema, como son que la frecuencia a eliminar, mientras más desfasado estén estas señales, mas se notaba. Solucionando este punto al aumentar el orden del filtro. Finalmente podemos concluir que pese a que los filtros digitales probados en la primera etapa son útiles, para tener una respuesta lo más ideal posible hay que tener en cuenta el orden del filtro, el cual debe ser muy alto para que las frecuencias próximas a la frecuencia de corte, no se atenúen. En cambio, en los filtros adaptativos LMS, si queremos por ejemplo, eliminar una señal de entre tres señales, sólo basta con introducir la frecuencia a eliminar, por una de las entradas del filtro, en concreto la señal de referencia. De esta manera, podemos eliminar una señal de entre estas tres, de manera que las otras dos, no se vean afectadas por el procedimiento. Abstract The project, "LMS adaptive filtering applications to improve the response of accelerometers" was conducted in order to remove unwanted signals from the information signal from the accelerometers for automotive applications using algorithms LMS adaptive filters. The project is comprised of three areas for implementation and execution, which were executed from the beginning until the last day. In the first area of application, we design low pass filters, high pass, band pass and band-stop, as the filters are Butterworth, Chebyshev filters, type one and type two and elliptic filters. In this first part, what we want is to know, or in our case, remember the Matlab environment, art in its various equations offered by the mentioned environment, as well as allows us to understand some of the characteristics of these filters. To further test these filters in the DSP. In the second stage, and recalling some Matlab environment, we focus on the development and design of our LMS adaptive filter; experimented first with Matlab, for as noted above, understand the behavior of the same. When it was clear this part, proceeded to "load" the code in the DSP, compile and debug, making these latest actions by the Visual DSP. Will highlight that during this second stage began to excite the system inputs, with signals from the Cool Edit Pro, and also for how he behaved the LMS adaptive filter was used signals from a function generator, to thereby obtain a gap between the two input signals, but also used Cool Edit Pro himself for phase signals, but due to phase three could not use such software, we test the function generator. Finally, in the third stage, and after checking the desired performance of our DSP adaptive filter with simulated input signals, we went to a laboratory, where we used signals from the accelerometer 4000A, and of course, the function generator, which was used for the formation of our reference signal, enabling the elimination of one of the frequencies to be emitted from the accelerometer. Note that they were able to obtain a behavior of the LMS adaptive filter suitable as expected. We test with outdated input signals, and got curious response to the output of the system, such as the frequency to remove, the more outdated are these signs, but noticeable. Solving this point with increasing the filter order. We can conclude that although proven digital filters in the first stage are useful, to have a perfect answer as possible must be taken into account the order of the filter, which should be very high for frequencies near the frequency cutting, not weakened. In contrast, in the LMS adaptive filters if we for example, remove a signal from among three signals, only enough to eliminate the frequency input on one of the inputs of the filter, namely the reference signal. Thus, we can remove a signal between these three, so that the other two, not affected by the procedure.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este Trabajo Fin de Máster se ha realizado un estudio sobre un convertidor trifásico de doble puente activo con una red auxiliar, con objeto de conseguir ZVS. Como aportación, este trabajo diseña e implementa un control adaptativo para la red auxiliar ARCN, con el objetivo de disminuir las pérdidas a su valor mínimo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este trabajo se presenta un método numérico adaptativo para la resolución de problemas temporales de Combustión en la Mecánica de Fluidos. La dis- cretización espacial de las ecuaciones está basada en el método de los elementos finitos y la discretización temporal se realiza con un esquema semilagrangiano para tratar de forma eficiente los términos convectivos. La caracteística principal de la adaptación local, es que el mallado que se construye es anisótropo, lo que le capacita para adaptarse mejor a capas límitee con un reducido coste computacional. Para ello, se define un tensor métrico en cada paso de tiempo, basado en indicadores de error construidos a priori y a posteriori. Ilustraremos el buen comportamiento del código numérico con la modelización de un problema de combustión en 2D y 3D, donde se analilzará la interacción de llamas de difusión de Hidrógeno y vórtices que pueden ser generados en un flujo turbulento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El estudio de la evolución tecnológica a partir de logros concretos de la humanidad es una forma de aproximación a la enseñanza de la ingeniería. Comprender que las tecnologías existentes son el resultado de un depurado proceso de creación/selección no es trivial. Por ello combinar un conocimiento deductivo profundo con un pensamiento divergente que favorezca la obtención de soluciones viables y creativas es fundamental en el contexto de incertidumbre económica actual. En este ensayo se comparan siete técnicas de enseñanza que pretenden favorecer el PD en una estrategia adaptativa para alumnos con distintos estilos cognitivos (AA) sobre la base de un proceso de vigilancia tecnológica (VT) aplicada a algunos objetos cotidianos y otros muy especializados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En éste artículo se presenta el control adaptativo de un circuito auxiliar para conseguir conmutaciones suaves en todo el rango de carga en los semiconductores principales de un convertidor cargador de baterías trifásico basado en doble puente activo. Mediante este sistema se consigue tener ZVS en todo el margen de carga, sin ser necesaria la modificación de los parámetros del circuito ni de los semiconductores principales. Los principios de operación de este circuito y su control se comprobarán experimentalmente en un convertidor cargador de baterías de características similares al utilizado en el HYBRID TOYOTA PRIUS

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La importancia de la seguridad en la aplicación de la tecnología nuclear impregna todas las tareas asociadas a la utilización de esta fuente de energía, comenzando por la fase de diseño, explotación y posterior desmantelamiento o gestión de residuos. En todos estos pasos, las herramientas de simulación computacional juegan un papel esencial como guía para el diseño, apoyo durante la operación o predicción de la evolución isotópica de los materiales del reactor. Las constantes mejoras en cuanto a recursos computacionales desde mediados del siglo XX hasta este momento así como los avances en los métodos de cálculo utilizados, permiten tratar la complejidad de estas situaciones con un detalle cada vez mayor, que en ocasiones anteriores fue simplemente descartado por falta de capacidad de cálculo o herramientas adecuadas. El presente trabajo se centra en el desarrollo de un método de cálculo neutrónico para reactores de agua ligera basado en teoría de difusión corregida con un nivel de detalle hasta la barra de combustible, considerando un número de grupos de energía mayor que los tradicionales rápido y térmico, y modelando la geometría tridimensional del núcleo del reactor. La capacidad de simular tanto situaciones estacionarias con posible búsqueda de criticidad, como la evolución durante transitorios del flujo neutrónico ha sido incluida, junto con un algoritmo de cálculo de paso de tiempo adaptativo para mejorar el rendimiento de las simulaciones. Se ha llevado a cabo un estudio de optimización de los métodos de cálculo utilizados para resolver la ecuación de difusión, tanto en el lazo de iteración de fuente como en los métodos de resolución de sistemas lineales empleados en las iteraciones internas. Por otra parte, la cantidad de memoria y tiempo de computación necesarios para resolver problemas de núcleo completo en malla fina obliga a introducir un método de paralelización en el cálculo; habiéndose aplicado una descomposición en subdominios basada en el método alternante de Schwarz acompañada de una aceleración nodal. La aproximación de difusión debe ser corregida si se desea reproducir los valores con una precisión cercana a la obtenida con la ecuación de transporte. Los factores de discontinuidad de la interfase utilizados para esta corrección no pueden en la práctica ser calculados y almacenados para cada posible configuración de una barra de combustible de composición determinada en el interior del reactor. Por esta razón, se ha estudiado una parametrización del factor de discontinuidad según la vecindad que permitiría tratar este factor como una sección eficaz más, parametrizada en función de valores significativos del entorno de la barra de material. Por otro lado, también se ha contemplado el acoplamiento con códigos termohidráulicos, lo que permite realizar simulaciones multifísica y producir resultados más realistas. Teniendo en cuenta la demanda creciente de la industria nuclear para que los resultados realistas sean suministrados junto con sus márgenes de confianza, se ha desarrollado la posibilidad de obtener las sensibilidades de los resultados mediante el cálculo del flujo adjunto, para posteriormente propagar las incertidumbres de las secciones eficaces a los cálculos de núcleo completo. Todo este trabajo se ha integrado en el código COBAYA3 que forma parte de la plataforma de códigos desarrollada en el proyecto europeo NURESIM del 6º Programa Marco. Los desarrollos efectuados han sido verificados en cuanto a su capacidad para modelar el problema a tratar; y la implementación realizada en el código ha sido validada numéricamente frente a los datos del benchmark de transitorio accidental en un reactor PWR con combustible UO2/MOX de la Agencia de Energía Nuclear de la OCDE, así como frente a otros benchmarks de LWR definidos en los proyectos europeos NURESIM y NURISP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMEN Los procesos de diseño de zonas o diseño del territorio implican la partición de un espacio geográfico, organizado en un conjunto de unidades de área, en diferentes regiones o zonas según un conjunto especifico de criterios que varían en función del campo de aplicación. En la mayoría de los casos, el objetivo fundamental consiste en crear zonas de tamaño aproximadamente igual respecto a uno o varios atributos de medida -de carácter cuantitativo- (zonas con igual número de habitantes, igual promedio de ventas...). Sin embargo, están apareciendo nuevas aplicaciones, algunas en el contexto de las políticas de desarrollo sostenible, cuya finalidad es la definición de regiones con un tamaño predeterminado, no necesariamente similar. Además, en estos casos las zonas han de formarse en torno a un conjunto específico de posiciones, semillas o generadores. Este tipo de particiones no han sido lo suficientemente investigadas, de manera que no se conocen modelos de solución para la delimitación automática de las zonas. En esta tesis se ha diseñado un nuevo método basado en una versión discreta del diagrama de Voronoi con peso aditivo adaptativo (DVPAA), que permite la partición de un espacio bidimensional en zonas de un tamaño específico, considerando tanto la posición como el peso de cada uno de los generadores. El método consiste en resolver repetidamente un tradicional diagrama de Voronoi con peso aditivo, de forma que los pesos de cada generador se actualizan en cada iteración. En el proceso de cálculo de distancias se usa una métrica basada en el camino más corto, lo que garantiza que la partición obtenida esté formada por un conjunto de zonas conexas. La heurística diseñada se integra en una aplicación prototipo, desarrollada en un entorno SIG (Sistemas de Información Geográfica), que permite el trazado automático de zonas según los criterios anteriormente expuestos. Para analizar la viabilidad del método se ha utilizado como caso de estudio la gestión de los recursos pastorales para la ganadería extensiva en tres municipios de Castilla-La Mancha. Las pruebas realizadas ponen de manifiesto que la heurística diseñada, adaptada a los criterios que se plantean en el contexto de la gestión de sistemas extensivos agropecuarios, es válida para resolver este tipo de problemas de partición. El método propuesto se caracteriza por su eficacia en el tratamiento de un gran número de unidades superficiales en formato vectorial, generando soluciones que convergen con relativa rapidez y verifican los criterios establecidos. En el caso estudiado, aunque la posición prefijada de los generadores reduce considerablemente la complejidad del problema, existen algunas configuraciones espaciales de estos elementos para las que el algoritmo no encuentra una solución satisfactoria, poniéndose de manifiesto una de las limitaciones de este modelo. Tal y como se ha podido comprobar, la localización de los generadores puede tener un considerable impacto en la zonificación resultante, por lo que, de acuerdo con Kalcsics et al. (2005), una selección "inadecuada" difícilmente puede generar regiones válidas que verifiquen los criterios establecidos. ABSTRACT Tenitory or zone design processes entail partitioning a geographic space, organized as a set of basic areal units, into different regions or zones according to a specific set of entena that are dependent on the application context. In most cases the aim is to create zones that have approximately equal sizes with respect to one or several measure attributes (zones with equal numbers of inhabitants, same average sales, etc). However, some of the new applications that have emerged, particularly in the context of sustainable development policies, are aimed at defining zones of a predetermined, though not necessarily similar, size. In addition, the zones should be built around a given set of positions, seeds or generators. This type of partitioning has not been sufñciently researched; therefore there are no known approaches for automated zone delimitation. This thesis proposes a new method based on a discrete versión of the Adaptive Additively Weighted Voronoi Diagram (AAWVD) that makes it possible to partition a 2D space into zones of specific sizes, taking both the position and the weight of each (seed) generator into account. The method consists of repeatedly solving a traditional additively weighted Voronoi diagram, so that the weights of each generator are updated at every iteration. The partition s zones are geographically connected nsing a metric based 011 the shortest path. The proposed heuristic lias been included in an application, developed in a GIS environment that allows the automated zone delimitation according to the mentioned criteria. The management of the extensive farming system of three municipalities of Castilla-La Mancha (Spain) has been used as study case to analyze the viability of the method. The tests carried out have established that the proposed method, adapted to the criteria of this application field, is valid for solving this type of partition problem. The applied algorithm is capable of handling a high number of vector areal units, generating solutions that converge in a reasonable CPU time and comply with the imposed constraints. Although the complexity of this problem is greatly reduced when the generator's positions are fixed, in many cases, these positions impose a spatial confignration that the algorithm proposed is unable to solve, thus revealing one of the limitations of this method. It has been shown that the location of the generators has a considerable impact on the final solution, so that, as Kalcsics et al. (2005) observed, an "inadequate" selection can hardly generate valid zones that comply with the established criteria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos años, estamos siendo testigos de la alta implantación en la sociedad de dispositivos de comunicación. Lo que hace años estaba reservado a un público reducido, con claras necesidades en comunicación, se ha trasladado al público general, dado la amplia variedad de servicios que sobre los nuevos medios de comunicación se han desarrollado. De hecho, el mayor tráfico de datos en la actualidad no se produce al hilo de necesidades de máxima importancia, sino como producto de nuevos hábitos cotidianos. En este contexto de renovación tecnológica constante en busca de la eficiencia, las antenas reflectoras reflectarray (o, simplemente, los reflectarrays, RAs, [1]) se presentan como una opción competitiva contra los reflectores parabólicos metálicos. En su versión más simple, una antena reflectarray se trata de una estructura compuesta de un elemento alimentador radiante, como puede ser una bocina, y de una superficie plana, consistente en multitud de elementos individuales dispuestos en una rejilla periódica. Sobre esta superficie plana, los frentes de onda provenientes del alimentador son reflejados formando frentes de ondas planas, de una manera análoga a como lo hace un reflector parabólico. A partir de la configuración inicial, y centrándose en el principio de funcionamiento, se ha ido modificando el tipo de elemento RA empleado, consiguiendo RA cada vez más operativos. Es, sobre todo, con el nacimiento de la tecnología impresa cuando las antenas RAs vuelven a cobrar interés. Aunque el uso de tecnología impresa supuso un gran impulso en los RAs, también abrió otros desafíos en lo que al diseño de ellos se refiere. Desde el punto de vista del análisis, es común suponer que el elemento RA se encuentra en un ambiente infinitamente periódico, de forma que se puedan aplicar las condiciones de contorno de Floquet (suposición de periodicidad local). Desde un punto de vista funcional, en general, los elementos RA de tecnología impresa presentan un ancho de banda reducido, que condiciona el ancho de banda del RA completo. Entre las soluciones aportadas, es comúnmente aceptado que las estructuras multicapa, con resonadores a distintas frecuencias cercanas, pueden mitigar en parte el problema del ancho de banda. Por ello, en la actualidad, los elementos RA más comunes están compuestos por varios elementos resonadores, cuyas dimensiones constituyen los parámetros de diseño libres. Es decir, en función de dichas dimensiones, el elemento RA tendrá un valor del coeficiente de reflexión u otro. Esto supone un aumento en la complejidad a la hora de analizar dicho elemento por los métodos numéricos conocidos, como el Método de los Momentos (MoM) o el Método de Elementos Finitos (FEM, por las siglas de su traducción inglesa Finite Element Method), que redundará en un mayor tiempo de cómputo en el análisis. Por otra parte, como se muestra en la Figura R.1, el diseño de un RA conlleva analizar multitud de veces el elemento RA considerado. En efecto, se trata de un método de diseño indirecto, en donde las dimensiones de los parámetros geométricos libres de cada elemento RA se obtienen de manera iterativa usando un optimizador. Se ve claro, entonces, que el aumento en tiempo de análisis del elemento RA repercute en gran medida en el tiempo de diseño total, por lo que una reducción en el tiempo de análisis del elemento RA podría ser muy beneficioso. Uno de los métodos para conseguir reducir el tiempo de diseño de un RA, que se puede encontrar en la literatura, es emplear un modelo de la respuesta del elemento RA en función de los parámetros libres. La cuestión que aflora es cuál es la herramienta idónea para modelar la respuesta del elemento RA. En los últimos años se han propuestos varias formas. La primera de ellas consistía en encontrar un equivalente circuital. Esta aproximación está bien extendida para otras estructuras EM, donde los equivalentes circuitales con componentes LC ofrecen respuestas muy precisas con respecto a las que ofrecen las estructuras EM en sí. A raíz del carácter no lineal de la respuesta, hay autores que han propuesto para el diseño de RAs la creación de tablas de datos (look up tables) que, para cada parámetro de diseño de interés (suele ser el desfase introducido por el elemento) guardan las dimensiones de los parámetros geométricos libres asociados. De esta forma, consiguen un diseño rápido, pero poco versátil, ya que la tabla ofrece un único valor para cada entrada, por lo que es difícil jugar con más de una restricción de diseño. Más recientemente, se está comenzando a utilizar, para la caracterización de estructuras EM, unos sistemas llamados Redes Neuronales Artificiales (ANN, por sus siglas en inglés Artificial Neural Network). El uso fundamental de los mismos en EM es el de servir como interpoladores no lineales. Se trata de sistemas que admiten múltiples parámetros de entradas y múltiples parámetros de salida. Antes de poder ser usados como interpoladores, deben ser entrenados. Para ello, necesitan de un conjunto de pares de los parámetros de entrada a la red, con los valores de las salidas asociados. Algunos usos en electromagnetismo de las ANNs que se pueden encontrar en la literatura son: el modelado de filtros; la caracterización de dispositivos activos; la obtención de modelos que aceleran los algoritmos que calculan la dirección de llegada en antenas de radar; o el diseño de arrays de antenas. Volviendo al modelado de elementos RA, en este trabajo haremos uso de las ANNs para caracterizar distintos tipos de elementos RA. A lo largo de estos últimos años, se ha considerado esta posibilidad como una de las más prometedoras. De hecho, podemos encontrar algunas pocas referencias al respecto, varias de las cuales han sido publicadas por distintos autores durante la elaboración del trabajo recogido en esta Tesis. Como veremos, los resultados que vamos a presentar aportan novedades con respecto a la citada literatura. Particularmente, en este trabajo se ha realizado la caracterización de un elemento RA de tres capas, considerando hasta 9 parámetros de entrada (seis parámetros geométricos, las dos coordenadas del ángulo de incidencia, y la frecuencia) y 4 parámetros de salida complejos (los coeficientes de reflexión para dos polarizaciones ortogonales lineales). Haciendo uso de esta caracterización en el flujo de diseño de RAs, se ha realizado el análisis y el diseño de varias antenas RA con restricciones de diseño de comunicaciones espaciales. Los resultados fueron exitosos comparados con los resultados obtenidos por los métodos tradicionales. De manera puntualizada, podríamos resumir las aportaciones que se verán en esta Tesis como: Caracterización de distintos elementos RA mediante ANNs basadas en el Perceptrón Multicapa (MLP). En concreto, se ha realizado con éxito la caracterización de un elemento RA de parche acoplado a línea de retardo a través de apertura; la caracterización de un elemento RA basado en dipolos sobre substratos de distintas características eléctricas en el rango de centenas de GHz; y la caracterización de un elemento RA basado en 3 parches apilados, con 9 parámetros libres en su caracterización. Uso del FEM, de la técnica de segmentación en subdominios y de la generación y manipulación de accesos MAM para el análisis y la caracterización de elementos RA mediante ANNs. Desarrollo de una nueva técnica de obtención de muestras, para el caso de estructura multicapa cuyo estudio EM se pueda dividir en dos pasos: estudio de cada capa y conexión de capas. De esta forma, se ha podido reducir en varios órdenes de magnitud el tiempo necesario para obtener el set de entrenamiento de las ANNs. Valoración del uso de distintos métodos de entrenamiento de segundo orden para el entrenamiento de redes ANN MLP, en la caracterización de elementos RA. Desarrollo de una nueva técnica para realizar el entrenamiento de redes ANNs basadas en el MLP, denominada como Entrenamiento en Cascada. Dado el alto número de parámetros a caracterizar, era difícil conseguir una red que, partiendo del número de entradas deseado, proporcionara convergencia con precisión suficiente. Con el algoritmo propuesto y probado en esta Tesis, se consiguió entrenar redes de 8 parámetros de entradas (el noveno parámetro, la frecuencia, correspondía a redes diferentes para cada valor) con gran precisión. Desarrollo de un método adaptativo para mejorar la precisión de las ANNs en el análisis de antenas RA. Este método, basado en re-entrenar las ANNs para sub rangos de los parámetros de entrada en donde el error es mayor, aporta una precisión mayor, al mejorar el entrenamiento global de las ANNs, en un tiempo aceptable, ya que solo se incluyen nuevas muestras en torno a los valores donde el error es mayor. Análisis de antena RA completa, con cobertura según especificaciones de la misión AMAZONAS (haz conformado, banda Ku), usando las caracterización el elemento RA obtenida mediante ANNs. La mejora en tiempo de análisis conseguida con respecto al uso del MoM está en un factor 102, con precisiones comparables. Diseño de antenas RA completas, con especificaciones de haz pincel y EuTELSAT (banda Ku). De nuevo, la mejora en tiempo de diseño conseguida están en torno a 102. De todos los puntos anteriores, son de destacar los dos últimos, que forman el objetivo principal de esta Tesis. Esto es, el uso de modelos rápidos de elementos RA mediante ANNs para el análisis y el diseño de antenas para comunicaciones por satélite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto realizaremos un estudio del efecto de las interferencias procedentes de las redes públicas y veremos cómo afectan el rendimiento de las comunicaciones GSM-R que están en la banda de frecuencias adyacente, por un lado, definiremos las características de las redes públicas y como afectan los niveles de potencia y los anchos de banda de redes de banda ancha, especialmente LTE que dispone de un ancho de banda adaptativo que puede llegar hasta 20 MHZ, y por otro lado definiremos las características y las exigencias de las comunicaciones GSM-R que es una red privada que se utiliza actualmente para comunicaciones ferroviales. Con el objetivo de determinar el origen y los motivos de estas interferencias vamos a explicar cómo se produzcan las emisiones no deseadas de las redes públicas que son fruto de la intermodulación que se produzca por las características no lineales de los amplificadores, entre las emisiones no deseadas se puede diferenciar entre el dominio de los espurios y el dominio de las emisiones fuera de banda, para determinar el nivel de las emisiones fuera de banda definiremos la relación de fugas del canal adyacente, ACLR, que determina la diferencia entre el pico de la señal deseada y el nivel de señal interferente en la banda de paso. Veremos cómo afectan estas emisiones no deseadas a las comunicaciones GSMR en el caso de interferencias procedentes de señales de banda estrecha, como es el caso de GSM, y como afectan en el caso de emisiones de banda ancha con los protocolos UMTS y LTE, también estudiaremos como varia el rendimiento de la comunicación GSM-R frente a señales LTE de diferentes anchos de banda. Para reducir el impacto de las interferencias sobre los receptores GSM-R, analizaremos el efecto de los filtros de entrada de los receptores GSM-R y veremos cómo varia la BER y la ACLR. Además, con el objetivo de evaluar el rendimiento del receptor GSM-R ante diferentes tipos de interferencias, simularemos dos escenarios donde la red GSM-R se verá afectada por las interferencias procedente de una estación base de red pública, en el primer escenario la distancia entre la BS y MS GSM-R será de 4.6 KM, mientras en el segundo escenario simularemos una situación típica cuando un tren está a una distancia corta (25 m) de la BS de red pública. Finalmente presentaremos los resultados en forma de graficas de BER y ACLR, y tablas indicando los diferentes niveles de interferencias y la diferencia entre la potencia a la que obtenemos un valor óptimo de BER, 10-3, sin interferencia y la potencia a la que obtenemos el mismo valor con interferencias. ABSTRACT In this project we will study the interference effect from public networks and how they affect the performance of GSM-R communications that are in the adjacent frequency band, furthermore, we will define the characteristics of public networks and will explain how the power levels and bandwidth broadband networks are affected as a result, especially LTE with adaptive bandwidth that can reach 20 MHZ. Lastly, we will define the characteristics and requirements of the GSM-R communications, a private network that is currently used for railways communications. In order to determine the origin and motives of these interferences, we will explain what causes unwanted emissions of public networks that occur as a result. The intermodulation, which is caused by the nonlinear characteristics of amplifiers. Unwanted emissions from the transmitter are divided into OOB (out-of-band) emission and spurious emissions. The OOB emissions are defined by an Adjacent Channel Leakage Ratio (ACLR) requirement. We'll analyze the effect of the OOB emission on the GSM-R communication in the case of interference from narrowband signals such as GSM, and how they affect emissions in the case of broadband such as UMTS and LTE; also we will study how performance varies with GSM-R versus LTE signals of different bandwidths. To reduce the impact of interference on the GSM-R receiver, we analyze the effect of input filters GSM-R receivers to see how it affects the BER (Bits Error Rate) and ACLR. To analyze the GSM-R receiver performance in this project, we will simulate two scenarios when the GSM-R will be affected by interference from a base station (BS). In the first case the distance between the public network BS and MS GSM-R is 4.6 KM, while the second case simulates a typical situation when a train is within a short distance, 25 m, of a public network BS. Finally, we will present the results as BER and ACLR graphs, and tables showing different levels of interference and the differences between the power to obtain an optimal value of BER, 10-3, without interference, and the power that gets the same value with interference.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis estudia la monitorización y gestión de la Calidad de Experiencia (QoE) en los servicios de distribución de vídeo sobre IP. Aborda el problema de cómo prevenir, detectar, medir y reaccionar a las degradaciones de la QoE desde la perspectiva de un proveedor de servicios: la solución debe ser escalable para una red IP extensa que entregue flujos individuales a miles de usuarios simultáneamente. La solución de monitorización propuesta se ha denominado QuEM(Qualitative Experience Monitoring, o Monitorización Cualitativa de la Experiencia). Se basa en la detección de las degradaciones de la calidad de servicio de red (pérdidas de paquetes, disminuciones abruptas del ancho de banda...) e inferir de cada una una descripción cualitativa de su efecto en la Calidad de Experiencia percibida (silencios, defectos en el vídeo...). Este análisis se apoya en la información de transporte y de la capa de abstracción de red de los flujos codificados, y permite caracterizar los defectos más relevantes que se observan en este tipo de servicios: congelaciones, efecto de “cuadros”, silencios, pérdida de calidad del vídeo, retardos e interrupciones en el servicio. Los resultados se han validado mediante pruebas de calidad subjetiva. La metodología usada en esas pruebas se ha desarrollado a su vez para imitar lo más posible las condiciones de visualización de un usuario de este tipo de servicios: los defectos que se evalúan se introducen de forma aleatoria en medio de una secuencia de vídeo continua. Se han propuesto también algunas aplicaciones basadas en la solución de monitorización: un sistema de protección desigual frente a errores que ofrece más protección a las partes del vídeo más sensibles a pérdidas, una solución para minimizar el impacto de la interrupción de la descarga de segmentos de Streaming Adaptativo sobre HTTP, y un sistema de cifrado selectivo que encripta únicamente las partes del vídeo más sensibles. También se ha presentado una solución de cambio rápido de canal, así como el análisis de la aplicabilidad de los resultados anteriores a un escenario de vídeo en 3D. ABSTRACT This thesis proposes a comprehensive approach to the monitoring and management of Quality of Experience (QoE) in multimedia delivery services over IP. It addresses the problem of preventing, detecting, measuring, and reacting to QoE degradations, under the constraints of a service provider: the solution must scale for a wide IP network delivering individual media streams to thousands of users. The solution proposed for the monitoring is called QuEM (Qualitative Experience Monitoring). It is based on the detection of degradations in the network Quality of Service (packet losses, bandwidth drops...) and the mapping of each degradation event to a qualitative description of its effect in the perceived Quality of Experience (audio mutes, video artifacts...). This mapping is based on the analysis of the transport and Network Abstraction Layer information of the coded stream, and allows a good characterization of the most relevant defects that exist in this kind of services: screen freezing, macroblocking, audio mutes, video quality drops, delay issues, and service outages. The results have been validated by subjective quality assessment tests. The methodology used for those test has also been designed to mimic as much as possible the conditions of a real user of those services: the impairments to evaluate are introduced randomly in the middle of a continuous video stream. Based on the monitoring solution, several applications have been proposed as well: an unequal error protection system which provides higher protection to the parts of the stream which are more critical for the QoE, a solution which applies the same principles to minimize the impact of incomplete segment downloads in HTTP Adaptive Streaming, and a selective scrambling algorithm which ciphers only the most sensitive parts of the media stream. A fast channel change application is also presented, as well as a discussion about how to apply the previous results and concepts in a 3D video scenario.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis doctoral pretende profundizar en el conocimiento de la ecología de Ulmus laevis Pallas, especie autóctona en peligro de extinción en la Península Ibérica, con el fin de proponer medidas adecuadas para su conservación. Se ha estudiado la distribución natural de la especie atendiendo a aspectos edáficos. Los resultados muestran que U. laevis presenta menor capacidad de acidificación de la rizosfera, menor actividad de la reductasa férrica y menor homeostasis que U. minor Mill. cuando crecen en sustratos con una disponibilidad de hierro limitada. Estas diferencias ayudan a comprender la distribución de ambas especies en la Península Ibérica: U. laevis se ve restringido a suelos ácidos o moderadamente ácidos, mientras que U. minor es capaz de habitar tanto suelos ácidos como básicos. Se han analizado las propiedades hidráulicas y anatómicas de U. laevis, constatando que sus características son favorables en ambientes con gran disponibilidad hídrica y que se trata del olmo ibérico más vulnerable a la cavitación por estrés hídrico, por lo que la aridificación del clima y la pérdida de los freáticos supone un riesgo para sus poblaciones. Para evaluar la capacidad de recuperación de la especie se han estudiado la diversidad y estructura genética espacial de las dos mayores poblaciones españolas. Los resultados evidencian que estas poblaciones mantienen niveles de diversidad equiparables o ligeramente superiores a los europeos, pese a haber sufrido un cuello de botella prolongado durante las glaciaciones y a las reducciones poblacionales recientes. En la actualidad la endogamia no representa un riesgo para estas poblaciones. También se ha analizado la producción, dispersión y predación de semillas en Valdelatas (Madrid). Los resultados han mostrado que el viento dispersa las sámaras a corta distancia (<30 m) y que los años no veceros las probabilidades de establecimiento de regenerado son bajas. Además, la producción de sámaras vanas puede tratarse de un carácter adaptativo que aumenta la eficiencia biológica de la especie, ya que favorece la supervivencia de las semillas embrionadas disminuyendo sus tasas de predación pre- y post-dispersión. La modificación del hábitat de esta especie como consecuencia de las actividades humanas afecta de manera negativa al establecimiento del regenerado. La conservación de esta especie a largo plazo requiere la recuperación de los niveles freáticos y de regímenes hidrológicos que permitan avenidas, ya que estas crean las condiciones adecuadas para el establecimiento de regenerado al eliminar la vegetación preexistente y depositar barro. ABSTRACT Ulmus laevis Pallas is an endangered species in the Iberian Peninsula. Therefore, in order to be able to propose adequate management guidelines for its conservation, this PhD Thesis intends to advance the knowledge on the species ecology in the region. Firstly, the species natural distribution was studied in relation to soil nature. Results show that U. minor Mill. had a higher root ferric reductase activity and proton extrusion capability than U. laevis, and maintained a better nutrient homeostasis when grown under iron limiting conditions. These differences in root Fe acquisition efficiencies proved helpful to understand the distribution of these species in the Iberian Peninsula, where U. laevis is restricted to acid or moderately acid soils, whereas U. minor can grow both in acid and basic soils. Secondly, we studied Ulmus laevis’ xylem anatomy and hydraulic traits. These proved favourable for growing under high water availability, but highly susceptible to drought-stress cavitation. Therefore, this species is vulnerable to the Iberian Peninsula’s aridification. Spatial genetic structure and diversity were evaluated in two of the biggest U. laevis populations in Spain in order to evaluate their recovery capabilities. These populations maintain similar or slightly higher diversity levels than European populations, despite having undergone an ancestral genetic bottleneck and having suffered recent population size reductions. No inbreeding problems have been detected in these populations. Seed production, dispersal and predation were assessed in Valdelatas’ elm grove (Madrid). Despite U. laevis samaras being winged nuts, wind dispersed them short distances from the mother tree (<30 m). The seed shadow models show that non-mast years provide very few chances for the stand to regenerate due to their low full seed flux. Empty samaras deceive pre- and post-dispersal predators increasing full seed survival probabilities. Therefore, empty fruit production might be an adaptive trait that increases plant fitness. Finally, human-induced changes in water-table levels and river regulation may affect U. laevis seed dispersal and regeneration establishment negatively. The long-term conservation and expansion of this species in the Iberian Peninsula requires the recovery of water-tables and of natural hydrological regimes, as flooding eliminates vegetation, creating open microhabitats and deposits mud, creating the ideal conditions for seedling establishment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La contribución de este artículo es el uso de métodos de aprendizaje automático en la arquitectura realizada dentro del proyecto RECLAMO en trabajos previos. La arquitectura se basa en un AIRS (sistema de respuestas a intrusiones automático) que infiere la respuesta más apropiada a un ataque, teniendo en cuenta el tipo de ataque, la información de contexto del sistema y la red, y la reputación del IDS que ha reportado la alerta. También, es imprescindible conocer el ratio de éxito y fracaso de las respuestas lanzadas ante un ataque, de tal manera que, además de tener un sistema adaptativo, se consiga la capacidad de autoaprendizaje. En este ámbito es donde las redes neuronales entran en juego, aportando la clasificación de éxito/fracaso de las respuestas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.