20 resultados para Apología contra los judíos

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Vivienda colectiva. Contra los números y la política generalista: lo específico. Ampliación de articulo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La siguiente tesis se estructura fundamentalmente en tres partes. La primera determina el marco teórico conceptual, efiniendo antecedentes y entregando los lineamientos que permitirán el análisis del caso. El texto que conduce el marco teórico corresponde a “From Object to field”, de Stan Allen, que consiste en el desarrollo de la idea de campos organizacionales, a través del concepto de “Condiciones de Campo”, donde se mezclan conceptos de alta teoría con el trabajo práctico del arquitecto, con el fin de establecer un diálogo constante con la complejidad de la realidad desde nuestra propia disciplina. Desde aquí se desprende la necesidad de abordar algunos conceptos y tendencias que desde el arte pueden servir como antecedentes para un mejor análisis del caso y se proponen algunas reflexiones dirigidas a comprender el desplazamiento del arte objetual al arte del concepto (Simón Marchant) y los análisis propuesto por Rosalid Krauss en relación a la expansión del campo del arte hacia la segunda mitad del siglo XX. En particular atención sobre el Minimal Art y el paso a tendencias posteriores como el Post-Minimal, Land Art y algunas experiencias surgidas en los setenta, tiene como objetivo principal describir un momento fundamental en el arte donde los cambios producidos a través de sus experiencias, afecta de forma substancial las normas de composición y los medios concebidos hasta esos años, lo que no necesariamente fue reflejado de forma paralela en arquitectura. Con el fin de comprender el real alcance que estos cambios estructurales han tenido en el campo de la Arquitectura, me propongo hacer una revisión sobre algunas tendencias desarrolladas a partir de los años setenta. Por un lado, determinar las directrices a partir de las cuales se ha definido la denominada “Arquitectura Minimal”. A priori me atrevo a decir que han sido en su mayoría incorporados a nivel estético, comprendiendo de forma absolutamente superficial los conceptos y potencialidades que estas reflexiones pudieran tener para la Arquitectura. Por otro, acercarme a la figura del Arquitecto Peter Eisenman, quien se presenta como relevante en este punto en cuanto a su atención constante al arte y el desarrollo de una arquitectura fundamentada en las relaciones lingüísticas, basada en el proceso y el uso de signos indiciales. La segunda parte se refiere al Caso Memorial a los Judíos Asesinados de Europa diseñado por este arquitecto en conjunto con Richard Serra. Además de la descripción del proyecto en términos formales y cuantitativos, se plantea aquí una cronología de los acontecimientos y contingencias que fueron parte de un largo proceso partiendo desde el primer concurso en 1988, hasta su inauguración en el 2005, pudiendo ser una muestra de la relevancia de este proyecto para la sociedad alemana. Estos sucesos provocaron una serie de modificaciones en el proyecto inicial, incluso llegando a influir en la salida de Serra del proyecto a poco de finalizar su diseño. Una tercera parte corresponde al análisis del caso, a partir del marco teórico desarrollado, relacionando el proyecto del Memorial, con el texto de Stan Allen y las condiciones de campo definidas en él. Tanto por sus características sintácticas como semánticas, contextualizadas en torno a un complejo escenario como es la historia reciente del Holocausto en Alemania, este proyecto sugiere la utilización de conceptos extraídos desde el Minimal y el Post-Minimal en Arquitectura, como pocas veces podemos encontrar. A partir de un viaje personal realizado a Berlín en el marco de esta investigación, expongo el registro personal de mi propia experiencia como parte fundamental para la comprensión del caso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El conocimiento del territorio es una de las premisas indispensables a la hora de la prevención y de la extinción de los incendios forestales. Una correcta caracterización de las pistas forestales, estableciendo aquellos puntos del terreno en los que puedan encontrarse alteraciones que dificulten el paso de los medios de extinción y los equipamientos que puedan ser utilizados, puede resultar decisivo a la hora de hacer frente a la llamas. Así mismo, el conocimiento del entorno que rodea los caminos y que constituye el posible combustible para la propagación del fuego es también muy importante. Este trabajo ha sido realizado en colaboración con el Cuerpo de Bomberos y el Servicio de Incendios Forestales de la Dirección General de Protección Ciudadana de la Comunidad de Madrid. Con técnicos de este organismo, se ha establecido un ámbito de estudio, que comprende los términos municipales de Collado Villalba, El Boalo, Las Rozas de Madrid, Moralzarzal y Torrelodones dentro de la Comarca Forestal número 13 de la citada comunidad. Para este territorio se ha realizado un análisis de las pistas forestales, que incluye la caracterización de los caminos, y el inventario de todas las incidencias y equipamientos asociadas a estos viales. También se ha procedido a la realización de un mapa de modelos de combustible de la zona. Para ello, se ha utilizado la tecnología LIDAR, de gran precisión y utilidad en la lucha contra los incendios forestales. Por último, y aprovechando la gran cantidad de información recopilada, se ha realizado un análisis de accesibilidad para el paso de autobomba, equipo utilizado por los cuerpos de bomberos con mayor frecuencia para la extinción de incendios. Este análisis nos permitirá establecer el tiempo de llegada con este tipo de vehículo a cualquier lugar del territorio desde los retenes o parques de bomberos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los avances logrados en la última década en los métodos y técnicas para la obtención de información mediante secuenciación genética de muestras orgánicas han supuesto una revolución en el área de la investigación biomédica. La disponibilidad de nuevas fuentes de datos abre vías novedosas de trabajo para investigadores que ya están dando sus frutos con técnicas mejoradas de diagnóstico y nuevos tratamientos para enfermedades como el cáncer. El cambio ha sido tan drástico que, por contra, los métodos empleados para acceder a la información han quedado obsoletos. Para remediar esta situación se ha realizado un gran esfuerzo en el campo de la informática biomédica con el objetivo de desarrollar herramientas adecuadas para este reto tecnológico. Así, la “revolución” genética ha ido acompañada de un importante esfuerzo en el desarrollo de sistemas de integración de datos heterogéneos cada vez más sofisticados. Sin embargo, los sistemas construidos han utilizado a menudo soluciones “ad hoc” para cada problema. Aún cuando existen arquitecturas y estándares bien establecidos en esta área, cada sistema es diseñado y construido desde cero ante cada nueva situación. Asimismo, los sistemas desarrollados no son, en general, válidos para problemas diferentes o para un conjunto distinto de requisitos. Ha faltado por tanto un verdadero esfuerzo por estandarizar este tipo de sistemas. En esta tesis doctoral se propone un modelo genérico de sistemas de integración de datos heterogéneos que facilite el diseño de los mismos. Se aporta asimismo una metodología basada en dicho modelo y destinada a hacer más eficientes los procesos de implementación y despliegue de estos sistemas. El modelo presentado se basa en un análisis exhaustivo de las características inherentes de los sistemas de integración de datos. La metodología propuesta, por su parte, hace uso de los estándares y tecnologías más extendidos hoy en día en el ámbito de acceso, gestión y compartición de información de carácter biomédico. Asimismo, dicha metodologia se basa en el uso de modelos ontológicos como paradigma de caracterización de la información, dado su uso mayoritario en este campo. Se persigue de esta manera ofrecer un marco estándar de diseño y desarrollo de sistemas de integración que evite las implementaciones redundantes tan comunes en esta área. Se lograría así un avance importante en el área del desarrollo de herramientas de integración de datos heterogéneos al proporcionar un marco para el diseño e implementación de estos sistemas. El trabajo de esta tesis doctoral se ha llevado a cabo en el marco de un proyecto europeo de investigación, que ha servido a su vez de entorno de pruebas y validación del modelo y metodología propuestos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presión sobre el acceso a la tierra en la península de Dakar, Senegal, ha generado un proceso de transformación físico-social del mayor asentamiento auto-producido de la periferia urbana de Dakar (Pikine Irregular Sur) en el periodo 2005-2011. Esta investigación se propone analizar en qué medida las acciones llevadas a cabo: i) satisfacen o no el sistema integral de necesidades de los afectados (Demanda); ii) favorecen la implicación de los afectados o, por el contrario, fortalecen las estructuras de poder dominantes (Oferta), y iii) promueven o no la autonomía económica, la sostenibilidad ambiental, la equidad social y la legitimidad de los actores que participan (Entorno). La investigación se ha llevado a cabo por el método de estudio de casos, mediante un proceso de recogida de información participativo, articulado de abajo hacia arriba, en el que han participado 196 personas; la información recogida se ha procesado mediante la utilización de dos herramientas de análisis de realidades complejas: flujo de programa y sistema funcional. Los resultados del estudio de los casos 1 y 2 muestran que las acciones se han llevado a cabo en beneficio de los intereses de los mercados y de los actores que toman las decisiones y gestionan los recursos, incrementando la dependencia económica, empobreciendo a los directamente afectados y fragmentando su tejido social, promoviendo un desarrollo urbano desequilibrado, disperso y segregado, y deslegitimando a las instituciones involucradas. En el estudio del caso 3, en cambio, se verifica que la acción se ha llevado a cabo en beneficio de los intereses de los directamente afectados, utilizando recursos endógenos, fortaleciendo su tejido social, promoviendo un desarrollo urbano concentrado e inclusivo, e incrementando la legitimidad de las instituciones involucradas. El análisis cruzado de los resultados muestra que la pobreza, la exclusión social y la precariedad habitacional, en el contexto específico de la periferia de Dakar, no son un problema de falta de recursos, sino de falta de ética por parte de quienes gestionan y financian los procesos de transformación físico-social, y de falta de voluntad por parte de las autoridades de implicar a los ciudadanos, y en particular a los directamente afectados, en los procesos de toma de decisiones de las acciones y los programas que les afectan. Finalmente se concluye que no se trata de luchar contra la pobreza, sino de luchar contra los sistemas injustos que generan la pobreza y la exclusión. ABSTRACT The pressure on the access to land in the area of Dakar, Senegal, has generated a physical/social transformation process in the largest self-produced settlement in the urban periphery of Dakar (South Irregular Pikine), in the period 2005-2011. This research aims to analyze to what extent the actions carried out: i) satisfy the integral needs of the affected population (Demand), ii) encourage the involvement of those affected or otherwise strengthen dominant power structures (Supply), and iii) promote or inhibit economic autonomy, environmental sustainability, social equity and legitimacy of the actors involved (Environment). The research was conducted by the case study method. 196 people participated in a bottom-up participatory process of information gathering. The information collected was processed using two custom tools aimed to analyse complex systems: the program flow and the functional system. The results of case studies 1 and 2 show that the actions were carried out in the best interest of the markets and the actors who made decisions and managed resources, increasing economic dependence, impoverishing those directly affected and fragmenting their social network by promoting an unbalanced, dispersed and segregated urban development, and de-legitimizing the institutions involved in the process. On the contrary, in the case study 3 it is verified that the action has been carried out on behalf of the interests of those directly affected, using endogenous resources, strengthening the social network, promoting a focused and inclusive urban development, and increasing legitimacy of the institutions involved. The comparative analysis of the results shows that poverty, social exclusion and precarious housing in South Irregular Pikine are not a problem of lack of resources but of unethical behaviour of those who manage and finance physical and social transformation processes, as well as unwillingness on the part of the authorities to involve citizens in the decision making processes for the actions and programs that affect them. Finally we conclude that the enemy to fight against is not poverty but unfair systems that generate poverty and exclusion. RÉSUMÉ La pression sur le foncier dans la presqu'île de Dakar, au Sénégal, a généré un processus de transformation physico-sociale du plus grand établissement auto-produit de la périphérie urbaine de Dakar (Pikine Irrégulier Sud), durant la période 2005-2011. Cette recherche vise à analyser dans quelle mesure les actions menées: i) répondent ou non à l’ensemble des besoins intégrales des personnes concernés (Demande), ii) encouragent l'implication des concernées ou au contraire renforcent les structures de pouvoir dominant (Offre), et iii) favorisent ou non l'autonomie économique, la durabilité environnementale, l'équité sociale et la légitimité des acteurs concernés (Contexte). La recherche a été menée par la méthode des études de cas, par un processus de collecte d'information participative articulée du bas vers le haut dans lequel ont participé 196 personnes. Les informations recueillies ont été traitées à l'aide de deux outils d'analyse de réalités complexes: le système fonctionnel et le flux de programme. Les résultats de l'étude de cas 1 et 2 montrent que les actions ont été menées au profit des intérêts des marchés et des acteurs qui prennent les décisions et gèrent les ressources, augmentant la dépendance économique, appauvrissant ceux qui sont directement concernés et fragmentant leur tissu social, encourageant un développement urbain déséquilibré, dispersé et ségrégé, et délégitimant les institutions concernées. Dans l'étude de cas 3, cependant, il est vérifié que l'action a été menée au profit des intérêts de ceux qui sont directement concernés, en utilisant des ressources endogènes, en renforçant son tissu social, en encourageant un développement urbain concentré et inclusif, et en augmentant la légitimité des institutions concernées. L'analyse comparée des résultats montre que la pauvreté, l'exclusion sociale et le logement précaire, dans le contexte spécifique de la banlieue de Dakar, ne sont pas un problème de manque de ressources, mais de manque d'éthique de la part de ceux qui gèrent et financent les processus de transformation physico-sociale, et de manque de volonté de la part des autorités d'impliquer les citoyens, en particulier ceux qui sont directement concernés, dans le processus de prise de décision des actions et des programmes qui les impliquent. Finalement, on conclut qu'il ne s'agit pas de lutter contre la pauvreté, mais de lutter contre les systèmes injustes qui produisent la pauvreté et l'exclusion.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A consecuencia de una solicitud elevada al Ministerio de Fomento en Agosto del año 1.931f por la Alcaldía de Castiello, en demanda de auxilio contra los daños causados por el torrente "Casasdioses", fué encargado al Ingeniero, Sr. Iturralde, afecto a la 6ª División, del Estudio y Redacción del Proyecto de corrección del mismo, trabajo sobre el que la Jefatura, informó en el sentido de que de poco o nada servirían las obras de corrección preconizadas en aquél, si antes o simultáneamente no se repoblaban la parte superior de la cuenca, cuya superficie se hallaba en su totalidad poseída por particulares vecinos del pueblo solicitante.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En los últimos años, estamos siendo testigos de la alta implantación en la sociedad de dispositivos de comunicación. Lo que hace años estaba reservado a un público reducido, con claras necesidades en comunicación, se ha trasladado al público general, dado la amplia variedad de servicios que sobre los nuevos medios de comunicación se han desarrollado. De hecho, el mayor tráfico de datos en la actualidad no se produce al hilo de necesidades de máxima importancia, sino como producto de nuevos hábitos cotidianos. En este contexto de renovación tecnológica constante en busca de la eficiencia, las antenas reflectoras reflectarray (o, simplemente, los reflectarrays, RAs, [1]) se presentan como una opción competitiva contra los reflectores parabólicos metálicos. En su versión más simple, una antena reflectarray se trata de una estructura compuesta de un elemento alimentador radiante, como puede ser una bocina, y de una superficie plana, consistente en multitud de elementos individuales dispuestos en una rejilla periódica. Sobre esta superficie plana, los frentes de onda provenientes del alimentador son reflejados formando frentes de ondas planas, de una manera análoga a como lo hace un reflector parabólico. A partir de la configuración inicial, y centrándose en el principio de funcionamiento, se ha ido modificando el tipo de elemento RA empleado, consiguiendo RA cada vez más operativos. Es, sobre todo, con el nacimiento de la tecnología impresa cuando las antenas RAs vuelven a cobrar interés. Aunque el uso de tecnología impresa supuso un gran impulso en los RAs, también abrió otros desafíos en lo que al diseño de ellos se refiere. Desde el punto de vista del análisis, es común suponer que el elemento RA se encuentra en un ambiente infinitamente periódico, de forma que se puedan aplicar las condiciones de contorno de Floquet (suposición de periodicidad local). Desde un punto de vista funcional, en general, los elementos RA de tecnología impresa presentan un ancho de banda reducido, que condiciona el ancho de banda del RA completo. Entre las soluciones aportadas, es comúnmente aceptado que las estructuras multicapa, con resonadores a distintas frecuencias cercanas, pueden mitigar en parte el problema del ancho de banda. Por ello, en la actualidad, los elementos RA más comunes están compuestos por varios elementos resonadores, cuyas dimensiones constituyen los parámetros de diseño libres. Es decir, en función de dichas dimensiones, el elemento RA tendrá un valor del coeficiente de reflexión u otro. Esto supone un aumento en la complejidad a la hora de analizar dicho elemento por los métodos numéricos conocidos, como el Método de los Momentos (MoM) o el Método de Elementos Finitos (FEM, por las siglas de su traducción inglesa Finite Element Method), que redundará en un mayor tiempo de cómputo en el análisis. Por otra parte, como se muestra en la Figura R.1, el diseño de un RA conlleva analizar multitud de veces el elemento RA considerado. En efecto, se trata de un método de diseño indirecto, en donde las dimensiones de los parámetros geométricos libres de cada elemento RA se obtienen de manera iterativa usando un optimizador. Se ve claro, entonces, que el aumento en tiempo de análisis del elemento RA repercute en gran medida en el tiempo de diseño total, por lo que una reducción en el tiempo de análisis del elemento RA podría ser muy beneficioso. Uno de los métodos para conseguir reducir el tiempo de diseño de un RA, que se puede encontrar en la literatura, es emplear un modelo de la respuesta del elemento RA en función de los parámetros libres. La cuestión que aflora es cuál es la herramienta idónea para modelar la respuesta del elemento RA. En los últimos años se han propuestos varias formas. La primera de ellas consistía en encontrar un equivalente circuital. Esta aproximación está bien extendida para otras estructuras EM, donde los equivalentes circuitales con componentes LC ofrecen respuestas muy precisas con respecto a las que ofrecen las estructuras EM en sí. A raíz del carácter no lineal de la respuesta, hay autores que han propuesto para el diseño de RAs la creación de tablas de datos (look up tables) que, para cada parámetro de diseño de interés (suele ser el desfase introducido por el elemento) guardan las dimensiones de los parámetros geométricos libres asociados. De esta forma, consiguen un diseño rápido, pero poco versátil, ya que la tabla ofrece un único valor para cada entrada, por lo que es difícil jugar con más de una restricción de diseño. Más recientemente, se está comenzando a utilizar, para la caracterización de estructuras EM, unos sistemas llamados Redes Neuronales Artificiales (ANN, por sus siglas en inglés Artificial Neural Network). El uso fundamental de los mismos en EM es el de servir como interpoladores no lineales. Se trata de sistemas que admiten múltiples parámetros de entradas y múltiples parámetros de salida. Antes de poder ser usados como interpoladores, deben ser entrenados. Para ello, necesitan de un conjunto de pares de los parámetros de entrada a la red, con los valores de las salidas asociados. Algunos usos en electromagnetismo de las ANNs que se pueden encontrar en la literatura son: el modelado de filtros; la caracterización de dispositivos activos; la obtención de modelos que aceleran los algoritmos que calculan la dirección de llegada en antenas de radar; o el diseño de arrays de antenas. Volviendo al modelado de elementos RA, en este trabajo haremos uso de las ANNs para caracterizar distintos tipos de elementos RA. A lo largo de estos últimos años, se ha considerado esta posibilidad como una de las más prometedoras. De hecho, podemos encontrar algunas pocas referencias al respecto, varias de las cuales han sido publicadas por distintos autores durante la elaboración del trabajo recogido en esta Tesis. Como veremos, los resultados que vamos a presentar aportan novedades con respecto a la citada literatura. Particularmente, en este trabajo se ha realizado la caracterización de un elemento RA de tres capas, considerando hasta 9 parámetros de entrada (seis parámetros geométricos, las dos coordenadas del ángulo de incidencia, y la frecuencia) y 4 parámetros de salida complejos (los coeficientes de reflexión para dos polarizaciones ortogonales lineales). Haciendo uso de esta caracterización en el flujo de diseño de RAs, se ha realizado el análisis y el diseño de varias antenas RA con restricciones de diseño de comunicaciones espaciales. Los resultados fueron exitosos comparados con los resultados obtenidos por los métodos tradicionales. De manera puntualizada, podríamos resumir las aportaciones que se verán en esta Tesis como: Caracterización de distintos elementos RA mediante ANNs basadas en el Perceptrón Multicapa (MLP). En concreto, se ha realizado con éxito la caracterización de un elemento RA de parche acoplado a línea de retardo a través de apertura; la caracterización de un elemento RA basado en dipolos sobre substratos de distintas características eléctricas en el rango de centenas de GHz; y la caracterización de un elemento RA basado en 3 parches apilados, con 9 parámetros libres en su caracterización. Uso del FEM, de la técnica de segmentación en subdominios y de la generación y manipulación de accesos MAM para el análisis y la caracterización de elementos RA mediante ANNs. Desarrollo de una nueva técnica de obtención de muestras, para el caso de estructura multicapa cuyo estudio EM se pueda dividir en dos pasos: estudio de cada capa y conexión de capas. De esta forma, se ha podido reducir en varios órdenes de magnitud el tiempo necesario para obtener el set de entrenamiento de las ANNs. Valoración del uso de distintos métodos de entrenamiento de segundo orden para el entrenamiento de redes ANN MLP, en la caracterización de elementos RA. Desarrollo de una nueva técnica para realizar el entrenamiento de redes ANNs basadas en el MLP, denominada como Entrenamiento en Cascada. Dado el alto número de parámetros a caracterizar, era difícil conseguir una red que, partiendo del número de entradas deseado, proporcionara convergencia con precisión suficiente. Con el algoritmo propuesto y probado en esta Tesis, se consiguió entrenar redes de 8 parámetros de entradas (el noveno parámetro, la frecuencia, correspondía a redes diferentes para cada valor) con gran precisión. Desarrollo de un método adaptativo para mejorar la precisión de las ANNs en el análisis de antenas RA. Este método, basado en re-entrenar las ANNs para sub rangos de los parámetros de entrada en donde el error es mayor, aporta una precisión mayor, al mejorar el entrenamiento global de las ANNs, en un tiempo aceptable, ya que solo se incluyen nuevas muestras en torno a los valores donde el error es mayor. Análisis de antena RA completa, con cobertura según especificaciones de la misión AMAZONAS (haz conformado, banda Ku), usando las caracterización el elemento RA obtenida mediante ANNs. La mejora en tiempo de análisis conseguida con respecto al uso del MoM está en un factor 102, con precisiones comparables. Diseño de antenas RA completas, con especificaciones de haz pincel y EuTELSAT (banda Ku). De nuevo, la mejora en tiempo de diseño conseguida están en torno a 102. De todos los puntos anteriores, son de destacar los dos últimos, que forman el objetivo principal de esta Tesis. Esto es, el uso de modelos rápidos de elementos RA mediante ANNs para el análisis y el diseño de antenas para comunicaciones por satélite.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La seguridad en redes informáticas es un área que ha sido ampliamente estudiada y objeto de una extensa investigación en los últimos años. Debido al continuo incremento en la complejidad y sofisticación de los ataques informáticos, el aumento de su velocidad de difusión, y la lentitud de reacción frente a las intrusiones existente en la actualidad, se hace patente la necesidad de mecanismos de detección y respuesta a intrusiones, que detecten y además sean capaces de bloquear el ataque, y mitiguen su impacto en la medida de lo posible. Los Sistemas de Detección de Intrusiones o IDSs son tecnologías bastante maduras cuyo objetivo es detectar cualquier comportamiento malicioso que ocurra en las redes. Estos sistemas han evolucionado rápidamente en los últimos años convirtiéndose en herramientas muy maduras basadas en diferentes paradigmas, que mejoran su capacidad de detección y le otorgan un alto nivel de fiabilidad. Por otra parte, un Sistema de Respuesta a Intrusiones (IRS) es un componente de seguridad que puede estar presente en la arquitectura de una red informática, capaz de reaccionar frente a los incidentes detectados por un Sistema de Detección de Intrusiones (IDS). Por desgracia, esta tecnología no ha evolucionado al mismo ritmo que los IDSs, y la reacción contra los ataques detectados es lenta y básica, y los sistemas presentan problemas para ejecutar respuestas de forma automática. Esta tesis doctoral trata de hacer frente al problema existente en la reacción automática frente a intrusiones, mediante el uso de ontologías, lenguajes formales de especificación de comportamiento y razonadores semánticos como base de la arquitectura del sistema de un sistema de respuesta automática frente a intrusiones o AIRS. El objetivo de la aproximación es aprovechar las ventajas de las ontologías en entornos heterogéneos, además de su capacidad para especificar comportamiento sobre los objetos que representan los elementos del dominio modelado. Esta capacidad para especificar comportamiento será de gran utilidad para que el AIRS infiera la respuesta óptima frente a una intrusión en el menor tiempo posible. Abstract Security in networks is an area that has been widely studied and has been the focus of extensive research over the past few years. The number of security events is increasing, and they are each time more sophisticated, and quickly spread, and slow reaction against intrusions, there is a need for intrusion detection and response systems to dynamically adapt so as to better detect and respond to attacks in order to mitigate them or reduce their impact. Intrusion Detection Systems (IDSs) are mature technologies whose aim is detecting malicious behavior in the networks. These systems have quickly evolved and there are now very mature tools based on different paradigms (statistic anomaly-based, signature-based and hybrids) with a high level of reliability. On the other hand, Intrusion Response System (IRS) is a security technology able to react against the intrusions detected by IDS. Unfortunately, the state of the art in IRSs is not as mature as with IDSs. The reaction against intrusions is slow and simple, and these systems have difficulty detecting intrusions in real time and triggering automated responses. This dissertation is to address the existing problem in automated reactions against intrusions using ontologies, formal behaviour languages and semantic reasoners as the basis of the architecture of an automated intrusion response systems or AIRS. The aim is to take advantage of ontologies in heterogeneous environments, in addition to its ability to specify behavior of objects representing the elements of the modeling domain. This ability to specify behavior will be useful for the AIRS in the inference process of the optimum response against an intrusion, as quickly as possible.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el marco de SERELAREFA (Semillas REd LAtina Recuperación Ecosistemas Fluviales y Acuáticos) se ha propuesto el "Corredor fluvial río Tinguiririca". Esta iniciativa persigue llegar a definir una franja de territorio donde se le permita al río expresar su dinámica natural , pero controlándola con intervenciones de ingeniería integradas en el paisaje de manera que permita un desarrollo económico más seguro en las zonas aledañas y contar con los servicios ambientales brindados por un ecosistema en buen estado. Esta comunicación presenta la problemática del río Tinguiririca y la simulación hidráulica de un tramo del mismo río en la localidad de San Fernando en el marco del diseño del Corredor Fluvial Tinguririca. Se realizó un levantamiento topográfico de detalle del tramo y se simularon caudales crecientes en 2D con Infoworks ICM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este trabajo hemos estudiado el comportamiento térmico de dos ríos similares en cuanto a altitud, orientación, litología, pendiente y sombreado. Se ha comparado el régimen diario de temperatura de los ríos Cega (no regulado) y Pirón (regulado) en sus zonas de cabecera con el objeto de detectar las alteraciones térmicas que provoca la existencia y explotación del embalse de Torrecaballeros sobre el río Pirón. El río Pirón es afluente del río Cega. En el río Pirón el comportamiento térmico ha sido mucho más fluctuante respecto al Cega, con un patrón anual característico de fuertes descensos de temperatura en primavera y la segunda mitad del verano y un importante incremento de la misma durante la primera mitad del verano. Las diferencias observadas en el incremento de temperatura en el Pirón respecto a los registrados en el Cega, indican que en el río regulado pueden producirse alteraciones en los ritmos biológicos de las especies fluviales, especialmente en la primera mitad del verano. En este periodo se produce un enfriamiento muy acusado del agua del río en el tramo aguas abajo de la presa que rompe de modo brusco la tendencia natural de la estacionalidad a que los organismos fluviales están adaptados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Modelación matemática fundamentada en los fenómenos de pérdidas de carga y empuje de llaves hidráulica reguladoras de presión. Las estaciones reguladoras de presión están formadas por la agrupación, generalmente dos, de estos dispositivos en serie o en paralelo, según las características de la demanda y de la magnitud de la presión a regular.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Síntesis del procedimiento de diseño formulado en la tesis doctoral de Rafael Morán. La demanda de seguridad en infraestructuras críticas ha aumentado en los últimos años, especialmente en los países con mayor nivel de desarrollo económico y social. En estos países, el control del estado de la seguridad de estas infraestructuras y las medidas para disminuir los riesgos asociados en caso de avería están adquiriendo una gran relevancia, lo que se ha plasmado en unas normativas más exigentes. Las presas están dentro de este tipo de infraestructuras tanto por su interés estratégico como por los daños que pueden llegar a ocasionar en caso de un mal funcionamiento o de su eventual rotura. La tecnología de protecciones de presas surge como respuesta a esta demanda de seguridad y, por este motivo, ha experimentado un gran avance en las últimas décadas. Dentro de este artículo se va a describir la protección tipo repié y el procedimiento de diseño propuesto para evitar el deslizamiento en masa de presas con espaldón de aguas abajo de escollera, cuando se produce una filtración anormalmente elevada debido a un fallo en la impermeabilidad en el conjunto presa-cimiento. El artículo describe brevemente el estado del arte de la tecnología y de sus aplicaciones así como de la innovación conseguida en este campo a partir de las investigaciones desarrolladas en la Universidad Politécnica de Madrid (UPM), en colaboración con el Centro de Estudios Hidrográficos del CEDEX y el Centro Internacional de Métodos Numéricos en la Ingeniería (CIMNE), en el marco del proyecto de investigación del Plan Nacional denominado EDAMS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Presentación de las conclusiones del proyecto de investigación ALCON. La publicación del Reglamento Técnico sobre seguridad de Presas y Embalses en el año 1996 ha generado la necesidad de adaptar muchas de las presas en explotación en España para cumplir esta nueva normativa, debiendo ampliar gran parte de ellas su capacidad de desagüe y también aumentar los resguardos. Muchas de las presas españolas se encuentran aún en proceso de adaptación a los nuevos criterios debido en ocasiones a que la ampliación del aliviadero existente es muy costosa o plantea dificultades técnicas importantes. Por esta razón, en los últimos años se han desarrollado nuevas tipologías de aliviaderos, capaces de satisfacer las necesidades planteadas. Una de estas soluciones innovadoras son los aliviaderos con cajeros altamente convergentes. Esta tipología, adecuada para presas de gravedad de hormigón, tiene la particularidad de que la longitud del vertedero es sensiblemente mayor que el ancho del cuenco amortiguador. Para conducir el caudal vertido al cuenco, se disponen unos cajeros con fuerte convergencia. Si bien este tipo de aliviaderos puede plantearse en presas de nueva construcción, la ampliación de capacidad de presas existentes mediante esta tipología resulta sencilla.Desde el punto de vista de la explotación hidroeléctrica, la ampliación de capacidad conseguida con esta tipología permite aumentar la cota del nivel máximo normal (NMN) gracias a la reducción de la altura de lámina vertiente, manteniendo los resguardos exigidos por la normativa. Ello se traduce en un incremento considerable de la capacidad de generación hidroeléctrica, aumentando tanto la altura del salto como el volumen embalsado. Los aliviaderos con cajeros altamente convergentes ya han sido utilizados en varias presas tanto en España como en el resto del mundo. Sin embargo no existen referencias con criterios de diseño de carácter general para esta tipología, por lo que se hace necesario a la hora de proyectar un aliviadero de este tipo realizar ensayos en modelo físico específicos en cada caso. Con el objetivo desarrollar una metodología para el cálculo hidráulico y proyecto de este tipo de aliviaderos se está llevando a cabo el proyecto ALCON, incluido en el Plan Nacional de Investigación Científica del Ministerio de Economía y Competitividad, en el que participan ALATEC, UPM Y CIMNE. En el proyecto se combinan la modelación física y numérica para alcanzar los objetivos planteados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El comportamiento estructural de las presas de embalse es difícil de predecir con precisión. Los modelos numéricos para el cálculo estructural resuelven bien las ecuaciones de la mecánica de medios continuos, pero están sujetos a una gran incertidumbre en cuanto a la caracterización de los materiales, especialmente en lo que respecta a la cimentación. Así, es difícil discernir si un estado que se aleja en cierta medida de la normalidad supone o no una situación de riesgo estructural. Por el contrario, muchas de las presas en operación cuentan con un gran número de aparatos de auscultación, que registran la evolución de diversos indicadores como los movimientos, el caudal de filtración, o la presión intersticial, entre otros. Aunque hoy en día hay muchas presas con pocos datos observados, hay una tendencia clara hacia la instalación de un mayor número de aparatos que registran el comportamiento con mayor frecuencia [1]. Como consecuencia, se tiende a disponer de un volumen creciente de datos que reflejan el comportamiento de la presa. En la actualidad, estos datos suelen tratarse con métodos estadísticos para extraer información acerca de la relación entre variables, detectar anomalías y establecer umbrales de emergencia. El modelo general más común es el denominado HST (Hydrostatic-Season-Time), que calcula la predicción de una variable determinada de una presa a partir de una serie de funciones que tienen en cuenta los factores que teóricamente más influyen en la respuesta: la carga del embalse, el efecto térmico (en función de la época del año) y un término irreversible. Puntualmente se han aplicado modelos más complejos, en algunos casos introduciendo un número mayor de variables, como la precipitación [2], y en otros con otras expresiones como la función impulso-respuesta [3]. En otros campos de la ciencia, como la medicina o las telecomunicaciones el volumen de datos es mucho mayor, lo que ha motivado el desarrollo de numerosas herramientas para su tratamiento y para el desarrollo de modelos de predicción. Algunas de ellas, como las redes neuronales, ya han sido aplicadas al caso de la auscultación de presas [4], [5] con resultados prometedores. El trabajo que se presenta es una revisión de las herramientas disponibles en los campos de la minería de datos, inteligencia artificial y estadística avanzada, potencialmente útiles para el análisis de datos de auscultación. Se describen someramente, indicando sus ventajas e inconvenientes. Se presenta además el resultado de aplicar un modelo basado en bosques aleatorios [6] para la predicción del caudal de filtración en un caso piloto. Los bosques aleatorios están basados en los árboles de decisión [7], que son modelos que dividen el conjunto de datos observados en grupos de observaciones “similares”. Posteriormente, se ajusta un modelo sencillo (típicamente lineal, o incluso un valor constante) que se aplica a los nuevos casos pertenecientes a cada grupo.