972 resultados para Vulnerabilidad erosiva


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto tiene por objeto el estudio detallado de la dinámica litoral en la unidad costera en la que se enmarca la zona de interés, limitada septentrionalmente por la desembocadura del Río Salado y por el Cabo de Trafalgar al Sur, con el fin de poder diseñar una suficiente y adecuada aportación de arenas para conseguir la regeneración y recuperación ambiental de la Playa de Zahora, que ha venido sufriendo episodios erosivos en los últimos años. La configuración del tramo de costa gaditano al Sur de Conil (tramo en el que se ubica la zona de estudio) ha sido trazada en sus líneas generales por la actividad tectónica reciente. La línea de costa corre hacia el Sur en un zig-zag que va formando líneas paralelas a las dos direcciones principales de fractura de la zona. Los bloques individualizados por el sistema de fallas han sufrido una serie compleja de movimientos diferenciales de elevación, hundimiento y basculamiento debido a los movimientos diferenciales de las placas euroasiática y africana. Los procesos sedimentarios cuaternarios así como la acción erosiva de los agentes marinos, han ido rellenando entrantes y suavizando salientes, pero a pesar de esto, la forma de la línea de costa aún constituye un reflejo de la tectónica, así que puede decirse que el tramo de costa gaditana comprendido entre Conil y Tarifa, está ligado fundamentalmente a fenómenos tectónicos, jugando la dinámica sedimentaria un papel más secundario en la configuración general del litoral. La Playa de Zahora, lejos de ser estable, ha ido sufriendo erosiones continuadas ocasionando retrocesos anuales de orden métrico, habiendo sido necesario efectuar aportaciones esporádicas de arena a lo largo de los años con objeto de paliar su deterioro. El proyecto plantea unas actuaciones tendentes a la regeneración de esta playa, satisfaciendo la demanda existente. Las actuaciones proyectadas suponen la aportación de material sedimentario procedente del yacimiento existente en El Placer de Meca, a profundidades comprendidas entre 15 m y 20 m. El yacimiento se conforma como una gran duna submarina, situada a unos 6 km del frente costero. Asimismo se contemplan, junto con dicha aportación, otras dos alternativas, consistentes en la construcción de un espigón curvo para la contención de dichas arenas y, por otro lado, la construcción de un dique exento paralelo a la costa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las estructuras de forjados reticulares sobre pilares aislados han sido ampliamente utilizadas en el sur de Europa para edificios de viviendas y oficinas entre los a?nos setenta y noventa del siglo pasado. Estas estructuras, proyectadas y construidas con códigos actualmente obsoletos, podrían tener un comportamiento deficiente en caso de terremoto y es necesario evaluar su vulnerabilidad y la necesidad de ser reacondicionadas sísmicamente. Este artículo propone un modelo sencillo de transmisión de esfuerzos en uniones existentes entre forjado reticular y soporte exterior, solicitadas en la dirección normal al plano de fachada. La propuesta tiene en cuenta particularidades de estos forjados tales como la concentración de armaduras orientadas con los nervios y la presencia sistemática de crucetas de punzonamiento. El modelo global consiste en elementos tipo barra para los soportes y tipo placa para el forjado, con uniones entre ambos mediante rótulas a flexión y a torsión. La resistencia de las rótulas a flexión se determina a partir de la estimación de la porción de armadura longitudinal del forjado que transmite directamente momentos al pilar por flexión. La deformación de plastificación de las rótulas se estima con expresiones simples. Como ductilidad de las rótulas a flexión se adopta el valor propuesto por la norma FEMA 356, mientras que para las rótulas a torsión se adopta ductilidad infinita, lo cual es consistente con resultados experimentales previos. Se muestra que la respuesta frente a desplazamientos laterales impuestos monótonamente crecientes obtenida con el modelo propuesto se ajusta adecuadamente a resultados experimentales obtenidos en estudios anteriores, en cuanto a rigidez, resistencia y ductilidad.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El llamado Trópico Seco de Centroamérica se caracteriza en general y en la Costa Pacífica, en particular, por albergar una elevada densidad de población eminentemente rural y agro dependiente, en este medio se han conjugado el incremento de los procesos de desertificación del territorio junto con la disminución de los rendimientos agropecuarios. Este fenómeno ha venido acelerándose en los últimos años a la par que ha sido agravado por otros factores económicos y políticos, generando creciente vulnerabilidad físico-ambiental y socioeconómica. La tesis pretende demostrar que la falta de un correcto manejo y usos del suelo es factor clave en la creciente pobreza campesina, también consideramos que esta situación es reversible empleando medios, técnicas y compromisos sociales que están a nuestro alcance y, por último, que es técnica y económicamente factible disponer de un modelo o estrategia eco productiva que posibilite el crecimiento económico de la población, manteniendo o incluso mejorando la sostenibilidad de los recursos naturales (causa primera de la pobreza), y en particular el suelo y el agua. A pesar de las inversiones significativas en el agro durante los últimos 25 años, continúan creciendo a un ritmo alarmante los procesos de desertificación y de la pobreza rural relacionada. Entre un sin número de causas se destacan una baja voluntad política y la polarización entre gobiernos y las organizaciones de la sociedad civil. Por último, se destaca el hecho de que para revertir las actuales tendencias, es preciso fomentar la estrecha colaboración como un todo entre gobiernos centrales, gobiernos locales y las organizaciones de la sociedad civil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo fundamental de esta tesis es realizar una reflexión sobre el concepto de variedad urbana entendida como una cualidad intrínseca de la ciudad, relacionada directamente con la calidad de vida e imprescindible para plantear modelos alternativos de intervención en la ciudad y el territorio así como procesos de regeneración y rehabilitación integral. El discurso sobre la variedad es el discurso sobre el derecho a la ciudad en el sentido lefrebvriano, puesto que la función última de la ciudad deberá ser la de posibilitar sino lograr la satisfacción de las necesidades de sus ciudadanos. La variedad urbana no asegura la satisfacción de las necesidades sino que posibilita la creación de herramientas, medios o procesos. La ausencia de variedad se puede considerar un síntoma de la vulnerabilidad urbana. Por esta razón, es necesario transcender del concepto limitado y reducido de variedad urbana, al que habitualmente se recurre, más relacionado con la idea de mezcla de actividades y usos, o bien, con el sumatorio de diversidades parciales (similar al utilizado en Ecología) hacia un enfoque más complejo y global. Son muchos y variados los aspectos que define la variedad pero se pero se pueden agrupan en cuatro: variedad contextual, variedad del soporte físico, variedad social y cultural, y variedad de actividades. La investigación propone una metodología ad hoc para la evaluación de la variedad urbana utilizando las herramientas habituales del análisis urbanístico con el objetivo realizar una aproximación al análisis de la complejidad urbana desde la disciplina urbanística. Utilizando esta metodología se caracteriza la variedad urbana en tres barrios madrileños con origen similar y que forman parte de la periferia histórica de la ciudad. Se realiza un análisis comparativo de los barrios y de su evolución en el periodo 1991 y 2001. La presente tesis busca combinar la reflexión teórica y la intervención en la ciudad con el objetivo de que la reflexión aporte contenido a la praxis pero también entendiendo que desde la práctica se favorece la reflexión teórica sobre la ciudad.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La idea principal de este artículo es realizar una reflexión sobre el concepto de variedad urbana entendida como una cualidad intrínseca de la ciudad, relacionada directamente con la calidad de vida e imprescindible para plantear modelos alternativos de intervención en la ciudad y el territorio así como procesos de regeneración y rehabilitación integral. Se trata de una condición necesaria aunque no suficiente de la calidad de vida urbana. El proceso de desarrollo económico ha venido ejerciendo una influencia perversa en la ciudad y en el planeamiento de las nuevas áreas urbanas, al provocar la división de la ciudad en piezas homogéneas, separadas social, funcional y espacialmente; y, promover, al mismo tiempo, la expansión urbana y la degradación de las áreas centrales de la ciudad, incluidas las grandes periferias surgidas en el último tercio del siglo XX. La ausencia de variedad se puede considerar un síntoma de la vulnerabilidad urbana. Por esta razón, es necesario transcender del concepto limitado y reducido de variedad urbana, al que habitualmente se recurre, más relacionado con la idea de mezcla de actividades y usos, o bien, con el sumatorio de diversidades parciales (similar al utilizado en Ecología) hacia un enfoque más complejo y global.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El terremoto ocurrido el 12 de enero de 2010 en Haití devastó la ciudad de Puerto Príncipe, interrumpiendo la actividad social y económica. El proyecto Sismo-Haití surgió como respuesta a la solicitud de ayuda del país ante esta catástrofe y está siendo llevado a cabo por el grupo de investigación en Ingeniería Sísmica de la Universidad Politécnica de Madrid, especialistas en geología y sismología de las universidades Complutense de Madrid, Almería y Alicante, el Consejo Superior de investigaciones Científicas y técnicos locales Haitianos. En el marco del citado proyecto se realizará un estudio de la amenaza sísmica, con la consiguiente obtención de mapas de aceleraciones que sirvan de base para una primera normativa sismorresistente en el país. Asimismo, se llevará a cabo un estudio de riesgo sísmico en alguna población piloto, incluyendo estudios de microzonación y vulnerabilidad sísmica, así como la estimación de daños y pérdidas humanas ante posibles sismos futuros, cuyos resultados irán dirigidos al diseño de planes de emergencia. En este trabajo se presentan los primeros avances del proyecto. Uno de los objetivos más importantes del proyecto Sismo-Haití es la formación de técnicos en el país a través de la transmisión de conocimientos y experiencia que el grupo de trabajo tiene en materia de peligrosidad y riesgo sísmico, así como en todo lo relacionado con la gestión de la emergencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tras el catastrófico terremoto ocurrido en Haití el 12 de enero de 2010, de magnitud Mw 7 y profundidad de 10 km, (fuente: USGS) con un epicentro próximo a la capital, Puerto Príncipe (15 km), el país quedo en una situación catastrófica y de extrema pobreza, con necesidades básicas en salud, nutrición, educación y habitabilidad. Pocos meses después se inició el proyecto de cooperación SISMO-HAITI, financiado y coordinado por el Grupo de Investigación en Ingeniería Sísmica (GIIS) de la Universidad Politécnica de Madrid (UPM), con participación de otras universidades españolas y del CSIC y siendo la contraparte Haitiana el Observatorio de Vulnerabilidad y Medio Ambiente (ONEV). Uno de los objetivos del proyecto es el cálculo de peligrosidad sísmica en la Isla de La Española que constituya la base para la elaboración del primer código sísmico del país. El trabajo que aquí se presenta es una aplicación web desarrollada con el Sistema de Información Geográfica (SIG) del proyecto SISMO-HAITI. En esta aplicación se integran los diferentes mapas generados para el cálculo de la peligrosidad sísmica, así como los mapas resultantes, que pueden ser analizados e interpretados con mayor facilidad gracias a la aplicación. Para analizar la influencia de los diferentes inputs de cálculo se ha introducido el catálogo sísmico, las diferentes zonificaciones sismo genéticas y las principales fallas tectónicas. Toda esta información se puede superponer geográficamente con posibilidad de realizar consultas cruzadas en las correspondientes bases de datos, permitiendo el análisis de sensibilidad de éstos en los resultados. El desarrollo de esta aplicación web se ha creado a través de ArcGis Server 10

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El reacondicionamiento de estructuras surge como reacción a la mejora de conocimientos, tanto en cuanto a la peligrosidad sísmica del emplazamiento, como a la vulnerabilidad de ciertas tipologías o detalles constructivos. En el caso particular de los puentes, la situación es debida a las continuas llamadas de atención que los grandes terremotos recientes están realizando respecto a estructuras tradicionalmente consideradas perfectas. El reacondicionamiento, desde un punto de vista social, es una respuesta activa frente a los daños previsibles, y una forma de minimizarlos con criterios ingenieriles. La actuación se articula alrededor de un Catálogo de estructuras, que se clasifican en forma que permite la toma de decisiones de acuerdo con los fondos disponibles. Tras un primer cribado que separa los puentes que, previsiblemente, no sufrirán problemas, se aplican métodos de cálculo capaces de prever los daños, y estimar las zonas en que aquellos pueden producirse, lo que permite contribuir a la ordenación precitada. Finalmente se establecen métodos que corrijan las deficiencias estructurales y ayuden a mejorar la respuesta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cuando una colectividad de sistemas dinámicos acoplados mediante una estructura irregular de interacciones evoluciona, se observan dinámicas de gran complejidad y fenómenos emergentes imposibles de predecir a partir de las propiedades de los sistemas individuales. El objetivo principal de esta tesis es precisamente avanzar en nuestra comprensión de la relación existente entre la topología de interacciones y las dinámicas colectivas que una red compleja es capaz de mantener. Siendo este un tema amplio que se puede abordar desde distintos puntos de vista, en esta tesis se han estudiado tres problemas importantes dentro del mismo que están relacionados entre sí. Por un lado, en numerosos sistemas naturales y artificiales que se pueden describir mediante una red compleja la topología no es estática, sino que depende de la dinámica que se desarrolla en la red: un ejemplo son las redes de neuronas del cerebro. En estas redes adaptativas la propia topología emerge como consecuencia de una autoorganización del sistema. Para conocer mejor cómo pueden emerger espontáneamente las propiedades comúnmente observadas en redes reales, hemos estudiado el comportamiento de sistemas que evolucionan según reglas adaptativas locales con base empírica. Nuestros resultados numéricos y analíticos muestran que la autoorganización del sistema da lugar a dos de las propiedades más universales de las redes complejas: a escala mesoscópica, la aparición de una estructura de comunidades, y, a escala macroscópica, la existencia de una ley de potencias en la distribución de las interacciones en la red. El hecho de que estas propiedades aparecen en dos modelos con leyes de evolución cuantitativamente distintas que siguen unos mismos principios adaptativos sugiere que estamos ante un fenómeno que puede ser muy general, y estar en el origen de estas propiedades en sistemas reales. En segundo lugar, proponemos una medida que permite clasificar los elementos de una red compleja en función de su relevancia para el mantenimiento de dinámicas colectivas. En concreto, estudiamos la vulnerabilidad de los distintos elementos de una red frente a perturbaciones o grandes fluctuaciones, entendida como una medida del impacto que estos acontecimientos externos tienen en la interrupción de una dinámica colectiva. Los resultados que se obtienen indican que la vulnerabilidad dinámica es sobre todo dependiente de propiedades locales, por tanto nuestras conclusiones abarcan diferentes topologías, y muestran la existencia de una dependencia no trivial entre la vulnerabilidad y la conectividad de los elementos de una red. Finalmente, proponemos una estrategia de imposición de una dinámica objetivo genérica en una red dada e investigamos su validez en redes con diversas topologías que mantienen regímenes dinámicos turbulentos. Se obtiene como resultado que las redes heterogéneas (y la amplia mayora de las redes reales estudiadas lo son) son las más adecuadas para nuestra estrategia de targeting de dinámicas deseadas, siendo la estrategia muy efectiva incluso en caso de disponer de un conocimiento muy imperfecto de la topología de la red. Aparte de la relevancia teórica para la comprensión de fenómenos colectivos en sistemas complejos, los métodos y resultados propuestos podrán dar lugar a aplicaciones en sistemas experimentales y tecnológicos, como por ejemplo los sistemas neuronales in vitro, el sistema nervioso central (en el estudio de actividades síncronas de carácter patológico), las redes eléctricas o los sistemas de comunicaciones. ABSTRACT The time evolution of an ensemble of dynamical systems coupled through an irregular interaction scheme gives rise to dynamics of great of complexity and emergent phenomena that cannot be predicted from the properties of the individual systems. The main objective of this thesis is precisely to increase our understanding of the interplay between the interaction topology and the collective dynamics that a complex network can support. This is a very broad subject, so in this thesis we will limit ourselves to the study of three relevant problems that have strong connections among them. First, it is a well-known fact that in many natural and manmade systems that can be represented as complex networks the topology is not static; rather, it depends on the dynamics taking place on the network (as it happens, for instance, in the neuronal networks in the brain). In these adaptive networks the topology itself emerges from the self-organization in the system. To better understand how the properties that are commonly observed in real networks spontaneously emerge, we have studied the behavior of systems that evolve according to local adaptive rules that are empirically motivated. Our numerical and analytical results show that self-organization brings about two of the most universally found properties in complex networks: at the mesoscopic scale, the appearance of a community structure, and, at the macroscopic scale, the existence of a power law in the weight distribution of the network interactions. The fact that these properties show up in two models with quantitatively different mechanisms that follow the same general adaptive principles suggests that our results may be generalized to other systems as well, and they may be behind the origin of these properties in some real systems. We also propose a new measure that provides a ranking of the elements in a network in terms of their relevance for the maintenance of collective dynamics. Specifically, we study the vulnerability of the elements under perturbations or large fluctuations, interpreted as a measure of the impact these external events have on the disruption of collective motion. Our results suggest that the dynamic vulnerability measure depends largely on local properties (our conclusions thus being valid for different topologies) and they show a non-trivial dependence of the vulnerability on the connectivity of the network elements. Finally, we propose a strategy for the imposition of generic goal dynamics on a given network, and we explore its performance in networks with different topologies that support turbulent dynamical regimes. It turns out that heterogeneous networks (and most real networks that have been studied belong in this category) are the most suitable for our strategy for the targeting of desired dynamics, the strategy being very effective even when the knowledge on the network topology is far from accurate. Aside from their theoretical relevance for the understanding of collective phenomena in complex systems, the methods and results here discussed might lead to applications in experimental and technological systems, such as in vitro neuronal systems, the central nervous system (where pathological synchronous activity sometimes occurs), communication systems or power grids.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente, la escasez de agua constituye un importante problema en muchos lugares del mundo. El crecimiento de la población, la creciente necesidad de alimentos, el desarrollo socio-económico y el cambio climático ejercen una importante y cada vez mayor presión sobre los recursos hídricos, a la que muchos países van a tener que enfrentarse en los próximos anos. La región Mediterránea es una de las regiones del mundo de mayor escasez de recursos hídricos, y es además una de las zonas más vulnerables al cambio climático. La mayoría de estudios sobre cambio climático prevén mayores temperaturas y una disminución de las precipitaciones, y una creciente escasez de agua debida a la disminución de recursos disponibles y al aumento de las demandas de riego. En el contexto actual de desarrollo de políticas se demanda cada vez más una mayor consideración del cambio climático en el marco de las políticas sectoriales. Sin embargo, los estudios enfocados a un solo sector no reflejan las múltiples dimensiones del los efectos del cambio climático. Numerosos estudios científicos han demostrado que el cambio climático es un fenómeno de naturaleza multi-dimensional y cuyos efectos se transmiten a múltiples escalas. Por tanto, es necesaria la producción de estudios y herramientas de análisis capaces de reflejar todas estas dimensiones y que contribuyan a la elaboración de políticas robustas en un contexto de cambio climático. Esta investigación pretende aportar una visión global de la problemática de la escasez de agua y los impactos, la vulnerabilidad y la adaptación al cambio climático en el contexto de la región mediterránea. La investigación presenta un marco integrado de modelización que se va ampliando progresivamente en un proceso secuencial y multi-escalar en el que en cada etapa se incorpora una nueva dimensión. La investigación consta de cuatro etapas que se abordan a lo largo de cuatro capítulos. En primer lugar, se estudia la vulnerabilidad económica de las explotaciones de regadío del Medio Guadiana, en España. Para ello, se utiliza un modelo de programación matemática en combinación con un modelo econométrico. A continuación, en la segunda etapa, se utiliza un modelo hidro-económico que incluye un modelo de cultivo para analizar los procesos que tienen lugar a escala de cultivo, explotación y cuenca teniendo en cuenta distintas escalas geográficas y de toma de decisiones. Esta herramienta permite el análisis de escenarios de cambio climático y la evaluación de posibles medidas de adaptación. La tercera fase consiste en el análisis de las barreras que dificultan la aplicación de procesos de adaptación para lo cual se analizan las redes socio-institucionales en la cuenca. Finalmente, la cuarta etapa aporta una visión sobre la escasez de agua y el cambio climático a escala nacional y regional mediante el estudio de distintos escenarios de futuro plausibles y los posibles efectos de las políticas en la escasez de agua. Para este análisis se utiliza un modelo econométrico de datos de panel para la región mediterránea y un modelo hidro-económico que se aplica a los casos de estudio de España y Jordania. Los resultados del estudio ponen de relieve la importancia de considerar múltiples escalas y múltiples dimensiones en el estudio de la gestión de los recursos hídricos y la adaptación al cambio climático en los contextos mediterráneos de escasez de agua estudiados. Los resultados muestran que los impactos del cambio climático en la cuenca del Guadiana y en el conjunto de España pueden comprometer la sostenibilidad del regadío y de los ecosistemas. El análisis a escala de cuenca hidrográfica resalta la importancia de las interacciones entre los distintos usuarios del agua y en concreto entre distintas comunidades de regantes, así como la necesidad de fortalecer el papel de las instituciones y de fomentar la creación de una visión común en la cuenca para facilitar la aplicación de los procesos de adaptación. Asimismo, los resultados de este trabajo evidencian también la capacidad y el papel fundamental de las políticas para lograr un desarrollo sostenible y la adaptación al cambio climático es regiones de escasez de agua tales como la región mediterránea. Especialmente, este trabajo pone de manifiesto el potencial de la Directiva Marco del Agua de la Unión Europea para lograr una efectiva adaptación al cambio climático. Sin embargo, en Jordania, además de la adaptación al cambio climático, es preciso diseñar estrategias de desarrollo sostenible más ambiciosas que contribuyan a reducir el riesgo futuro de escasez de agua. ABSTRACT Water scarcity is becoming a major concern in many parts of the world. Population growth, increasing needs for food production, socio-economic development and climate change represent pressures on water resources that many countries around the world will have to deal in the coming years. The Mediterranean region is one of the most water scarce regions of the world and is considered a climate change hotspot. Most projections of climate change envisage an increase in temperatures and a decrease in precipitation and a resulting reduction in water resources availability as a consequence of both reduced water availability and increased irrigation demands. Current policy development processes require the integration of climate change concerns into sectoral policies. However, sector-oriented studies often fail to address all the dimensions of climate change implications. Climate change research in the last years has evidenced the need for more integrated studies and methodologies that are capable of addressing the multi-scale and multi-dimensional nature of climate change. This research attempts to provide a comprehensive view of water scarcity and climate change impacts, vulnerability and adaptation in Mediterranean contexts. It presents an integrated modelling framework that is progressively enlarged in a sequential multi-scale process in which a new dimension of climate change and water resources is addressed at every stage. It is comprised of four stages, each one explained in a different chapter. The first stage explores farm-level economic vulnerability in the Spanish Guadiana basin using a mathematical programming model in combination with an econometric model. Then, in a second stage, the use of a hydro-economic modelling framework that includes a crop growth model allows for the analysis of crop, farm and basin level processes taking into account different geographical and decision-making scales. This integrated tool is used for the analysis of climate change scenarios and for the assessment of potential adaptation options. The third stage includes the analysis of barriers to the effective implementation of adaptation processes based on socioinstitutional network analysis. Finally, a regional and country level perspective of water scarcity and climate change is provided focusing on different possible socio-economic development pathways and the effect of policies on future water scarcity. For this analysis, a panel-data econometric model and a hydro-economic model are applied for the analysis of the Mediterranean region and country level case studies in Spain and Jordan. The overall results of the study demonstrate the value of considering multiple scales and multiple dimensions in water management and climate change adaptation in the Mediterranean water scarce contexts analysed. Results show that climate change impacts in the Guadiana basin and in Spain may compromise the sustainability of irrigation systems and ecosystems. The analysis at the basin level highlights the prominent role of interactions between different water users and irrigation districts and the need to strengthen institutional capacity and common understanding in the basin to enhance the implementation of adaptation processes. The results of this research also illustrate the relevance of water policies in achieving sustainable development and climate change adaptation in water scarce areas such as the Mediterranean region. Specifically, the EU Water Framework Directive emerges as a powerful trigger for climate change adaptation. However, in Jordan, outreaching sustainable development strategies are required in addition to climate change adaptation to reduce future risk of water scarcity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En países de sismicidad moderada es habitual el uso de puentes cuyo tablero está unido mediante apoyos elastoméricos y/o deslizantes, tanto a las pilas como a los estribos. La principal vulnerabilidad sísmica de estos puentes está asociada a los choques. Dicha vulnerabilidad puede valorarse estimando la probabilidad de que se produzca un determinado daño en un periodo de tiempo. En este artículo se plantean las líneas actuales para estudiar este problema, y se aplican al estudio de la vulnerabilidad de un paso superior situado en la provincia de Granada, que puede considerarse como sísmicamente aislado. El marco del estudio es la metodología del Pacific Earthquake Engineering Research Center, cuya aplicación se ha adaptado al caso estudiado. En el artículo se describen cada una de las etapas de que consta, aunque se presta especial atención a la identificación y caracterización de los daños susceptibles de producirse. El modelo de la estructura, que debe permitir una adecuada caracterización de los choques, también será presentado en detalle. Dado que el puente es representativo de una gran cantidad de estructuras del inventario construido en España, los resultados son doblemente importantes. Por una parte, sirven de guía para la aplicación de esta metodología a estructuras similares. Y por otra, proporcionan valores de probabilidades que pueden servir de referencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La gestión de riesgos debe ser entendida como una determinación de vínculos entre lo que se asume como vulnerabilidad, y la forma en la que se determinarían o estimarían la probabilidad en la concurrencia de un determinado hecho, partiendo de la idea de la concurrencia de un fenómeno y las acciones necesarias que deberán llevarse a cabo. El tema de vulnerabilidad y riesgo, cada día toma más importancia a nivel mundial, a medida que pasa el tiempo es más notoria la vulnerabilidad de ciertas poblaciones ante la presencia de determinados peligros naturales como son: inundaciones, desbordes de ríos, deslizamientos de tierra y movimientos sísmicos. La vulnerabilidad aumenta, a medida que crece la deforestación. La construcción en lugares de alto riesgo, como por ejemplo, viviendas a orillas de los ríos, está condicionada por la localización y las condiciones de uso del suelo, infraestructura, construcciones, viviendas, distribución y densidad de población, capacidad de organización, etc. Es ahora donde la gestión de riesgos, juega un papel muy importante en la sociedad moderna, siendo esta cada vez más exigente con los resultados y calidad de productos y servicios, además de cumplir también, con la responsabilidad jurídica que trae la concepción, diseño y construcción de proyectos en zonas inundables. El presente trabajo de investigación, se centra en identificar los riesgos, aplicando soluciones estructurales y recomendaciones resilientes para edificaciones que se encuentren emplazadas en zonas inundables. Disminuyendo así el riesgo de fallo estructural y el número de víctimas considerablemente. Concluyendo con un Catálogo de Riesgos y Soluciones para edificaciones en zonas inundables. Risk management should be understood as a determination of links between what is assumed to be vulnerable , and how that would be determined or would estimate the probability in the occurrence of a certain event, based on the idea of the occurrence of a phenomenon and necessary actions to be carried out . The issue of vulnerability and risk, every day takes more importance globally, as time passes is more notorious vulnerability of certain populations in the presence of certain natural hazards such as floods, swollen rivers, landslides and earthquakes. Vulnerability increases as it grows deforestation. The construction in high-risk locations, such as homes on the banks of rivers, is conditioned by the location and conditions of land use, infrastructure, construction, housing, distribution and population density, organizational skills, etc. Now where risk management plays a very important role in modern society, is being increasingly demanding with the results and quality of products and services, and also comply with the legal responsibility that brings the conception, design and construction projects in flood zones. This research focuses on identifying risks, implementing structural solutions and resilients’ recommendations for buildings that are emplaced in flood zones. Thus decreasing the risk of structural failure and the number of victims significantly. Concluding with a Catalogue of Risks and Solutions for buildings in flood zones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La República de El Salvador está localizada al norte de Centroamérica, limita al norte con Honduras, al este con Honduras y Nicaragua en el Golfo de Fonseca, al oeste con Guatemala y al sur con el Océano Pacífico. Con una población de casi 6.3 millones de habitantes (2012) y una extensión territorial de algo más de 21.000 km2, es el país más pequeño de toda Centroamérica, con la densidad de población más alta (292 habitantes por km2) y una tasa de pobreza que supera el 34%. Actualmente el 63.2% de la población del país se concentra en las ciudades, y más de la cuarta parte de la población se asienta en el Área Metropolitana de El Salvador (AMSS), lo que supone un área de alrededor del 2.6% del territorio salvadoreño. Según el Banco Mundial, el país tiene un PIB per cápita de 3790 dólares (2012). Asimismo, desde hace ya varios años el elemento clave en la economía salvadoreña ha sido las remesas del exterior, las cuales en el 2006 representaron el 15% del PIB, manteniéndose por varios años consecutivos como la más importante fuente de ingresos externos con que cuenta el país (Comisión Económica para América Latina‐CEPAL, 2007). La inestabilidad económica, la desigual distribución de la riqueza, así como la brecha entre los ámbitos urbano y rural, son las principales causas que limitan las capacidades de desarrollo social del país. El Salvador es uno de los países ecológicamente más devastado de América Latina. Más del 95% de sus bosques tropicales de hojas caducas han sido destruidos y más del 70% de la tierra sufre una severa erosión. Según la FAO el país se encuentra en un franco proceso de desertificación. Como consecuencia de ello, casi todas las especies de animales salvajes se han extinguido o están al borde de la extinción, sin que hasta ahora haya indicios de revertir tal proceso. Por otra parte, en el AMSS el 13% de la población habita sobre terrenos en riesgo por derrumbes o demasiado próximos a fuentes de contaminación (Mansilla, 2009). Por su ubicación geográfica, dinámica natural y territorial, El Salvador ha estado sometido históricamente a diferentes amenazas de origen natural, como terremotos, tormentas tropicales, sequías, actividad volcánica, inundaciones y deslizamientos, los que, sumados a los procesos sociales de transformación (la deforestación, los cambios de uso del suelo y la modificación de los cauces naturales), propician condiciones de riesgo y plantean altas posibilidades de que ocurran desastres. Es evidente que la suma del deterioro económico, social y ambiental, combinado con la multiplicidad de amenazas a las que puede verse sometido el territorio, hacen al país sumamente vulnerable a la ocurrencia de desastres de distintas magnitudes e impactos. En la historia reciente de El Salvador se han producido numerosos eventos de gran magnitud, tales como los terremotos de enero y febrero de 2001. El 13 de enero de 2001 El Salvador sufrió un terremoto de magnitud Mw 7.7 relacionado con la zona de subducción de la placa del Coco bajo la placa Caribe, dejando alrededor de 900 muertos y numerosos daños materiales. A este terremoto le siguió un mes después, el 13 de febrero de 2001, otro de magnitud Mw 6.6 de origen continental que sumó más de 300 víctimas mortales y terminó de derribar gran cantidad de casas ya dañadas por el terremoto anterior. Ambos eventos dispararon enormes deslizamientos de tierra, que fueron los responsables de la mayoría de las muertes. Como se observó durante el terremoto de 2001, este tipo de sismicidad implica un alto riesgo para la sociedad salvadoreña debido a la gran concentración de población en zonas con fuertes pendientes y muy deforestadas susceptibles de sufrir deslizamientos, y debido también a la escasez de planes urbanísticos. La complicada evolución sociopolítica del país durante los últimos 50 años, con una larga guerra civil, ha influido que hayan sido escasas las investigaciones científicas relacionadas con la sismotectónica y el riesgo sísmico asociada a la geología local. La ocurrencia de los terremotos citados disparó un interés a nivel internacional en la adquisición e interpretación de nuevos datos de tectónica activa que con los años han dado lugar a diferentes trabajos. Fue precisamente a partir del interés en estos eventos del 2001 cuando comenzó la colaboración de la Dra. Benito y el Dr. Martínez‐Díaz (directores de esta tesis) en El Salvador (Benito et al. 2004), lo que dio lugar a distintos proyectos de cooperación e investigación que han tenido lugar hasta la actualidad, y que se han centrado en el desarrollo de estudios geológicos, sismológicos para mejorar el cálculo de la amenaza sísmica en El Salvador. Según Martínez‐Díaz et al. (2004) la responsable del terremoto de febrero de 2001 fue la que se denomina como Zona de Falla de El Salvador (ZFES), una zona de falla que atraviesa el país de este a oeste que no había sido descrita con anterioridad. Con el fin de estudiar y caracterizar el comportamiento de este sistema de fallas para su introducción en la evaluación de la amenaza sísmica de la zona se plantean diferentes estudios sismotectónicos y paleosísmicos, y, entre ellos, esta tesis que surge de la necesidad de estudiar el comportamiento cinemático actual de la ZFES, mediante la aplicación de técnicas geodésicas (GNSS) y su integración con datos geológicos y sismológicos. Con el objetivo de reconocer la ZFES y estudiar la viabilidad de la aplicación de estas técnicas en la zona de estudio, realicé mi primer viaje a El Salvador en septiembre de 2006. A raíz de este viaje, en 2007, comienza el proyecto ZFESNet (Staller et al., 2008) estableciendo las primeras estaciones y realizando la primera campaña de observación en la ZFES. Han sido 6 años de mediciones e intenso trabajo de lo que hoy se obtienen los primeros resultados. El interés que despiertan los terremotos y sus efectos, así como la vulnerabilidad que tiene El Salvador a estos eventos, ha sido para la autora un aliciente añadido a su trabajo, animándola a perseverar en el desarrollo de su tesis, a pesar de la multitud de imprevistos y problemas que han surgido durante su transcurso. La aportación de esta tesis al conocimiento actual de la ZFES se espera que sea un germen para futuras investigaciones y en particular para mejorar la evaluación de la amenaza sísmica de la zona. No obstante, se hace hincapié en que tan importante como el conocimiento de las fuentes sísmicas es su uso en la planificación urbanística del terreno y en la elaboración de normas sismoresistentes y su aplicación por parte de los responsables, lo cual ayudaría a paliar los efectos de fenómenos naturales como el terremoto, el cual no podemos evitar. El proyecto ZFESNet ha sido financiado fundamentalmente por tres proyectos de las convocatorias anuales de Ayudas para la realización de actividades con Latinoamérica de la UPM, de los que la autora de esta tesis ha sido la responsable, estos son: “Establecimiento de una Red de Control GPS en la Zona de Falla de El Salvador”, “Determinación de deformaciones y desplazamientos en la Zona de Falla de El Salvador” y “Determinación de deformaciones y desplazamientos en la Zona de Falla de El Salvador II”, y parcialmente por el proyecto de la Agencia Española de Cooperación y Desarrollo (AECID); “Desarrollo de estudios geológicos y sismológicos en El Salvador dirigidos a la mitigación del riesgo sísmico”, y el Proyecto Nacional I+D+i SISMOCAES: “Estudios geológicos y sísmicos en Centroamérica y lecciones hacia la evaluación del riesgo sísmico en el sur de España”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La trascendencia de la educación sobre la construcción del capital humano y social, ha sido vastamente discutido, considerando entre otros elementos, la correlación entre las inversiones en educación, las políticas educativas, los actores involucrados, y los efectos que tienen sobre la calidad de la educación. Esto se refleja en los esfuerzos, de los diferentes estamentos, por mejorar los resultados del proceso educativo, intentando construir una sociedad más equitativa en la cual todo individuo pueda tener acceso a una educación de calidad, que permita tener las mismas oportunidades para el desarrollo personal, profesional y social. La educación entonces, pasa a ser un pilar fundamental en los modelos de desarrollo - y un tema de debate constante- en especial en aspectos tales como: resultados de aprendizaje, gestión y efectividad escolar, como ejes para mejorar la construcción del capital humano en la sociedad. En Chile, a partir de un proceso de descentralización de la educación iniciado en los 80, el modelo de planificación y gestión de la educación pública fue transformado, pasando de un modelo centralizado a un enfoque en el cual el establecimiento educacional – el proyecto educativo – adquiere autonomía de gestión que se vuelve determinante en la calidad de la educación. Es al interior de los establecimientos escolares donde los diferentes agentes educativos llevan a cabo los procesos pedagógicos y administrativos, y se generan las condiciones para poder desarrollar una educación de calidad. Durante los últimos 30 años, los esfuerzos se han centrado en las capacidades docentes y en alcanzar la cobertura universal. Sin embargo, en los últimos 10 años la investigación aplicada ha evidenciado que los directores y equipos directivos tienen efectos directos e indirectos sobre la gestión escolar, pedagógica y de convivencia dentro de la escuela a través de su desempeño y liderazgo escolar. Es en este contexto, que se propone esta investigación con el fin de contribuir en el fortalecimiento de las capacidades de estos actores y promover un desempeño que impacte positivamente en la calidad de los aprendizajes en las escuelas Esta tesis se estructura en cinco capítulos. En el primer capítulo, se define y analiza el marco conceptual de la investigación centrado en los dos ejes de este trabajo: por un lado, conceptos de competencia, competencias profesionales; y por otro lado, liderazgo y dirección escolar, definiendo el concepto de competencias profesionales para la dirección escolar. A continuación, en el segundo capítulo, se presenta un análisis del contexto enfocado en el proceso de descentralización de la educación pública en Chile y sus efectos sobre el rol de los directivos escolares en Chile, el cual a través de su proceso de evolución ha transformado las responsabilidades de este estamento, en cuanto la gestión y la administración de los proyectos educativos definiendo un perfil del directivo escolar. Complementariamente, y en función de la gestión directiva, se realiza una conceptualización de buenas prácticas directivas como los instrumentos a través de las cuales se movilizan los elementos de competencia. En el tercer capítulo, se presenta la propuesta de modelo de competencias profesionales para la dirección escolar, como la principal aportación de esta investigación, que se sustenta sobre cuatro componentes como base científica: el enfoque holístico de competencia, el enfoque de dirección de proyectos de la International Project Management Association (IPMA), el paradigma de gestión escolar y el modelo Working with People (WWP). La propuesta considera una metodología de implementación para el desarrollo de procesos de intervención para la mejora de la gestión escolar, articulando las competencias profesionales directivas y las prácticas de gestión, como los principales componentes del modelo. En el cuarto capítulo se presenta la aplicación del modelo propuesto en un estudio de caso desarrollado en el Colegio público Kings´ School de San Bernardo (Chile), un establecimiento particular subvencionado, del área urbana de Santiago con condiciones socioeconómicas media, con un alto porcentaje de vulnerabilidad y cuyos resultados en las pruebas de evaluación nacionales evidencian una caída. La aplicación del modelo se realiza a lo largo del curso 2012-13, trabajando de forma directa con el equipo de dirección, a través de un proyecto de innovación educativa, diseñando e implementando una propuesta de intervención de la cual se sistematizan los resultados y los aprendizajes obtenidos. A partir de la investigación y los resultados obtenidos permiten concluir que el modelo propuesto puede ser considerada una herramienta estratégica de planificación e intervención para la gestión de proyectos educativos, promoviendo que a los equipos directivos contrastar su realidad con los estándares propuestos, y de esta forma poder articular las capacidades – en términos de competencias - de los recursos humanos con las prácticas directivas que buscan lograr los objetivos y resultados esperados, incidiendo positivamente en los resultados de aprendizaje y la calidad educativa. ABSTRACT The importance of education on the construction of human and social capital, has been vastly discussed, considering among other things, the correlation between investments in education, educational policies, stakeholders, and the effects they have on education quality. This is reflected on the efforts of different stakeholders, to improve educational outcomes, trying to build a more equitable society in which every individual can have access to quality education, allowing the same opportunities for personal, professional and social development. Education then becomes a cornerstone at development models - and a topic of constant discussion, especially in areas such as learning outcomes, management and school effectiveness, as core concepts to improve the construction of human capital in the society. In Chile, after a process of decentralization of education that started in the 80s, planning and management model of public education was transformed from a centralized approach to a decentralized perspective in which schools - the educational project - acquires management autonomy and becomes determinant in the quality of education outcomes. It is within the school context where teachers, principals and administrative assistants held teaching and administrative processes, and generates the conditions to develop quality education. During the past 30 years, efforts have been focused on teaching skills and achieve universal coverage. However, in the last 10 years applied research has shown that the principals and management teams have direct and indirect effects on school management, teaching and school environment through their performance and school leadership. This research is proposed within this context in order to contribute to strengthen the capacities of these actors, and promote a professional performance that will positively impact schools´ quality of learning. This thesis is divided into five chapters. The first chapter defines and analyzes the conceptual framework focused on the two main ideas of this work: first, concepts of competence, professional competence; and secondly, leadership and school management, defining the concept of professional competences for school leadership. Then, in the second chapter is developed a context analysis focused on the process of decentralization of public education in Chile, and its effects on the role of school leaders which through this process has been transformed the responsibilities on management and administration of educational projects, allowing to define a school leader’s profile. In addition, and related to principals´ management, it is proposed a conceptualization of school leadership best practices, as the instruments through which competence elements are mobilized and placed in action. Within chapter three, is presented the proposed model of professional competences for school principals, as the main contribution of this research which is based on four components as scientific basis: holistic competence approach, project management approach from the International Project management Association (IPMA), effective school management paradigm; and Working with People model (WWP). The proposal considers an implementation methodology for the development of intervention processes to improve school management, articulating professional competences and school leadership practices, as main elements of the model. Chapter four presents the implementation of the proposed model, using a case study at the Kings´ School of San Bernardo (Chile), subsidized school located at the urban area of Santiago with average socioeconomic conditions, with a high percentage of vulnerability and whose national educational assessment results show a fall. Model implementation was developed through 2012- 2013, working directly with the management team, through an innovative educational management project, designing and implementing an intervention which processes, results and lessons learned are systematized. Research and obtained results through its implementation indicates that the proposed model can be considered a strategic tool for planning and operational management for educational projects, encouraging the principals to compare their reality with the proposed standards, and thus articulate capacity - in terms of competences – in human resources with principals´ practices to achieve the objectives and expected results, impacting positively on learning outcomes and educational quality.