801 resultados para Arquitectura -- Resturación y conservación
Resumo:
Las sociedades en su afán de aprovechar los recursos naturales que la tierra le provee, han ido transformando permanentemente el medio que habitamos, generando una crisis ambiental que es tema de preocupación y permanente discusión en organismos, foros y conferencias relacionados con el cuidado y protección del medio ambiente. En las regiones áridas y semiáridas uno de los problemas ambientales más comunes es la degradación de tierras por efecto del sobrepastoreo. La tercera parte de la superficie terrestre del planeta es árida y semiárida y en ella los procesos de desertización se han intensificado en los últimos decenios. Según la Convención de las Naciones Unidas de lucha contra la Desertificación (CNULD), este problema amenaza al 40 por ciento aproximadamente, de la masa terrestre de nuestro planeta. Más de 1000 millones de personas en alrededor de 100 países están afectadas directamente por la desertificación o corren peligro de estarlo (CNULD, 2003), estimándose que "la pérdida de ingresos en las áreas afectadas alcanza a unos 42.000 millones de dólares". Argentina en general y la Patagonia en particular, no son ajenas a esta situación. La Secretaría de Recursos Naturales y Medio Ambiente Humano (1996), calcula que aproximadamente el 75 por ciento de nuestro territorio nacional se encuentra afectado por crecientes condiciones de aridez y en la Patagonia, el 90 por ciento de la superficie (unos 780.000 km2) presenta signos de degradación. De esta superficie, un 30 por ciento, está bajo procesos erosivos eólicos e hídricos severos o graves con tendencia a agravarse. Teniendo en cuenta esta situación, esta tesis tiene como propósito aplicar las concepciones metodológicas de la geoecología de los paisajes en el Departamento Minas (Provincia de Neuquén), con vistas a estudiar la estructura y funcionamiento de los paisajes, herramienta fundamental para comprender el fenómeno de la degradación de la tierra. El objetivo central de este trabajo consiste en estudiar la degradación de los paisajes de este lugar a partir de los preceptos de la geoecología, con apoyo de los Sistemas de Información Geográfica y la teledetección, estableciendo índices diagnósticos que reflejen la interacción e interdependencia entre los componentes naturales y sociales del paisaje. El estudio de los paisajes brinda la posibilidad de integrar transdisciplinariamente los conocimientos y percepciones de la diversidad geoecológica y socioeconómica desde una perspectiva dinámica. Mediante este análisis se puede arribar al conocimiento de las formas de ocupación y conservación de los recursos naturales procurando la protección de la oferta ecológica a largo plazo. El paisaje geográfico o geosistema se concibe como "un sistema espacio-temporal, complejo y abierto, que se origina y evoluciona justamente en la interfase naturaleza-sociedad, en un constante estado de intercambio de energía, materia e información, donde su estructura, funcionamiento, dinámica y evolución reflejan la interacción entre los componentes naturales (abióticos y bióticos), técnico-económicos y socio-culturales (Mateo, J. 1991; Salinas. E. 1991y 1997). Se trata de una formación socio-natural que constituye una categoría científica y como tal, será adoptada en este trabajo.
Resumo:
Como cualquier encinar que eligiésemos a fin de concretar en él nuestro estudio, quedaría enclavado dentro de la masa general de encina que puebla el término de Villanueva de Córdoba, sometida toda ella al mismo tratamiento y sobre la que gravitan los mismos problemas, creemos conveniente dividir nuestro trabajo en dos partes, comprendiendo la primera esas cuestiones de índole general, no sólo dentro del término de Villanueva, sino comunes a todo el valle de los Pedroches, haciendo resaltar los problemas que en la actualidad se presentan y sus soluciones adecuadas: tratando en la segunda de las características, tratamiento y distintos aprovechamientos que posee, de que es objeto y rinde una finca concreta que posea las condiciones que se nos señala de “tener una producción frutal no inferior de la necesaria para el cebo o engorde de una piara de trescientos cerdos”. Siguiendo esta directriz, tratamos en la primera parte de la evolución histórico-jurídica, primero, y selvícola, después, de la masa encinar del término; pasamos a ocuparnos después de los tratamientos de que son objeto, del suelo y vuelo; estudiamos detenidamente la cuestión de plagas con los remedios que se han puesto y cabe poner en práctica, y, por último, tratamos de los distintos aprovechamientos de que son objeto estos encinares. En la segunda parte concretamos nuestro estudio sobre el monte “Las Navas” de propiedad particular en cuanto a sus estados legal, natural y forestal, y determinamos su capacidad en ganado deducida de su posibilidad en fruto y el rendimiento en los distintos aprovechamientos de que es objeto la finca. Resaltamos de antemano los tres problemas pendientes de solución, de gran trascendencia en cuanto al estado actual y futuro y de los encinares y su economía general: la extinción de plagas, la regeneración artificial del arbolado y el aprovechamiento del fruto mediante su conservación o transformación. El primer problema, siempre de actualidad, y de posible realización, que por su persistencia ha adquirido caracteres de catástrofe, es de lamentar que quede sin resolver después de los importantes trabajos realizados por el antiguo Servicio de Estudio y Extinción de Plagas Forestales, adscrito al Cuerpo de Montes. El segundo problema, el de la regeneración de los encinares, lo encontramos de necesaria solución, a pesar de la imposibilidad de los particulares que creen en la indefinida longevidad de la encina; pues es ya grande la extensión de la zona desarbolada o casi desarbolada, sin que su suelo produzca apenas utilidad alguna después de la desaparición del arbolado; y cierto el estado decadente del vuelo de algunas fincas. Y, por último, la cuestión de la conservación del fruto en grandes cantidades, o, mejor aún, su transformación en harina y conservación de la misma, es de gran transcendencia económica y su solución resolvería el problema del total y apropiado aprovechamiento de la bellota. Ilustran nuestro trabajo una pequeña colección de fotografías relacionadas con los distintos asuntos tratados, un pequeño muestrario de lo distintos tipos de fruto de la localidad y de diversas variedades de encina, y varias modalidades de las puestas de L. dispar y M. neustria, sin que hayamos podido recoger ninguna de T. viridana como era nuestro propósito. …
Resumo:
Actualmente se está empezando a consolidar una nueva forma de gestionar la conservación y mantenimiento de la red viaria de las Administraciones Públicas, basándose en contratos de colaboración público-privadas (PPP). Las motivaciones que están provocando este movimiento son de diversa índole. Por un lado, en el seno de la Unión Europea, existen serias restricciones presupuestarias debido al alto endeudamiento del sector público, lo que está llevando a buscar la forma óptima de disminuir el endeudamiento público, sin dejar de prestar servicios a la sociedad como la conservación y mantenimiento de las redes viarias. Por esta vertiente, se trata de convertir contratos convencionales de conservación viaria a esquemas de colaboración público-privada, donde se transferiría al sector privado el riesgo de disponibilidad de la vía mediante el uso de indicadores de calidad y servicio. Con esta transferencia de riesgo, junto con la transferencia del riesgo de demanda/construcción, no consolidaría la deuda de la sociedad de propósito específico constituida para la gestión del contrato de colaboración público-privada dentro de las cuentas públicas, con lo que se conseguiría no aumentar el déficit público, permitiendo continuar ofreciendo el servicio demandado por la sociedad. Por otro lado, la segunda motivación del desarrollo de este tipo de contratos, no tan economicista como la anterior y más enfocada a la gestión, se trata de utilizar los contratos de gestión basados en el uso de indicadores de calidad de servicio para mejorar las prestaciones de la red viaria competencia de una Administración. Con el uso de estos indicadores, el gestor tiene una herramienta muy útil para controlar la actividad del sector privado y asegurar que se ofrece un buen servicio. En la presente tesis, la investigación se ha centrado más en la vertiente de los indicadores de calidad relacionados con la gestión eficiente de las vías objeto de conservación y mantenimiento mediante el empleo de contratos de gestión privada que utilicen este tipo de herramientas de control, monitorización y gestión. En una primera parte, la presente tesis estudia el estado de la red de carreteras, referido principalmente a España, comparando su estado con el resto de redes de carreteras de Europa, detectando las principales carencias de la misma, sobre todo en cuanto a la gestión y conservación de firmes. En un segundo bloque, la tesis analiza el estado del arte de los nuevos procedimientos de gestión de la conservación y mantenimiento basados en indicadores de calidad del servicio en el mundo, destacándose que se trata de un tema relativamente reciente, con gran interés para el sector de la gestión y financiación de infraestructuras viarias. Al ser tan novedoso, por la falta de experiencias previas, las distintas Administración, tanto propias como foráneas, han pecado de un exceso de celo a la hora de establecer los umbrales sobre los que giran los distintos indicadores de calidad de servicio que permiten controlar la gestión de la conservación y mantenimiento de la vía. Partiendo de la labor de análisis descrita, la tesis realiza una investigación más detallada de los indicadores de calidad de servicio correspondientes a firmes bituminosos, debido a que estos indicadores son los más delicados y decisivos a la hora de realizar una correcta gestión de la vía a largo plazo. Dentro de los indicadores de firmes bituminosos, se ha realizado un modelo específico de evolución de comportamiento a lo largo del tiempo de la regularidad superficial, parámetro básico para numerosas Administraciones y organismos investigadores para poder conocer la evolución de un firme a lo largo del tiempo. A esta metodología se le ha dado el nombre de Modelo JRB para evaluar la racionalidad económica de indicadores de calidad asociados a parámetros de firmes. El modelo propuesto básicamente evalúa el valor óptimo desde la perspectiva económica que ha de tener el parámetro técnico que defina alguna propiedad del firme, aplicado a la definición de los indicadores de calidad de servicio. Esta visión del valor umbral del indicador deja a un lado consideraciones de equidad o de cualquier otra índole, basándose más en una visión económica. La metodología del Modelo JRB se puede aplicar a cualquier indicador de calidad relacionado con firmes, ya que lo que se obtiene es el valor óptimo económico que debería tener el umbral del indicador de calidad. El Modelo JRB consta de varias fases. En las primeras etapas el Modelo realiza el cálculo de los costes totales de transporte utilizando como herramienta el software HDM-IV desarrollado por el Banco Mundial. En etapas posteriores, el Modelo realiza análisis de sensibilidad para distintas propuestas de sección de firme, intensidades de tráfico y restricciones al parámetro técnico que define el indicador de calidad de servicio. Como ejercicio práctico de cara a contrastar la metodología del Modelo JRB se ha realizado un Caso de Estudio. Se ha tomado un tramo teórico, con características similares a la red de carreteras española, y con una flota vehicular similar a la española, donde se ha elegido como indicador de calidad la regularidad superficial (IRI). Con las sensibilidades realizadas con el Modelo JRB, se ha determinado el rango de valores que debería tener un indicador de calidad basado en el IRI para que dichos valores fueran óptimos desde la perspectiva económica Nowadays is becoming a new way to manage O&M (operation and maintenance) in public road networks, based on PPP contracts (public-private partnership). There are several issues which are driving this trend. On the one hand, EU (European Union) has serious budgetary constraints due to the high public sector borrowing. EU politicians are looking for the best way to reduce public debt, keeping services to society such as O&M of road networks. For this aspect, conventional O&M contracts are switching to PPP scenarios, where availability risk would be transfer to private sector using PI (performance indicators), along with demand risk transfer With this risk transference, along with the transfer of demand/construction risk, SPV (specific purpose vehicle) debt doesn’t consolidate in public accounts, so deficit wouldn’t increase, allowing the continuation of services demanded by society. On the other hand, the second motivation for developing this kind of contracts, not so economist as above and more focused to management, it is about using O&M contracts based on the use of PI to improve road network maintenance. Using these indicators, manager has a very useful tool to monitor private sector activity and ensure that it is provided a good service. In this thesis, the research has been focused on PI quality aspect, related with efficient management of PPP contracts for roads, which use these tools for control, monitoring and management. In the first part, this thesis examines the state of road network, based mainly in Spain, comparing with other road networks in Europe, identifying the main gaps in it, especially with regard to the management and maintenance of pavements. In a second block, the thesis analyzes the state of art of new O&M contracts based on PI in the world, emphasizing that they are relatively recent. These kinds of contracts have a great interest in road management and financing sector. Administrations all around the world have launch tenders with very exigent PI thresholds due to several factors: this knowledge is a new area, the lack of previous experiences and the variety of Administrations which have bid these contracts. Building on the described analysis, thesis develops a more detailed research about PI for bituminous pavements, because these PI are the most delicate and decisive in making a proper long term road management. Among bituminous pavements PI, IRI (International Roughness Index) has been analyzed with more detail and has been developed a specific model of behaviour evolution over time for evenness (IRI), basic parameter for many administrations and research departments in order to know the evolution of a pavement over time. This methodology has been given the name of JRB Model to evaluate the economic rationality of performance indicators associated with pavements parameters. The proposed model basically evaluates the optimal value from an economic perspective it must have the technical parameter which defines some pavement characteristic applied to the definition of performance indicators. This point of view of indicator value threshold sets aside justice considerations or otherwise, based more on an economic perspective. JRB Model methodology can be applied to any performance indicator associated to pavements, because what you get is the economic optimum threshold should have the performance indicator. JRB Model consists of several phases. In the early stages, the Model calculates transport total cost using HDM-IV software, developed by the World Bank, as a tool. In later stages, the Model performs sensitivity analyzes for different pavement section, AADT and restrictions to the technical parameter which defines the performance indicator. As a practical exercise to test JRB Model methodology, it has done a Case Study. It has taken a theoretical section, with similar characteristics to Spanish road network, and a vehicles fleet similar to Spanish. Evenness (IRI) was chosen as a performance indicator. JRB Model calculated some sensitivities, which were useful to determined thresholds range for pavement performance indicators based on IRI to be optimal from an economic perspective.
Resumo:
La cuenca del Arroyo de la Vega presenta una serie de particularidades que se han de considerar para llevar a cabo el cumplimiento de los objetivos de los Proyectos de Restauración Hidrológico Forestal. Por un lado, el intenso aprovechamiento agrícola que históricamente se ha hecho de los terrenos de la vega ha generado la desaparición de la vegetación riparia en zonas próximas a su desembocadura en el Tajuña. Otro problema a considerar es que en esta zona existen vertidos puntuales y basura dispersa que produce alteraciones en el medio. Los objetivos en esta zona son los propios de una restauración de un río y su ribera, y son: - Recuperación y estabilización de la morfología del cauce. - Recuperación de la conexión longitudinal de la vegetación riparia en aquellos tramos en los que las diferentes comunidades vegetales no sean capaces de recuperarse por sí solas. - Mantenimiento y conservación de los sotos riparios de los tramos bien conservados a la vez que aquellos cuya restauración natural sea posible. - Recuperación del paisaje ribereño.
Resumo:
Se presenta una formulación matemática para los fenómenos acoplados de deformación del suelo y difusión, la llamada consolidación, que incluye los efectos de respuesta elastoplástica del suelo y deformaciones finitas. Se obtienen las ecuaciones variacionales del problema de contorno tanto en sus casos no lineal como linealizado de forma que puedan incorporarse directamente a programas de elementos finitos. El tratamiento algorítmico de la elastoplasticidad con deformaciones finitas para la fase sólida está basado en una descomposición multiplicativa y se acopla con el algoritmo de flujo del fluido a través de la presión neutra de Kirchhoff. Las ecuaciones de la cantidad de movimiento y conservación de la masa se escriben tanto para la fase sólida como para la fluida siguiendo el movimiento de la matriz sólida, combinándolas a continuación mediante la teoría general de mezclas. Puesto que la masa del fluido no tiene que conservarse en la región definida por la matriz sólida, se permite también que la densidad saturada de la mezcla suelo-agua varíe con la deformación del suelo a través del Jacobiano.
Resumo:
La mejora y conservación de recursos genéticos en especies forestales lleva siglos de retraso con respecto a las especies agrícolas. Los recursos forestales se han considerado tradicionalmente como recursos �mineros�, en los que primaba la mera extracción dejando exclusivamente a la regeneración natural la labor de sostenibilidad en los montes y dehesas o montados. Hoy en día, el necesario desarrollo del medio rural obliga a la explotación racional de los recursos como medio de garantizar su sostenibilidad. Por ello se está empezando a extender el criterio de que las especies forestales se pueden y deben �cultivar� en determinados espacios. Las características biológicas de las especies forestales las hacen, a menudo, recalcitrantes a las técnicas de mejora y conservación de recursos genéticos tradicionalmente aplicadas a especies agrícolas. En particular, la propagación vegetativa se ha utilizado ampliamente en muchos cultivos leñosos como una herramienta muy poderosa para capturar todo el potencial genético de combinaciones genéticas valiosas. En especies forestales, en particular en las mediterráneas, esta posibilidad raramente se ha podido aplicar debido a la baja capacidad morfogénica de estas especies y la fuerte influencia de la maduración o cambio de fase. En los últimos años la biotecnología forestal ha tenido un desarrollo espectacular. En particular las técnicas de regeneración clonal de plantas basadas en técnicas de cultivo in vitro, fundamentalmente vía embriogénesis somática, se están ya aplicando por muchas empresas privadas e instituciones públicas a nivel semi-operativo con diversas especies, para la conservación de material selecto y el establecimiento de ensayos clonales. Nuestros grupos de trabajo están desarrollando protocolos de regeneración por embriogénesis somática en distintas especies forestales. En esta comunicación se presenta el estado actual de los conocimientos en dos especies típicamente mediterráneas, el alcornoque (Quercus suber L.) y el pino piñonero (Pinus pinea L.), destacando los principales cuellos de botella para su aplicación a gran escala.
Resumo:
Esta tesis empieza donde acaba otro libro. O dicho de otro modo, esta investigación continúa las líneas de fuga surgidas al final de otro libro. Sigfried Giedion publicó en 1941 “Espacio, tiempo y arquitectura. Origen y desarrollo de una nueva tradición.”2 Una construcción historiográfica del Movimiento Moderno que, desde una concepción determinista, describe el presente como consecuencia de un pasado de profundas raíces que se extienden a lo largo de la historia de la arquitectura. Así, en el propio subtítulo de la obra, Giedion recoge su obsesión por el pasado con la aparente paradoja de la “nueva tradición”,3 con el objetivo de hacer emerger el vínculo latente entre la historia y el Movimiento Moderno.
Resumo:
Las bóvedas tabicadas experimentan una importante evolución, casi una transformación, en España a lo largo del s. XIX. Al inicio, son un sistema constructivo tradicional y codificado durante al menos 3 siglos, con usos, formas y tamaños limitados. 100 años después se emplean de manera generalizada en nuevos tipos edificatorios, con soluciones constructivas novedosas, tamaños mucho mayores y una gran libertad formal. Esta tesis doctoral indaga en el porqué de esta transformación, desde el punto de vista de la técnica, así como en sus consecuencias, que llegan hasta la actualidad. El texto agrupa en tres partes: La primera, a la que he llamado «La construcción tabicada tradicional» sirve de punto de partida. En ella se ponen en contexto las bóvedas tabicadas antes del s. XIX, como aparecen en España y cual es su desarrollo y distribución territorial hasta finalizar el s. XVIII. En esta parte se ha estudiado: -la aparición de las bóvedas tabicadas en España, en los últimos años del s. XIV, y como se convierten en un sistema constructivo cada vez más frecuente y consolidado, empezando por el territorio de la Corona de Aragón (actuales Valencia, Cataluña y Aragón) y extendiéndose desde ahí a Castilla y Andalucía. -la difusión del sistema tabicado en los tratados de arquitectura españoles de los siglos XVII y XVIII: Fray Lorenzo de San Nicolás, Tosca, Briguz y Brú, García Berruguilla, Plo y Camín; también a través de documentos más prácticos: contratos de obra y pleitos. -la expansión de la construcción tabicada por Francia desde España. Como allí es aceptada por académicos y tratadistas; como vuelve a España influenciada por esos tratadistas, los más importantes de la época. Y como los tratadistas españoles reproducen las ideas francesas sobre la construcción tabicada en sus escritos. Este aspecto es importante ya que, a pesar de que la construcción tabicada tenía una tradición mucho mayor aquí, las ideas francesas sobre su comportamiento se imponen a las españolas incluso en España y esto influye en su desarrollo posterior. La segunda parte indaga en los aspectos constructivos del desarrollo de las bóvedas tabicadas a lo largo del siglo XIX. Dentro de ella se describe: -como se mantiene la construcción tabicada tradicional a lo largo del siglo XIX, conviviendo con una línea que avanza en la búsqueda de una nueva forma de construir, separándose cada vez más de la inicial. Para mostrar esta pervivencia, se estudian en esta parte tres documentos que se mueven en la línea tradicional, uno de principio de siglo, otro de los años centrales y otro de final del XIX. -la aparición de dos nuevos materiales: el cemento y el hierro, que en pocos años pasan de tener un uso accesorio en la construcción a fabricarse y utilizarse masivamente. La unión de estos dos materiales con los tradicionales en la construcción de bóvedas tabicadas, yeso y ladrillo, será decisiva en su evolución. -la creación de dos tipos arquitectónicos nuevos: los edificios industriales y la vivienda masiva. En ambos tipos tiene aplicación la construcción tabicada. Además, estos nuevos tipos son muy importantes en su evolución, ya que sus condicionantes específicos: rapidez de ejecución en ambos casos y búsqueda de luces cada vez mayores y de estructuras incombustibles en el segundo fuerzan al uso de los nuevos materiales disponibles (cemento, hierro) y al proyecto de nuevas formas y soluciones. En este aspecto me he centrado en Cataluña, la primera región industrializada de España y en la que se aplica la bóveda tabicada a los nuevos tipos, especialmente a la arquitectura industrial. Y la tercera parte estudia los aspectos estructurales del desarrollo de las bóvedas tabicadas a lo largo del siglo XIX. Se estudia aquí: -la aplicación a las estructuras tabicadas de las teorías de arcos y bóvedas que se desarrollan desde el siglo XVIII. Las bóvedas tabicadas, cuyas dimensiones se obtenian mediante reglas de proporción, se calculan sucesivamente mediante lineas de empuje, análisis de membrana y también se les intenta aplicar la teoría elástica, sin llegar a conseguir resultados válidos. Siguiendo el marco teórico del moderno análisis límite de fábrica, se concluye que es el más adecuado para estudiar estas bóvedas, como cualquier otras construidas con fábrica. -un estudio exhaustivo de los ensayos de resistencia que se realizan sobre estructuras tabicadas a lo largo de los siglos XIX y la primera mitad del XX. La razón de estos ensayos es la nueva necesidad, aparecida con la mentalidad científica, de ofrecer garantías técnicas y numéricas sobre los sistemas constructivos y estructurales. La tesis concluye que las bóvedas tabicadas aparecen en España en el siglo XIV en la zona de Levante; que se extienden por casi todo el territorio siendo un sistema codificado en los últimos años del siglo XVI y que empiezan a ser recogidas en los tratados ya en el siglo XVII; hasta la mitad del siglo XIX la forma en que se construyen y los edificios para los que se utiliza permanecen invariables, sin más novedad que la exportación del sistema constructivo a Francia y la reintroducción en España a través de los influyentes tratados franceses. En el siglo XIX confluyen varios motivos por los que las bóvedas tabicadas se transforman: la generalización del uso del hierro y el cemento; la construcción de grandes edificios industriales y la aparición de la mentalidad científica, con el desarrollo de la teoría de estructuras. Los nuevos edificios industriales requieren grandes luces y nuevas formas; los nuevos materiales (especialmente el hierro) permiten estos avances. La teoría de estructuras se aplicará a estas nuevas bóvedas; en conjunto con los datos recogidos en los ensayos realizados dará seguridad a arquitectos y constructores para construir mayores tamaños y formas novedosas. A pesar de esta transformación, la mejor manera de enfrentarse al cálculo de una bóveda tabicada, bien sea para diseñarla en un edificio nuevo como para comprobar su validez en uno ya construido, es englobarla, como cualquier otra fábrica, dentro del análisis límite. Es el método más seguro y a la vez, el más sencillo de todos los disponibles actualmente.
Resumo:
El aumento de las capacidades de interconexión de dispositivos de todo tipo está suponiendo una revolución en el campo de la prestación de servicios, tanto en la cantidad como en la variedad. Esta evolución ha puesto de manifiesto la necesidad de abordar un desarrollo tecnológico sin precedentes, donde la previsión de dispositivos interconectados e interoperando entre sí y con las personas alcanza cifras del orden de los millardos. Esta idea de un mundo de cosas interconectadas ha dado lugar a una visión que se ha dado en llamar Internet de las Cosas. Un mundo donde las cosas de cualquier tipo pueden interactuar con otras cosas, incluyendo las que forman parte de redes con recurso limitados. Y esto además conduce a la creación de servicios compuestos que superan a la suma de las partes. Además de la relevancia tecnológica, esta nueva visión enlaza con la de la Ciudad del Futuro. Un concepto que recurre a la convergencia de la energía, el transporte y las tecnologías de la información y las comunicaciones para definir una forma mediante la que lograr el crecimiento sostenible y competitivo, mejorando así la calidad de vida y abriendo el gobierno de las ciudades a la participación ciudadana. En la línea de desarrollo que permite avanzar hacia la consecución de tales objetivos, este Proyecto Fin de Carrera propone una forma de virtualizar los servicios ofrecidos por la diversidad de dispositivos que van adquiriendo la capacidad de interoperar en una red. Para ello se apoya en el uso de una capa de intermediación orientada a servicios, nSOM, desarrollada en la EUITT. Sobre esta arquitectura se proponen como objetivos el diseño y desarrollo de una pasarela de servicios que haga accesibles desde la web los recursos ofrecidos en una red de sensores; el diseño y desarrollo de un registro de dispositivos y servicios en concordancia a la propuesta de arquitectura de referencia para Internet de las Cosas; y el estudio y diseño de un marco para la composición de servicios orquestados en redes de recursos limitados. Para alcanzar estos objetivos primero se abordará un estudio del estado del arte donde se profundizará en el conocimiento de la las tecnologías para la interoperatividad entre cosas, abordando los principios de las redes inalámbricas de sensores y actuadores, las arquitecturas para las comunicaciones Máquina a Máquina e Internet de las Cosas, y la visión de la Web de las Cosas. Seguidamente se tratarán las tecnologías de red y de servicios de interés, para finalizar con un breve repaso a las tecnologías para la composición de servicios. Le seguirá una descripción detallada de la arquitectura nSOM y del diseño propuesto para este proyecto. Finalmente se propondrá un escenario sobre el que se llevarán a cabo diferentes pruebas de validación. ABSTRACT. The increasing of the capabilities of all kind of devices is causing a revolution in the field of the provision of services, both in quantity and in diversity. This situation has highlighted the need to address unprecedented technological development, where the forecast of interconnected and interoperable devices between them and human beings reaches the order of billions. And these numbers go further when the connectivity of constrained networks is taken into account. This idea of an interconnected world of things has led to a vision that has been called "The Internet of Things". It’s a vision of a world where things of any kind can interact with other things, even those in the domain of a constrained network. This also leads to the creation of new composed services that exceed the sum of the parts. Besides the technological interest, this new vision relates with the one from the Smart City. A concept that uses the convergence of the energy, the transport, and the information and communication technologies to define a way to achieve sustainable and competitive growth, improving the quality of life, and opening the governance of the cities to the participation. In the development pathway to reach these goals, this Final Degree Dissertation proposes a way for the virtualization of the services offered by the variety of devices that are reaching the ability to interoperate in a network. For this it is supported by a service oriented middleware called nSOM that has been developed at EUITT. Using this architecture the goals proposed for this project are the design and development of a service gateway that makes available the resources of a sensor network through a web interface; the design and development of a Device & Service Registry according to the reference architecture proposal for the Internet of Things; and the study and design of a composition framework for orchestrated services in constrained networks. To achieve these goals this dissertation begins with a State of the Art study where the background knowledge about the technologies in use for the interoperation of things will be settled. At first it starts talking about Wireless Sensor and Actuator Networks, the architectures for Machine-to-Machine communication and Internet of Things, and also the concepts for the Web of Things vision. Next the related network and services technologies are explored, ending with a brief review of service composition technologies. Then will follow a detailed description of the nSOM architecture, and also of the proposed design for this project. Finally a scenario will be proposed where a series of validation tests will be conducted.
Resumo:
Este Proyecto de Fin de Carrera presenta un prototipo de aplicación móvil híbrida multi-plataforma para Android y iOS. Las aplicaciones móviles híbridas son una combinación de aplicaciones web móviles y aplicaciones móviles nativas. Se desarrollan parcialmente con tecnologías web y pueden acceder a la capa nativa y sensores del teléfono. Para el usuario se presentan como aplicaciones nativas, ya que se pueden descargar de las tiendas de aplicaciones y son instaladas en el dispositivo. El prototipo consiste en la migración del módulo de noticias financieras de las aplicaciones actuales para móviles de una compañía bancaria reimplementándolo como aplicación híbrida utilizando uno de los entornos de desarrollo disponibles en el mercado para este propósito. El desarrollo de aplicaciones híbridas puede ahorrar tiempo y dinero cuando se pretende alcanzar más de una plataforma móvil. El objetivo es la evaluación de las ventajas e inconvenientes que ofrece el desarrollo de aplicaciones híbridas en términos de reducción de costes, tiempo de desarrollo y resultado final de la aplicación. El proyecto consta de varias fases. Durante la primera fase se realiza un estudio sobre las aplicaciones híbridas que podemos encontrar hoy en día en el mercado utilizando los ejemplos de linkedIn, Facebook y Financial times. Se hace hincapié en las tecnologías utilizadas, uso de la red móvil y problemas encontrados. Posteriormente se realiza una comparación de distintos entornos de desarrollo multi-plataforma para aplicaciones híbridas en términos de la estrategia utilizada, plataformas soportadas, lenguajes de programación, acceso a capacidades nativas de los dispositivos y licencias de uso. Esta primera fase da como resultado la elección del entorno de desarrollo más adecuado a las exigencias del proyecto, que es PhoneGap, y continua con un análisis más detallado de dicho entorno en cuanto a su arquitectura, características y componentes. La siguiente fase comienza con un estudio de las aplicaciones actuales de la compañía para extraer el código fuente necesario y adaptarlo a la arquitectura que tendrá la aplicación. Para la realización del prototipo se hace uso de la característica que ofrece PhoneGap para acceder a la capa nativa del dispositivo, esto es, el uso de plugins. Se diseña y desarrolla un plugin que permite acceder a la capa nativa para cada plataforma. Una vez desarrollado el prototipo para la plataforma Android, se migra y adapta para la plataforma iOS. Por último se hace una evaluación de los prototipos en cuanto a su facilidad y tiempo de desarrollo, rendimiento, funcionalidad y apariencia de la interfaz de usuario. ABSTRACT. This bachelor's thesis presents a prototype of a hybrid cross-platform mobile application for Android and iOS. Hybrid mobile applications are a combination of mobile web and mobile native applications. They are built partially with web technologies and they can also access native features and sensors of the device. For a user, they look like native applications as they are downloaded from the application stores and installed on the device. This prototype consists of the migration of the financial news module of current mobile applications from a financial bank reimplementing them as a hybrid application using one of the frameworks available in the market for that purpose. Development of applications on a hybrid way can help reducing costs and effort when targeting more than one platform. The target of the project is the evaluation of the advantages and disadvantages that hybrid development can offer in terms of reducing costs and efforts and the final result of the application. The project starts with an analysis of successfully released hybrid applications using the examples of linkedIn, Facebook and Financial Times, emphasizing the different used technologies, the transmitted network data and the encountered problems during the development. This analysis is followed by a comparison of most popular hybrid crossplatform development frameworks in terms of the different approaches, supported platforms, programming languages, access to native features and license. This first stage has the outcome of finding the development framework that best fits to the requirements of the project, that is PhoneGap, and continues with a deeper analysis of its architecture, features and components. Next stage analyzes current company's applications to extract the needed source code and adapt it to the architecture of the prototype. For the realization of the application, the feature that PhoneGap offers to access the native layer of the device is used. This feature is called plugin. A custom plugin is designed and developed to access the native layer of each targeted platform. Once the prototype is finished for Android, it is migrated and adapted to the iOS platform. As a final conclusion the prototypes are evaluated in terms of ease and time of development, performance, functionality and look and feel.
Resumo:
Sobre la puesta en valor de la arquitectura vernácula y popular y, especialmente, aquella que ha sufrido el paso del tiempo y por tanto la validación de la historia y el tiempo.
Resumo:
La situación actual, caracterizada por un impresionante avance de las écnicas de diseño, proyecto y construcción, y por el establecimiento de una cultura digital, ha propiciado el desarrollo arquitectónico de formas que podríamos calificar como libres. El artículo valora el diverso desarrollo de estas formas libres, y el papel de la estructura en dicho proceso. Se consideran para ello cuatro planteamientos con los que afrontar el desarrollo de estas formas libres, en función de su proceso de generación y de la influencia de la estructura: formas escultóricas, formas de conjunción estructural, formas de generación estructural o algorítmica, y formas paramétricas. A partir de este análisis se proponen cuatro puntos de discusión: el proceso de desarrollo de las formas libres; cómo afrontar la multiplicidad de factores actuales; la respuesta y relevancia de la estructura; y el potencial de la arquitectura digital y el papel de la estructura en su desarrollo.
Resumo:
Los sistemas técnicos son cada vez más complejos, incorporan funciones más avanzadas, están más integrados con otros sistemas y trabajan en entornos menos controlados. Todo esto supone unas condiciones más exigentes y con mayor incertidumbre para los sistemas de control, a los que además se demanda un comportamiento más autónomo y fiable. La adaptabilidad de manera autónoma es un reto para tecnologías de control actualmente. El proyecto de investigación ASys propone abordarlo trasladando la responsabilidad de la capacidad de adaptación del sistema de los ingenieros en tiempo de diseño al propio sistema en operación. Esta tesis pretende avanzar en la formulación y materialización técnica de los principios de ASys de cognición y auto-consciencia basadas en modelos y autogestión de los sistemas en tiempo de operación para una autonomía robusta. Para ello el trabajo se ha centrado en la capacidad de auto-conciencia, inspirada en los sistemas biológicos, y se ha explorado la posibilidad de integrarla en la arquitectura de los sistemas de control. Además de la auto-consciencia, se han explorado otros temas relevantes: modelado funcional, modelado de software, tecnología de los patrones, tecnología de componentes, tolerancia a fallos. Se ha analizado el estado de la técnica en los ámbitos pertinentes para las cuestiones de la auto-consciencia y la adaptabilidad en sistemas técnicos: arquitecturas cognitivas, control tolerante a fallos, y arquitecturas software dinámicas y computación autonómica. El marco teórico de ASys existente de sistemas autónomos cognitivos ha sido adaptado para servir de base para este análisis de autoconsciencia y adaptación y para dar sustento conceptual al posterior desarrollo de la solución. La tesis propone una solución general de diseño para la construcción de sistemas autónomos auto-conscientes. La idea central es la integración de un meta-controlador en la arquitectura de control del sistema autónomo, capaz de percibir la estado funcional del sistema de control y, si es necesario, reconfigurarlo en tiempo de operación. Esta solución de metacontrol se ha formalizado en cuatro patrones de diseño: i) el Patrón Metacontrol, que define la integración de un subsistema de metacontrol, responsable de controlar al propio sistema de control a través de la interfaz proporcionada por su plataforma de componentes, ii) el patrón Bucle de Control Epistémico, que define un bucle de control cognitivo basado en el modelos y que se puede aplicar al diseño del metacontrol, iii) el patrón de Reflexión basada en Modelo Profundo propone una solución para construir el modelo ejecutable utilizado por el meta-controlador mediante una transformación de modelo a modelo a partir del modelo de ingeniería del sistema, y, finalmente, iv) el Patrón Metacontrol Funcional, que estructura el meta-controlador en dos bucles, uno para el control de la configuración de los componentes del sistema de control, y otro sobre éste, controlando las funciones que realiza dicha configuración de componentes; de esta manera las consideraciones funcionales y estructurales se desacoplan. La Arquitectura OM y el metamodelo TOMASys son las piezas centrales del marco arquitectónico desarrollado para materializar la solución compuesta de los patrones anteriores. El metamodelo TOMASys ha sido desarrollado para la representación de la estructura y su relación con los requisitos funcionales de cualquier sistema autónomo. La Arquitectura OM es un patrón de referencia para la construcción de una metacontrolador integrando los patrones de diseño propuestos. Este meta-controlador se puede integrar en la arquitectura de cualquier sistema control basado en componentes. El elemento clave de su funcionamiento es un modelo TOMASys del sistema decontrol, que el meta-controlador usa para monitorizarlo y calcular las acciones de reconfiguración necesarias para adaptarlo a las circunstancias en cada momento. Un proceso de ingeniería, complementado con otros recursos, ha sido elaborado para guiar la aplicación del marco arquitectónico OM. Dicho Proceso de Ingeniería OM define la metodología a seguir para construir el subsistema de metacontrol para un sistema autónomo a partir del modelo funcional del mismo. La librería OMJava proporciona una implementación del meta-controlador OM que se puede integrar en el control de cualquier sistema autónomo, independientemente del dominio de la aplicación o de su tecnología de implementación. Para concluir, la solución completa ha sido validada con el desarrollo de un robot móvil autónomo que incorpora un meta-controlador con la Arquitectura OM. Las propiedades de auto-consciencia y adaptación proporcionadas por el meta-controlador han sido validadas en diferentes escenarios de operación del robot, en los que el sistema era capaz de sobreponerse a fallos en el sistema de control mediante reconfiguraciones orquestadas por el metacontrolador. ABSTRACT Technical systems are becoming more complex, they incorporate more advanced functionalities, they are more integrated with other systems and they are deployed in less controlled environments. All this supposes a more demanding and uncertain scenario for control systems, which are also required to be more autonomous and dependable. Autonomous adaptivity is a current challenge for extant control technologies. The ASys research project proposes to address it by moving the responsibility for adaptivity from the engineers at design time to the system at run-time. This thesis has intended to advance in the formulation and technical reification of ASys principles of model-based self-cognition and having systems self-handle at runtime for robust autonomy. For that it has focused on the biologically inspired capability of self-awareness, and explored the possibilities to embed it into the very architecture of control systems. Besides self-awareness, other themes related to the envisioned solution have been explored: functional modeling, software modeling, patterns technology, components technology, fault tolerance. The state of the art in fields relevant for the issues of self-awareness and adaptivity has been analysed: cognitive architectures, fault-tolerant control, and software architectural reflection and autonomic computing. The extant and evolving ASys Theoretical Framework for cognitive autonomous systems has been adapted to provide a basement for this selfhood-centred analysis and to conceptually support the subsequent development of our solution. The thesis proposes a general design solution for building self-aware autonomous systems. Its central idea is the integration of a metacontroller in the control architecture of the autonomous system, capable of perceiving the functional state of the control system and reconfiguring it if necessary at run-time. This metacontrol solution has been formalised into four design patterns: i) the Metacontrol Pattern, which defines the integration of a metacontrol subsystem, controlling the domain control system through an interface provided by its implementation component platform, ii) the Epistemic Control Loop pattern, which defines a modelbased cognitive control loop that can be applied to the design of such a metacontroller, iii) the Deep Model Reflection pattern proposes a solution to produce the online executable model used by the metacontroller by model-to-model transformation from the engineering model, and, finally, iv) the Functional Metacontrol pattern, which proposes to structure the metacontroller in two loops, one for controlling the configuration of components of the controller, and another one on top of the former, controlling the functions being realised by that configuration; this way the functional and structural concerns become decoupled. The OM Architecture and the TOMASys metamodel are the core pieces of the architectural framework developed to reify this patterned solution. The TOMASys metamodel has been developed for representing the structure and its relation to the functional requirements of any autonomous system. The OM architecture is a blueprint for building a metacontroller according to the patterns. This metacontroller can be integrated on top of any component-based control architecture. At the core of its operation lies a TOMASys model of the control system. An engineering process and accompanying assets have been constructed to complete and exploit the architectural framework. The OM Engineering Process defines the process to follow to develop the metacontrol subsystem from the functional model of the controller of the autonomous system. The OMJava library provides a domain and application-independent implementation of an OM Metacontroller than can be used in the implementation phase of OMEP. Finally, the complete solution has been validated in the development of an autonomous mobile robot that incorporates an OM metacontroller. The functional selfawareness and adaptivity properties achieved thanks to the metacontrol system have been validated in different scenarios. In these scenarios the robot was able to overcome failures in the control system thanks to reconfigurations performed by the metacontroller.
Resumo:
Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.
Resumo:
La presente comunicación tiene como objetivo analizar las diferentes condiciones que son necesarias para que se produzca el aprendizaje dentro de entornos de trabajo de estructura no convencional. Para ello, utilizamos como ejemplos los Colectivos de arquitectura tan prolíficos en estas últimas décadas. La palabra “Colectivo” está sometida a un fuerte debate ya que su definición acaba siempre siendo difusa... ¿es un colectivo una agrupación de 4 personas? ¿es una cuestión de número, de posicionamiento o de metodología de trabajo?. La Confianza Generalmente las comunidades de aprendizaje están formadas por personas que se comprometen en un proceso de aprendizaje colectivo a través de un entorno que permite la producción de fricciones para compartir el conocimiento. En la teoría para la creación del conocimiento de Nonaka & Konno (1998), se introduce el concepto japonés de “ba” que traducido significa “lugar”, como un espacio compartido donde se produce la gestión del conocimiento. Explica como el conocimiento se adquiere a través de la experiencia de uno mismo y del reflejo que deja la de otros. Para que esto ocurra el “ba” requiere que los individuos eliminen barreras entre unos y otros en una atmosfera que enfatice “cuidado, amor, confianza y compromiso”. A esto Kolb and Kolb (2005) añaden que para mantener este espacio es necesaria una estructura de soporte en la que los miembros puedan confiar, y en el que se comprendan sus diferencias a través de la conversación. La confianza, la comunicación y la afectividad son elementos imprescindibles en una estructura de trabajo en colectivo. Esto da lugar a una falta de protocolos de actuación a la hora de introducir nuevos miembros en el grupo. Las condiciones necesarias para incorporarse en estas estructuras difieren mucho de un colectivo a otro. En algunos casos esta anexión se produce exclusivamente por criterios de índole profesional, en otras ocasiones son vínculos afectivos ligados a la amistad o empatía personal lo que las inducen e incluso hay casos donde el puro azar por necesidades diversas conlleva a la exitosa incorporación de un nuevo miembro. Este punto es uno de los que mejor evidencia la diferencia entre estos espacios de aprendizaje y los espacios de Coworking y Networking, en los cuales aunque se establecen relaciones profesionales, los niveles de sinergias y de aprendizaje son muy inferiores. La identidad Las “Community of practices” (Cop) son consideradas como un tipo de comunidad de aprendizaje (Lave & Wenger, 1991, Wenger, 1998, Wenger et al. 2002) que explica e ilustra los desafíos que estas comunidades presentan. Generalmente, se describen como un grupo de gente conectada por un interés común y que definen sus identidades a través del rol que tienen y de la relación que comparten con la actividad del grupo. En el caso de los colectivos de arquitectura estos conceptos se presenta de formas diferentes. Existen colectivos en los que se desvincula completamente la identidad personal de la identidad grupal, prevaleciendo esta última y configurándose a través de los intereses y objetivos comunes. Sin embargo otros colectivos defienden fuertemente la identidad personal y profesional de cada individuo que lo forma y el interés común se reduce a la necesidad de compartir experiencias y establecer sinergias. Por otro lado, Li et al (2009) muestra como las “Community of practices” (Cop) tienen una falta de consistencia en la interpretación de su concepto que hace difícil el describir, desarrollar y medir su efectividad. En los entornos de colectivos es común describirse a través del "hacer", entendiendo esto no como un hándicap sino como una manera de permanecer abiertos a reinventarse con cada nuevo proyecto. Grupos Abiertos o Cerrados Una comunidad puede existir en el tiempo a pesar de que cambien sus participantes. (Lave & Wenger, 1991, Wenger, 1998, Wenger et al. 2002). La mayoría de los colectivos que conocemos empiezan a trabajar como estructuras abiertas, con un número difuso de integrantes y con grandes diferencias de compromiso entre los miembros. Sin embargo, con el paso de los años y la evolución de la estructura se producen dos situaciones opuestas: 1. Colectivos que se consolidan y se cierran, formados por individuos con una implicación total en la estructura de trabajo y unos objetivos comunes. En estos casos el número de integrantes suele ser reducido o haber disminuido desde su formación y al producirse una especialización de los roles de trabajo entre los diferentes miembros, los entornos de aprendizaje se amplían a la interactuación puntual con personas ajenas al colectivo. Estos aprendizajes están en cierto modo dirigidos y también son más eficaces porque se eligen a priori los agentes externos con los que relacionarse e intercambiar conocimientos, sean estos profesionales de otras disciplinas u otros colectivos. Otra forma de interactuación suele ser a través de talleres o actividades públicas con participación ciudadana. Lo cual produce el acercamiento a otros agentes sociales, abriendo y enriqueciendo la propia disciplina. 2. En el otro extremo están los colectivos que mantienen una estructura abierta en el tiempo, provocando un aumento constante del número de miembros y un amplio abanico de niveles de implicación. En estos casos no existe un objetivo común ni una metodología de trabajo predeterminada sino que se producen asociaciones puntuales y acotadas en el tiempo. De esta manera los niveles de aprendizaje se mantienen elevados dentro del propio colectivo por estar en constante cambio, lo que no implica que también se produzcan las interactuaciones mencionadas anteriormente con otros agentes. Conclusión Los colectivos de arquitectura pueden considerarse comunidades de aprendizaje con diferentes configuraciones y características comunes como la paridad, la confianza y la tendencia a establecer redes con otros grupos. Y muestran como aprendizaje y producción pueden funcionar dentro de una misma entidad. Por otro lado, su nivel de adaptabilidad a los retos reales del entorno externo que les rodea influye en la permanencia o extinción de estas estructuras de trabajo.