20 resultados para Key Agreement, Password Authentication, Three-party

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

We report on a variant of the so-called Cascade protocol that is well-known for its usage as information reconciliation protocol in quantum cryptography. A theoretical analysis of the optimal size of the parity check blocks is provided. We obtain a very small leakage which is for block sizes of 2^16 typically only 2.5% above the Shannon limit, and notably, this holds for a QBER between 1% and 50%. For a QBER between 1% and 6% the leakage is only 2% above the Shannon limit. As comparison, the leakage of the original Cascade algorithm is 20% (40%) above the Shannon limit for a QBER of 10% (35%).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Secret-key agreement, a well-known problem in cryptography, allows two parties holding correlated sequences to agree on a secret key communicating over a public channel. It is usually divided into three different procedures: advantage distillation, information reconciliation and privacy amplification. The efficiency of each one of these procedures is needed if a positive key rate is to be attained from the legitimate parties? correlated sequences. Quantum key distribution (QKD) allows the two parties to obtain correlated sequences, provided that they have access to an authenticated channel. The new generation of QKD devices is able to work at higher speeds and in noisier or more absorbing environments. This exposes the weaknesses of current information reconciliation protocols, a key component to their performance. Here we present a new protocol based in low-density parity-check (LDPC) codes that presents the advantages of low interactivity, rate adaptability and high efficiency,characteristics that make it highly suitable for next generation QKD devices.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cascade is an information reconciliation protocol proposed in the context of secret key agreement in quantum cryptography. This protocol allows removing discrepancies in two partially correlated sequences that belong to distant parties, connected through a public noiseless channel. It is highly interactive, thus requiring a large number of channel communications between the parties to proceed and, although its efficiency is not optimal, it has become the de-facto standard for practical implementations of information reconciliation in quantum key distribution. The aim of this work is to analyze the performance of Cascade, to discuss its strengths, weaknesses and optimization possibilities, comparing with some of the modified versions that have been proposed in the literature. When looking at all design trade-offs, a new view emerges that allows to put forward a number of guidelines and propose near optimal parameters for the practical implementation of Cascade improving performance significantly in comparison with all previous proposals.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cascade is an information reconciliation protocol proposed in the context of secret key agreement in quantum cryptography. This protocol allows removing discrepancies in two partially correlated sequences that belong to distant parties, connected through a public noiseless channel. It is highly interactive, thus requiring a large number of channel communications between the parties to proceed and, although its efficiency is not optimal, it has become the de-facto standard for practical implementations of information reconciliation in quantum key distribution. The aim of this work is to analyze the performance of Cascade, to discuss its strengths, weaknesses and optimization possibilities, comparing with some of the modified versions that have been proposed in the literature. When looking at all design trade-offs, a new view emerges that allows to put forward a number of guidelines and propose near optimal parameters for the practical implementation of Cascade improving performance significantly in comparison with all previous proposals.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Tesis investiga aquellas obras en las que se ha producido un desplazamiento de la estructura portante hacia el perímetro del edificio para alcanzar su posterior desvanecimiento aplicando ciertos mecanismos arquitectónicos. En el proceso de la investigación se ha detectado cómo la rotundidad e inmediatez de la huella de lo estructural percibida en la arquitectura tradicional, tiende a desvanecerse, su desmaterialización queda patente en ciertas obras de la arquitectura contemporánea. La investigación comienza con la concordancia hallada entre tres edificios contemporáneos cuyo perímetro lo conforma una Envolvente Estructural: la tienda TODS, de Toyo Ito (2003); PRADA, de Herzog&de Meuron (2000) y DIOR, de SANAA (2001). Tres obras de fechas consecutivas, que, aun respondiendo a las mismas condiciones de ubicación, Omotesando (Tokio), uso, volumetría, altura y superficie, su Envolvente se configura de modo muy diverso, produciendo soluciones estructurales diferenciadas y heterogéneas. De estos tres modos de configurarse la envolvente, se desprenden las tres estrategias arquitectónicas empleadas en el desarrollo de la Tesis: figuración, abstracción y desmaterialización. Así pues, la investigación descubre, por una parte, un procedimiento figurativo que pone el acento en valores expresivos empleando códigos de significado como son los objetos de la naturaleza; por otra parte, un procedimiento abstracto, priorizando las reglas de construcción formal del propio objeto; y por último, como continuación de los anteriores, se descubre un procedimiento de desmaterialización planteado desde la delgadez de los muros, los materiales efímeros o una semitransparencia que pretende mayor conexión con el mundo exterior. Con el análisis de estas tres categorías secuenciales desveladas por los edificios citados de Omotesando, se han identificado otras obras clarividentes de Toyo Ito, Herzog&de Meuron y SANAA, por ser representativos de dichas nociones. Así pues, se han seleccionado veinticuatro casos de estudio y se han ordenado formando una colección de obras capaz de llegar a formular por sí misma un enunciado conclusivo sobre los procedimientos arquitectónicos capaces de velar la estructura mecánica. En la actualidad, el planteamiento de la Envolvente Estructural recurre a un nuevo modo de abordar la arquitectura. Esta ya no consiste en el juego sabio, correcto y magnífico, sino que adquiere una nueva dimensión poética desde la ausencia de la esencia resistente. Efectivamente, por un lado, se ha afirmado que ‘sin estructura no hay arquitectura’; y por otro lado, se trata de hacerla desaparecer. Así queda expresado en palabras de SANAA: “Para nosotros la estructura es muy importante, incluso su desaparición lo es”. Por otro lado, la Envolvente Estructural analizada en la Tesis recoge el legado de la historia, lo interpreta y se manifiesta con el lenguaje contemporáneo manteniendo aquella unidad entre las disciplinas de arquitectura e ingeniería comenzada en el siglo XIX. El contorno edilicio, conformado en un único elemento compacto e indiferenciado, resuelve diversas funciones habitualmente asignadas a otros elementos específicos: Encierra en un reducido espesor el cerramiento, la estructura resistente, el ornamento y el acondicionamiento térmico (en algunos casos); configura la forma arquitectónica y envuelve el espacio arquitectónico mostrando una libertad formal (cáscaras esculturales) y un lenguaje de liviandad (muros de espesores reducidos) sin precedentes. La tipología planteada condensa todo aquello que le permite expresar el enunciado más inmaterial de la estructura mecánica. Concluyendo, la Tesis verifica que una parte de la arquitectura contemporánea ya ha pasado del límite denso, corporeizado y mecánico tradicional, a un límite borroso, que se ha erosionado, se ha transmutado hasta su desmaterialización, su desvanecimiento o incluso su desaparición. ABSTRACT This thesis researches those buildings where the bearing structure has been moved towards the perimeter in order to reach its fading by means of architectural strategies. In the research development it has been detected how the clearness and immediacy of the footprint of the structure as noticed in the traditional architecture, tends to vanish, its dematerialization remains patent in certain contemporary architecture works. The research begins with the agreement found in three contemporary buildings whose perimeter is shaped by a structural envelope: TODS shop, by Toyo Ito (2003); PRADA, by Herzog&de Meuron (2000) and DIOR, by SANAA (2001). Three works in consecutive dates, that share the placement conditions, Omotesando (Tokio), use, volume, height and area, but its envelope is shaped in various ways, generating different and heterogeneous structural solutions. From these three ways of the envelope shape are deduced the three architectural strategies studied during the Thesis development: figuration, abstraction and dematerialization. Thus, the research discovers, on one hand, a figurative procedure that highlights the expressive values by using meaning codes such as the nature objects; on the other hand, an abstract procedure, prioritizing the formal construction rules typical of the object; at last, as a continuation of the others, a dematerialization procedure is shown, set out from the wall thinness, the ephemeral materials or the semitransparency that tries to increase the connection with the world around. With the analysis of these three categories in a sequence, shown in the Ometesando buildings, other works from Toyo Ito, Herzog&de Meuron and SANNAA have been identified because of being representative of those concepts. Therefore, twenty four case studies have been selected and have been ordered to set a collection of works that are able to formulate by themselves a conclusive statement about the architectural procedures that are able to veil the mechanical structure. Nowadays, the Structural envelope approach leads to a new way of dealing with architecture. This is not any more a wise game, correct and magnificent, but it acquires a new poetic dimension from the absence of the resistant essence. Indeed, on the one hand, it has been stated that ‘without structure there is no architecture’; and on the other hand, it tries to make it disappear. It is so stated in SANAA words: ‘The structure is very important for us, and even its disappearance” On the other hand, the Structural envelope analysed in this Thesis gathers the legacy of history, interprets it and it is expressed with a contemporary language, by keeping that unity between disciplines of architecture and engineering already started in the XIX century. The building boundary, shaped as a compacted and undifferentiated single element, solves several functions commonly assigned to other specific elements: keeps in a small thickness the envelope, the bearing structure, the ornament and the thermal conditioning (in same cases); it shapes the architectural form and envelopes the architectural space by showing a formal freedom (sculptural shells) and a lightness language (small thickness walls) with no precedents. This typology gathers all what lets to express the most immaterial statement of the mechanical structure. As a conclusion, the Thesis verifies that a part of the contemporary architecture has already gone over the dense limit, shaped and mechanical traditional to a blur limit that has been eroded, it has been changed until its dematerialization, its fading or event its disappearance.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

El extraordinario auge de las nuevas tecnologías de la información, el desarrollo de la Internet de las Cosas, el comercio electrónico, las redes sociales, la telefonía móvil y la computación y almacenamiento en la nube, han proporcionado grandes beneficios en todos los ámbitos de la sociedad. Junto a éstos, se presentan nuevos retos para la protección y privacidad de la información y su contenido, como la suplantación de personalidad y la pérdida de la confidencialidad e integridad de los documentos o las comunicaciones electrónicas. Este hecho puede verse agravado por la falta de una frontera clara que delimite el mundo personal del mundo laboral en cuanto al acceso de la información. En todos estos campos de la actividad personal y laboral, la Criptografía ha jugado un papel fundamental aportando las herramientas necesarias para garantizar la confidencialidad, integridad y disponibilidad tanto de la privacidad de los datos personales como de la información. Por otro lado, la Biometría ha propuesto y ofrecido diferentes técnicas con el fin de garantizar la autentificación de individuos a través del uso de determinadas características personales como las huellas dáctilares, el iris, la geometría de la mano, la voz, la forma de caminar, etc. Cada una de estas dos ciencias, Criptografía y Biometría, aportan soluciones a campos específicos de la protección de datos y autentificación de usuarios, que se verían enormemente potenciados si determinadas características de ambas ciencias se unieran con vistas a objetivos comunes. Por ello es imperativo intensificar la investigación en estos ámbitos combinando los algoritmos y primitivas matemáticas de la Criptografía con la Biometría para dar respuesta a la demanda creciente de nuevas soluciones más técnicas, seguras y fáciles de usar que potencien de modo simultáneo la protección de datos y la identificacíón de usuarios. En esta combinación el concepto de biometría cancelable ha supuesto una piedra angular en el proceso de autentificación e identificación de usuarios al proporcionar propiedades de revocación y cancelación a los ragos biométricos. La contribución de esta tesis se basa en el principal aspecto de la Biometría, es decir, la autentificación segura y eficiente de usuarios a través de sus rasgos biométricos, utilizando tres aproximaciones distintas: 1. Diseño de un esquema criptobiométrico borroso que implemente los principios de la biometría cancelable para identificar usuarios lidiando con los problemas acaecidos de la variabilidad intra e inter-usuarios. 2. Diseño de una nueva función hash que preserva la similitud (SPHF por sus siglas en inglés). Actualmente estas funciones se usan en el campo del análisis forense digital con el objetivo de buscar similitudes en el contenido de archivos distintos pero similares de modo que se pueda precisar hasta qué punto estos archivos pudieran ser considerados iguales. La función definida en este trabajo de investigación, además de mejorar los resultados de las principales funciones desarrolladas hasta el momento, intenta extender su uso a la comparación entre patrones de iris. 3. Desarrollando un nuevo mecanismo de comparación de patrones de iris que considera tales patrones como si fueran señales para compararlos posteriormente utilizando la transformada de Walsh-Hadarmard. Los resultados obtenidos son excelentes teniendo en cuenta los requerimientos de seguridad y privacidad mencionados anteriormente. Cada uno de los tres esquemas diseñados han sido implementados para poder realizar experimentos y probar su eficacia operativa en escenarios que simulan situaciones reales: El esquema criptobiométrico borroso y la función SPHF han sido implementados en lenguaje Java mientras que el proceso basado en la transformada de Walsh-Hadamard en Matlab. En los experimentos se ha utilizado una base de datos de imágenes de iris (CASIA) para simular una población de usuarios del sistema. En el caso particular de la función de SPHF, además se han realizado experimentos para comprobar su utilidad en el campo de análisis forense comparando archivos e imágenes con contenido similar y distinto. En este sentido, para cada uno de los esquemas se han calculado los ratios de falso negativo y falso positivo. ABSTRACT The extraordinary increase of new information technologies, the development of Internet of Things, the electronic commerce, the social networks, mobile or smart telephony and cloud computing and storage, have provided great benefits in all areas of society. Besides this fact, there are new challenges for the protection and privacy of information and its content, such as the loss of confidentiality and integrity of electronic documents and communications. This is exarcebated by the lack of a clear boundary between the personal world and the business world as their differences are becoming narrower. In both worlds, i.e the personal and the business one, Cryptography has played a key role by providing the necessary tools to ensure the confidentiality, integrity and availability both of the privacy of the personal data and information. On the other hand, Biometrics has offered and proposed different techniques with the aim to assure the authentication of individuals through their biometric traits, such as fingerprints, iris, hand geometry, voice, gait, etc. Each of these sciences, Cryptography and Biometrics, provides tools to specific problems of the data protection and user authentication, which would be widely strengthen if determined characteristics of both sciences would be combined in order to achieve common objectives. Therefore, it is imperative to intensify the research in this area by combining the basics mathematical algorithms and primitives of Cryptography with Biometrics to meet the growing demand for more secure and usability techniques which would improve the data protection and the user authentication. In this combination, the use of cancelable biometrics makes a cornerstone in the user authentication and identification process since it provides revocable or cancelation properties to the biometric traits. The contributions in this thesis involve the main aspect of Biometrics, i.e. the secure and efficient authentication of users through their biometric templates, considered from three different approaches. The first one is designing a fuzzy crypto-biometric scheme using the cancelable biometric principles to take advantage of the fuzziness of the biometric templates at the same time that it deals with the intra- and inter-user variability among users without compromising the biometric templates extracted from the legitimate users. The second one is designing a new Similarity Preserving Hash Function (SPHF), currently widely used in the Digital Forensics field to find similarities among different files to calculate their similarity level. The function designed in this research work, besides the fact of improving the results of the two main functions of this field currently in place, it tries to expand its use to the iris template comparison. Finally, the last approach of this thesis is developing a new mechanism of handling the iris templates, considering them as signals, to use the Walsh-Hadamard transform (complemented with three other algorithms) to compare them. The results obtained are excellent taking into account the security and privacy requirements mentioned previously. Every one of the three schemes designed have been implemented to test their operational efficacy in situations that simulate real scenarios: The fuzzy crypto-biometric scheme and the SPHF have been implemented in Java language, while the process based on the Walsh-Hadamard transform in Matlab. The experiments have been performed using a database of iris templates (CASIA-IrisV2) to simulate a user population. The case of the new SPHF designed is special since previous to be applied i to the Biometrics field, it has been also tested to determine its applicability in the Digital Forensic field comparing similar and dissimilar files and images. The ratios of efficiency and effectiveness regarding user authentication, i.e. False Non Match and False Match Rate, for the schemes designed have been calculated with different parameters and cases to analyse their behaviour.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The Institute of Tropical Medicine in Antwerp hereby presents the results of two pilot distance learning training programmes, developed under the umbrella of the AFRICA BUILD project (FP7). The two courses focused on evidence-based medicine (EBM): with the aim of enhancing research and education, via novel approaches and to identify research needs emanating from the field. These pilot experiences, which were run both in English-speaking (Ghana), and French-speaking (Mali and Cameroon) partner institutions, produced targeted courses for the strengthening of research methodology and policy. The courses and related study materials are in the public domain and available through the AFRICA BUILD Portal (http://www.africabuild.eu/taxonomy/term/37); the training modules were delivered live via Dudal webcasts. This paper assesses the success and difficulties of transferring EBM skills with these two specific training programmes, offered through three different approaches: fully online facultative courses, fully online tutor supported courses or through a blended approach with both online and face-to-face sessions. Key factors affecting the selection of participants, the accessibility of the courses, how the learning resources are offered, and how interactive online communities are formed, are evaluated and discussed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We develop a novel remote sensing technique for the observation of waves on the ocean surface. Our method infers the 3-D waveform and radiance of oceanic sea states via a variational stereo imagery formulation. In this setting, the shape and radiance of the wave surface are given by minimizers of a composite energy functional that combines a photometric matching term along with regularization terms involving the smoothness of the unknowns. The desired ocean surface shape and radiance are the solution of a system of coupled partial differential equations derived from the optimality conditions of the energy functional. The proposed method is naturally extended to study the spatiotemporal dynamics of ocean waves and applied to three sets of stereo video data. Statistical and spectral analysis are carried out. Our results provide evidence that the observed omnidirectional wavenumber spectrum S(k) decays as k-2.5 is in agreement with Zakharov's theory (1999). Furthermore, the 3-D spectrum of the reconstructed wave surface is exploited to estimate wave dispersion and currents.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The magazine of the Spanish Nuclear Society (SNE), “Nuclear España” is a scientific-technical publication with almost thirty years of uninterrupted edition and more than 300 numbers published. Their pages approach technical subjects related to the nuclear energy, as well as the activities developed by the SNE, especially in national and international meetings. The main part of the magazine is composed by articles written by known specialist of the energy industry. One of the top goals of the magazine is to help on transferring the knowledge from the generation that built the nuclear power plants in Spain and the new generation of professionals that have started its nuclear career in the last years. Each number is monographic, trying to cover as many aspects on an issue as it is possible, with collaborations from the companies, the research centers and universities that helps to have complementary points of view. On the other hand the articles help to deep in the issue´s topic, broadening the view of the readers about the nuclear field and helping to share knowledge across the industry. The news section of the Magazine picks up the actuality of the sector as a whole. The editorial section reflects the opinion of the SNE Governing Board and the Magazine Committee on the subjects of interest in this field. On the other hand, the monthly interview sets out the professional outstanding opinions. With a total of eleven numbers per year, three of them have a noticeable international character: the one dedicated to the operative experiences on the Spanish and European nuclear power plants, the monographic issue devoted tothe Annual Meeting of the SNE and the international issue, which covers the last activities of the Spanish industry in international projects. Both first are bilingual issues (Spanish-English), whereas the international edition is published completely in English. Besides its diffusion through all the members of the SNE, the Magazine is distributed, in the national scope, to companies and organisms related to the nuclear power, universities, research centers, representatives of the Central, Autonomic and Local Administrations, mass media and communication professionals. It is also sent to the utilities and research centers in Europe, United States, South America and Asia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A modified winding layout for three-phase transformers with PCB windings is proposed in this paper. This modified layout can be used in high current transformers with many PCB layers to simplify the fabrication process. One of the key factors that might increase the cost and complexity in the construction of planar transformers is the number of layers of each PCB winding. This issue becomes even more important in medium-high power three-phase transformers, where the number of PCB layers is higher. In addition to that, the proposed method allows the use of commercial core shapes that are commonly used to design single-phase transformers. This fact makes possible the reduction of cost and flexibility of the design solutions. The proposed solution has been validated and compared using the conventional and the proposed methodologies to design a high power (20 kW) transformer.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Learning analytics is the analysis of static and dynamic data extracted from virtual learning environments, in order to understand and optimize the learning process. Generally, this dynamic data is generated by the interactions which take place in the virtual learning environment. At the present time, many implementations for grouping of data have been proposed, but there is no consensus yet on which interactions and groups must be measured and analyzed. There is also no agreement on what is the influence of these interactions, if any, on learning outcomes, academic performance or student success. This study presents three different extant interaction typologies in e-learning and analyzes the relation of their components with students? academic performance. The three different classifications are based on the agents involved in the learning process, the frequency of use and the participation mode, respectively. The main findings from the research are: a) that agent-based classifications offer a better explanation of student academic performance; b) that at least one component in each typology predicts academic performance; and c) that student-teacher and student-student, evaluating students, and active interactions, respectively, have a significant impact on academic performance, while the other interaction types are not significantly related to academic performance.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La planificación y las políticas de transporte no pueden descuidar la calidad del servicio, considerando que influye notablemente en el cambio modal del coche hacia otros medios de transporte más sostenibles. El concepto se aplica también a los intercambiadores de transporte público, los nodos del sistema donde se cruzan las distintas redes del transporte público y privado. Aunque se han logrado numerosos avances para medir y evaluar la calidad en el sector del transporte público, se han dedicado relativamente pocos esfuerzos a investigar estos aspectos relacionados con la calidad de los intercambiadores del transporte público. Este trabajo de investigación se concentra en la calidad del servicio de la transferencia modal en los intercambiadores interurbanos, según la perspectiva de los viajeros. Su objetivo es identificar los factores clave de la calidad del servicio y los perfiles de los viajeros en los intercambiadores. La investigación es exploratoria y ofrece información acerca de la percepción de los viajeros intermodales relacionada con los aspectos de la calidad, aportando nuevos elementos y datos para adentrarse en estudios más detallados. La metodología del trabajo combina técnicas de análisis estadístico multivariante para analizar los datos de las encuestas sobre la satisfacción de los clientes y se subdivide en tres etapas. En primer lugar, se ha implementado el análisis de correspondencias múltiples para explorar los constructos latentes relacionados con la satisfacción de las características cualitativas de los intercambiadores interurbanos, identificando así los factores clave de la calidad. En segundo lugar, se ha aplicado un análisis de conglomerados de k-medias sobre los factores clave de calidad para clasificar a los viajeros en grupos de usuarios de transportes homogéneos, de acuerdo con su percepción de satisfacción, identificando de este modo los perfiles de los viajeros. Por último, se han formulado sugerencias y recomendaciones sobre la calidad para respaldar la formulación de políticas, estableciendo las prioridades para los intercambiadores interurbanos. La metodología se aplicó en cuatro intercambiadores interurbanos (estaciones de ferrocarriles o de autobuses ) en Madrid, Zaragoza, Gothenburg y Lion, analizando los datos recogidos mediante una encuesta de satisfacción del cliente llevada a cabo en 2011 en los cuatro casos de estudio, donde se interconectan distintos medios de transporte público y privado, de corta y larga distancia. Se recogieron datos sobre la satisfacción de los viajeros con 26 criterios de calidad, así como información sobre aspectos socio-económicos y pautas de comportamiento de viajes. Mediante el análisis de correspondencias múltiples se identificaron 4-5 factores clave de calidad en cada intercambiador, que se asocian principalmente con el sistema de emisión de billetes, el confort y la interconexión, mientras que los viajeros no perciben los temas clásicos como la información. Mediante el análisis de conglomerados se identificaron 2-5 perfiles de viajeros en cada intercambiador. Se reconocieron dos grupos de viajeros en casi todos los casos de estudio: viajeros de cercanía/trabajadores y turistas. Por lo que concierne a las prioridades para apoyar a las partes interesadas en la formulación de políticas, la expedición de billetes es el factor clave para los intercambiadores interurbanos españoles, mientras que la interconexión y los aspectos temporales se destacan en los intercambiadores de Francia y Suecia. Quality of Service can not be neglected in public transport planning and policy making, since it strongly influences modal shifts from car to more sustainable modes. This concept is also related to Public Transport interchanges, the nodes of the transport system where the different sub-systems of public passenger transport and personal vehicles meet. Although a lot of progress has been generally done to measure and assess quality in public transport sector, relatively little investigation has been conducted on quality at PT interchanges. This research work focusses on Quality of Service in the use of transfer facilities at interurban interchanges, according to current travellers’ perspective. It aims at identifying key quality factors and travellers profiles at interurban interchanges. The research is exploratory and offers insight into intermodal travellers’ perception on quality aspects, providing new elements and inputs for more definitive investigation. The methodology of the work combines multivariate statistical techniques to analyse data from customer satisfaction surveys and is subdivided in three steps. Firstly, multiple correspondence analysis was performed to explore latent constructs as concern satisfaction of quality attributes at interurban interchanges, thus identifying the so-called Key Quality Factor. Secondly, k-means cluster analysis was implemented on the key quality factors to classify travellers in homogeneous groups of transport users, according to their perception of satisfaction, thus identifying the so-called Travellers Profiles. Finally, hints and recommendations on quality were identified to support policy making, setting priorities for interurban interchanges. The methodology was applied at four interurban interchanges in Madrid, Zaragoza, Gothenburg and Lyon, analysing the data collected through a customer satisfaction survey carried out in 2011 at the four railway or bus stations where different modes of public and private transport are interconnected covering both short and long trips. Data on travellers’ satisfaction with 26 quality attributes were collected, as well as information on socio-economical and travel patterns. Through multiple correspondence analysis were identified 4-5 key quality factors per interchange. They are mainly related to ticketing, comfort and connectivity, while classical issues, as information, are not perceived as important by travellers’. Through cluster analysis were identified 2-5 travellers profiles per interchange. Two groups of travellers can be found in almost all case studies: commuter / business travellers and holiday travellers. As regards the priorities to support stakeholders in policy making, ticketing is the key-issue for the Spanish interurban interchanges, while connectivity and temporal issues emerge in the French and Swedish case studies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El Hogar Digital Accesible (HDA) de la ETSIST nace con el propósito de acercar las nuevas Tecnologías de la Información a las personas que precisan de necesidades concretas de accesibilidad y usabilidad, dotándoles de herramientas que les permitan aumentar su calidad de vida, confort, seguridad y autonomía. El entorno del HDA consta de elementos de control para puertas, persianas, iluminación, agua o gas, sensores de temperatura, incendios, gas, sistemas de climatización, sistemas de entretenimiento y sistemas de seguridad tales como detectores de presencia y alarmas. Todo ello apoyado sobre una arquitectura de red que proporciona una pasarela residencial y un acceso a banda ancha. El objetivo principal de este PFG ha sido el desarrollo de un sistema de autenticación para el Hogar Digital Accesible de bajo coste. La idea de integrar un sistema de autenticación en el HDA, surge de la necesidad de proteger de accesos no deseados determinados servicios disponibles dentro de un ámbito privado. Algunos de estos servicios pueden ser tales como el acceso a la lectura de los mensajes disponibles en el contestador automático, el uso de equipos multimedia, la desconexión de alarmas de seguridad o simplemente la configuración de ambientes según el usuario que esté autenticado (intensidad de luz, temperatura de la sala, etc.). En el desarrollo han primado los principios de accesibilidad, usabilidad y seguridad necesarios para la creación de un entorno no invasivo, que permitiera acreditar la identidad del usuario frente al sistema HDA. Se ha planteado como posible solución, un sistema basado en el reconocimiento de un trazo realizado por el usuario. Este trazo se usará como clave de cara a validar a los usuarios. El usuario deberá repetir el trazado que registró en el sistema para autenticarse. Durante la ejecución del presente PFG, se justificará la elección de este mecanismo de autenticación frente a otras alternativas disponibles en el mercado. Para probar la aplicación, se ha podido contar con dos periféricos de distintas gamas, el uDraw creado para la PS3 que se compone de una tableta digitalizadora y un lápiz que permite recoger los trazos realizados por el usuario de forma inalámbrica y la tableta digitalizadora Bamboo de Wacom. La herramienta desarrollada permite a su vez, la posibilidad de ser usada por otro tipo de dispositivos como es el caso del reloj con acelerómetro de 3 ejes de Texas Instruments Chronos eZ430 capaz de trasladar los movimientos del usuario al puntero de un ratón. El PFG se encuentra dividido en tres grandes bloques de flujo de trabajo. El primero se centra en el análisis del sistema y las tecnologías que lo componen, incluyendo los distintos algoritmos disponibles para realizar la autenticación basada en reconocimiento de patrones aplicados a imágenes que mejor se adaptan a las necesidades del usuario. En el segundo bloque se recoge una versión de prueba basada en el análisis y el diseño UML realizado previamente, sobre la que se efectuaron pruebas de concepto y se comprobó la viabilidad del proyecto. El último bloque incluye la verificación y validación del sistema mediante pruebas que certifican que se han alcanzado los niveles de calidad necesarios para la consecución de los objetivos planteados, generando finalmente la documentación necesaria. Como resultado del trabajo realizado, se ha obtenido un sistema que plantea una arquitectura fácilmente ampliable lograda a través del uso de técnicas como la introspección, que permiten separar la lógica de la capa de negocio del código que la implementa, pudiendo de forma simple e intuitiva sustituir código mediante ficheros de configuración, lo que hace que el sistema sea flexible y escalable. Tras la realización del PFG, se puede concluir que el producto final obtenido ha respondido de forma satisfactoria alcanzando los niveles de calidad requeridos, siendo capaz de proporcionar un sistema de autenticación alternativo a los convencionales, manteniendo unas cotas de seguridad elevadas y haciendo de la accesibilidad y el precio sus características más reseñables. ABSTRACT. Accessible Digital Home (HDA) of the ETSIST was created with the aim of bringing the latest information and communications technologies closer to the people who has special needs of accessibility and usability increasing their quality of life, comfort, security and autonomy. The HDA environment has different control elements for doors, blinds, lighting, water or gas, temperature sensors, fire protection systems, gas flashover, air conditioning systems, entertainments systems and security systems such as intruders detectors and alarms. Everything supported by an architecture net which provides a broadband residential services gateway. The main goal of this PFG was the development of a low-cost authentication system for the Accessible Digital Home. The idea of integrating an authentication system on the HDA, stems from the need to safeguard certain private key network resources from unauthorized access. Some of said resources are the access to the answering machine messages, the use of multimedia devices, the alarms deactivation or the parameter settings for each environment as programmed by the authenticated user (light intensity, room temperature, etc.). During the development priority was given to concepts like accessibility, usability and security. All of them necessary to create a non invasive environment that allows the users to certify their identity. A system based on stroke pattern recognition, was considered as a possible solution. This stroke is used as a key to validate users. The user must repeat the stroke that was saved on the system to validate access. The selection of this authentication mechanism among the others available options will be justified during this PFG. Two peripherals with different ranges were used to test the application. One of them was uDraw design for the PS3. It is wireless and is formed by a pen and a drawing tablet that allow us to register the different strokes drawn by the user. The other one was the Wacom Bamboo tablet, that supports the same functionality but with better accuracy. The developed tool allows another kind of peripherals like the 3-axes accelerometer digital wristwatch Texas Instruments Chronos eZ430 capable of transfering user movements to the mouse cursor. The PFG is divided by three big blocks that represent different workflows. The first block is focused on the system analysis and the technologies related to it, including algorithms for image pattern recognition that fits the user's needs. The second block describes how the beta version was developed based on the UML analysis and design previously done. It was tested and the viability of the project was verified. The last block contains the system verification and validation. These processes certify that the requirements have been fulfilled as well as the quality levels needed to reach the planned goals. Finally all the documentation has been produced. As a result of the work, an expandable system has been created, due to the introspection that provides the opportunity to separate the business logic from the code that implements it. With this technique, the code could be replaced throughout configuration files which makes the system flexible and highly scalable. Once the PFG has finished, it must therefore be concluded that the final product has been a success and high levels of quality have been achieved. This authentication tool gives us a low-cost alternative to the conventional ones. The new authentication system remains security levels reasonably high giving particular emphasis to the accessibility and the price.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El cambio climático y los diferentes aspectos del concepto de “desarrollo” están intrínsecamente interconectados. Por un lado, el desarrollo económico de nuestras sociedades ha contribuido a un aumento insostenible de las emisiones de gases de efecto invernadero, las cuales están desestabilizando el sistema climático global, generando al mismo tiempo una distribución desigual de la capacidad de las personas para hacer frente a estos cambios. Por otro lado, en la actualidad existe un amplio consenso sobre que el cambio climático impacta directamente y de manera negativa sobre el denominando desarrollo sostenible. De igual manera, cada vez existe un mayor consenso de que el cambio climático va a desafiar sustancialmente nuestra capacidad de erradicar la pobreza a medio y largo plazo. Ante esta realidad, no cabe duda de que las estrategias de adaptación son esenciales para mantener el desarrollo. Es por esto que hasta el momento, los mayores esfuerzos realizados por unir las agendas globales de la lucha contra la pobreza y del cambio climático se han dado en el entorno de la adaptación al cambio climático. Sin embargo, cada vez son más los actores que defienden, desde distintos escenarios, que existen sinergias entre la mitigación de emisiones y la mejora de las condiciones de vida de las poblaciones más vulnerables, favoreciendo así un “desarrollo sostenible” sin disminuir los recursos financieros destinados a la adaptación. Para hacer efectivo este potencial, es imprescindible identificar diseños de estrategias de mitigación que incrementen los resultados de desarrollo, contribuyendo al desarrollo sostenible al mismo tiempo que a reducir la pobreza. En este contexto se sitúa el objetivo principal de esta investigación, consistente en analizar los co-beneficios locales, para el desarrollo sostenible y la reducción la pobreza, de proyectos de mitigación del cambio climático que se implementan en Brasil. Por co-beneficios se entienden, en el lenguaje de las discusiones internacionales de cambio climático, aquellos beneficios que van más allá de la reducción de emisiones de Gases de Efecto Invernadero (GEI) intrínsecas por definición a los proyectos de mitigación. Los proyectos de mitigación más relevantes hasta el momento bajo el paraguas de la Convención Marco de las Naciones Unidas para el Cambio Climático (CMNUCC), son los denominados Mecanismos de Desarrollo Limpio (MDL) del Protocolo de Kioto. Sin embargo, existen alternativas de proyectos de mitigación (tales como los denominados “estándares adicionales” a los MDL de los Mercados Voluntarios de Carbono y las Tecnologías Sociales), que también serán tenidos en cuenta en el marco de este estudio. La elección del tema se justifica por la relevancia del mismo en un momento histórico en el que se está decidiendo el futuro del régimen climático a partir del año 2020. Aunque en el momento de redactar este documento, todavía no se ha acordado la forma que tendrán los futuros instrumentos de mitigación, sí que se sabe que los co-beneficios de estos instrumentos serán tan importantes, o incluso más, que las reducciones de GEI que generan. Esto se debe, principalmente, a las presiones realizadas en las negociaciones climáticas por parte de los países menos desarrollados, para los cuales el mayor incentivo de formar parte de dichas negociaciones se basa principalmente en estos potenciales co-beneficios. Los resultados de la tesis se estructuran alrededor de tres preguntas de investigación: ¿cómo están contribuyendo los MDL implementados en Brasil a generar co-beneficios que fomenten el desarrollo sostenible y reduzcan la pobreza?; ¿existen proyectos de mitigación en Brasil que por tener compromisos más exigentes en cuanto a su contribución al desarrollo sostenible y/o la reducción de la pobreza que los MDL estén siendo más eficientes que estos en relación a los co-beneficios que generan?; y ¿qué características de los proyectos de mitigación pueden resultar críticas para potenciar sus co-beneficios en las comunidades en las que se implementan? Para dar respuesta a estas preguntas, se ha desarrollado durante cuatro años una labor de investigación estructurada en varias fases y en la que se combinan diversas metodologías, que abarcan desde el desarrollo de un modelo de análisis de cobeneficios, hasta la aplicación del mismo tanto a nivel documental sobre 194 documentos de diseño de proyecto (denominado análisis ex-ante), como a través de 20 casos de estudio (denominado análisis ex-post). Con la realización de esta investigación, se ha confirmado que los requisitos existentes hasta el momento para registrar un proyecto como MDL bajo la CMNUCC no favorecen sustancialmente la generación de co-beneficios locales para las comunidades en las que se implementan. Adicionalmente, se han identificado prácticas y factores, que vinculadas a las actividades intrínsecas de los proyectos de mitigación, son efectivas para incrementar sus co-beneficios. Estas prácticas y factores podrán ser tenidas en cuenta tanto para mejorar los requisitos de los actuales proyectos MDL, como para apoyar la definición de los nuevos instrumentos climáticos. ABSTRACT Climate change and development are inextricably linked. On the one hand, the economic development of our societies has contributed to the unsustainable increase of Green House Gases emissions, which are destabilizing the global climate system while fostering an unequal distribution of people´s ability to cope with these changes. On the other hand, there is now a consensus that climate change directly impacts the so-called sustainable development. Likely, there is a growing agreement that climate change will substantially threaten our capacity to eradicate poverty in the medium and long term. Given this reality, there is no doubt that adaptation strategies are essentials to keep development. This is why, to date, much of the focus on poverty in the context of climate change has been on adaptation However, without diverting resources from adaptation, there may exist the potential to synergize efforts to mitigate emissions, contribute to sustainable development and reduce poverty. To fulfil this potential, it is key identifying how mitigation strategies can also support sustainable development and reduce poverty. In this context, the main purpose of this investigation is to explore the co-benefits, for sustainable development and for poverty reduction, of climate change mitigation projects being implemented in Brazil. In recent years the term co-benefits, has been used by policy makers and academics to refer the potentially large and diverse range of collateral benefits that can be associated with climate change mitigation policies in addition to the direct avoided climate impact benefits. The most relevant mitigation projects developed during the last years under the United Nations Framework Convention on Climate Change (UNFCCC) are the so-called Clean Development Mechanisms (CDM) of the Kyoto Protocol. Thus, this research will analyse this official mechanism. However, there are alternatives to the mitigation projects (such as the "add-on standards" of the Voluntary Carbon Markets, and the Social Technologies) that will also be assessed as part of the research. The selection of this research theme is justified because its relevance in a historic moment in which proposals for a future climate regime after 2020 are being negotiated. Although at the moment of writing this document, there is not a common understanding on the shape of the new mitigation instruments, there is a great agreement about the importance of the co-benefits of such instruments, which may be even more important for the Least Developed Countries that their expected greenhouse gases emissions reductions. The results of the thesis are structured around three research questions: how are the CDM projects being implemented in Brazil generating local co-benefits that foster sustainable development and poverty reduction?; are other mitigation projects in Brazil that due to their more stringent sustainable development and/o poverty reduction criteria, any more successful at delivering co-benefits than regular CDM projects?; and what are the distinguishing characteristics of mitigation projects that are successful at delivering co-benefits? To answer these research questions, during four years it has been developed a research work structured in several phases and combining various methodologies. Those methodologies cover from the development of a co-benefits assessment model, to the application of such model both to a desktop analysis of 194 project design documents, and to 20 case studies using field data based on site visits to the project sites. With the completion of this research, it has been confirmed that current requirements to register a CDM project under the UNFCCC not substantially favour co-benefits at the local level. In addition, some practices and factors enablers of co-benefits have been identified. These characteristics may be taken into consideration to improve the current CDM and to support the definition of the new international market mechanisms for climate mitigation.