95 resultados para ESTUDIO DE VIABILIDAD - PRODUCTOS LACTEOS ARTESANALES
Resumo:
Se explica las posibles razones que han obligado a varias de las plantas de biodiésel en España a cerrar a pesar de estar siendo auspiciadas por la Unión Europea y fomentadas, mediante normativas específicas y ayudas sustanciales en cada uno de los países miembros, a fin de reforzar la utilización de los biocarburantes, como energía alternativa a los combustibles fósiles, debido a las ventajas medioambientales y sociopolíticas que conllevan. Para ello se ha empezado realizando un estudio del sector y de su funcionamiento así como de la evolución reciente del mercado tanto en Europa como en España. Posteriormente se ha modelizado una planta de biodiesel tipo desde las primeras fases de su construcción hasta su puesta en funcionamiento, para, a continuación analizar su desarrollo haciendo especial hincapié en la evolución de las principales variables económicas anteriormente estudiadas que han llevado finalmente a tener que cerrarla por falta de rentabilidad. El proceso de producción del biodiésel desde aceites vegetales y grasas animales mantiene un fuerte crecimiento en los mercados de la Unión Europea al igual que en Estados Unidos y Canadá. La producción de biodiésel se ha incrementado rápidamente en los últimos años, ya que es una alternativa renovable a los carburantes, como el petróleo o el diésel. La producción por trasesterificación de aceites vegetales y grasas animales, dan al biodiésel una densidad, un punto de encendido, viscosidad, estabilidad a la oxidación similares al diésel. Estas propiedades permiten a la mezcla de biodiésel poder usarlo en motores convencionales sin necesidad de grandes modificaciones. El objetivo fundamental de este proyecto es, dentro de un entorno económico hostil, explicar el posible porqué de la situación de las plantas de biodiésel en España, haciendo un análisis de la viabilidad económico – financiera de una planta de producción de biodiésel. La instalación de la que parte el presente proyecto es la de una planta, situada en la provincia de Jaén, con una capacidad de producción de 100 000 t/año, con una previsión de funcionamiento continua y con una vida útil estimada de 15 años. Una vez finalizado el estudio económico, se ha valorado el impacto del mercado en el funcionamiento de la planta, tanto a nivel internacional debido a la competencia desleal, como nacional, debido a las ayudas en los cultivos. Se deduce que la rentabilidad de una planta de biodiésel es relativamente positiva pero viene dada por un gran número de variables internas y externas que hacen un negocio inestable y poco rentable. ABSTRACT It explains the possible reasons that have forced several biodiesel plants in Spain to close in spite of being sponsored by the European Union and promoted by specific regulations and substantial aid in each of the member countries to strengthen the use of biofuels as alternative energy to fossil fuels because of the environmental and sociopolitical involving VII For this we have begun a study of the sector and its operation as well as the recent market developments in Europe and in Spain. Later was modeled biodiesel plant type from the early stages of construction to commissioning, to then analyze its development with particular emphasis on the evolution of the main economic variables that have been previously studied eventually have to close by unprofitability. The processes and production of biodiesel (methyl ester) from vegetable oil and animal fat feedstocks remain a strong growth market in the European Union as well as the United States and Canada. Biodiesel production has increased rapidly in this last years as producers sought a renewable alternative to petroleum fuel. Produced by the trans-esterification of vegetable oils and animal fats, biodiesel has similar density, flash point, viscosity, oxidation stability to petroleum diesel. These similarities enable biodiesel blends to be used in conventional diesel engines without significant modifications. This proyect gives an overview of current developments with regard to biodiesel technology, the Spain biofuel market, and national biofuel policies, looking at closely the economic-financial feasibility of a biodiesel production plant. The installation, situated at Linares (Jaén), has a production capability of 100 000 t/year. The operation estimated is constant and with a product life of 15 years. Finished the part destined to the economic view of this project, it has been considered the adverse effects on the overall performance and the financial situation of the industry. It follows form the study that biodiesel plant´s profitability is relatively high, but it is given by a large numbers of variables, internals and externals, which have made an unviable and unsustainable business.
Resumo:
El documento se divide en dos grandes puntos: La utilización de las redes sociales en el deporte y con mayor detalle en el fútbol. El análisis de viabilidad de instalar una red social especializada para futbolistas amateur. Respecto al primero, presenta como se está usando el Social Media (SM) en los deportes, porque el actual y vertiginoso cambio en la sociedad, con la implantación de las redes sociales, proporciona una excelente forma de llegar a mercados que hace décadas eran inalcanzables. En base a lo anterior se presentan los casos de mejores prácticas de la industria deportiva en cuanto a redes sociales y cómo funcionan, y las nuevas tendencias en el tema. Además se presenta al fútbol desde un punto de vista estratégico tanto en su parte gerencial como en SM. Con lo anterior se deducen las buenas prácticas y las medidas que deberían implementarse para ampliar mercados y dar notoriedad en el mundo virtual a los clubes y ligas europeas de fútbol. Sobre el segundo punto, se plantea la viabilidad de una nueva red social para un target muy específico. Para esto se estudian las redes sociales existentes en el mercado viendo sus puntos débiles y fuertes. De todas las redes sociales analizadas, sólo hay una red social deportiva que es viable y funciona económicamente. Esta firma tiene en su cartera de productos la idea diferenciadora de la red social propuesta, validando así la propuesta del autor.
Resumo:
El estudio que se presenta estuvo dirigido a la identificación de los principios de manufactura esbelta en la PYME productora de quesos artesanales, comprobar si están preparadas para adoptar estas estrategias de producción y establecer cuanta similitud o disimilitud puede existir entre ellas. Fue realizado en la Red artesanal de productores de queso guayanés telita, un producto artesanal originario de la región Guayana de Venezuela. Se apoyo en una investigación de campo, con alcance descriptivo. Se aplicó un cuestionario basado en las buenas prácticas de producción de alimentos a 30 unidades de producción, la muestra final. Para el tratamiento de los datos, se utilizó la herramienta STATGRAPHICS. Los resultados sugieren debilidades en los factores asociados a los principios e producción esbelta, estas PYME son explotaciones familiares que pueden ser consideradas de baja escala, poseen una alta diversidad entre ellas, tienen limitaciones para garantizar la calidad del producto y su preparación para incorporarse a los sistemas de producción esbelta, evidencia considerables oportunidades de mejora.
Resumo:
Tanto los robots autónomos móviles como los robots móviles remotamente operados se utilizan con éxito actualmente en un gran número de ámbitos, algunos de los cuales son tan dispares como la limpieza en el hogar, movimiento de productos en almacenes o la exploración espacial. Sin embargo, es difícil garantizar la ausencia de defectos en los programas que controlan dichos dispositivos, al igual que ocurre en otros sectores informáticos. Existen diferentes alternativas para medir la calidad de un sistema en el desempeño de las funciones para las que fue diseñado, siendo una de ellas la fiabilidad. En el caso de la mayoría de los sistemas físicos se detecta una degradación en la fiabilidad a medida que el sistema envejece. Esto es debido generalmente a efectos de desgaste. En el caso de los sistemas software esto no suele ocurrir, ya que los defectos que existen en ellos generalmente no han sido adquiridos con el paso del tiempo, sino que han sido insertados en el proceso de desarrollo de los mismos. Si dentro del proceso de generación de un sistema software se focaliza la atención en la etapa de codificación, podría plantearse un estudio que tratara de determinar la fiabilidad de distintos algoritmos, válidos para desempeñar el mismo cometido, según los posibles defectos que pudieran introducir los programadores. Este estudio básico podría tener diferentes aplicaciones, como por ejemplo elegir el algoritmo menos sensible a los defectos, para el desarrollo de un sistema crítico o establecer procedimientos de verificación y validación, más exigentes, si existe la necesidad de utilizar un algoritmo que tenga una alta sensibilidad a los defectos. En el presente trabajo de investigación se ha estudiado la influencia que tienen determinados tipos de defectos software en la fiabilidad de tres controladores de velocidad multivariable (PID, Fuzzy y LQR) al actuar en un robot móvil específico. La hipótesis planteada es que los controladores estudiados ofrecen distinta fiabilidad al verse afectados por similares patrones de defectos, lo cual ha sido confirmado por los resultados obtenidos. Desde el punto de vista de la planificación experimental, en primer lugar se realizaron los ensayos necesarios para determinar si los controladores de una misma familia (PID, Fuzzy o LQR) ofrecían una fiabilidad similar, bajo las mismas condiciones experimentales. Una vez confirmado este extremo, se eligió de forma aleatoria un representante de clase de cada familia de controladores, para efectuar una batería de pruebas más exhaustiva, con el objeto de obtener datos que permitieran comparar de una forma más completa la fiabilidad de los controladores bajo estudio. Ante la imposibilidad de realizar un elevado número de pruebas con un robot real, así como para evitar daños en un dispositivo que generalmente tiene un coste significativo, ha sido necesario construir un simulador multicomputador del robot. Dicho simulador ha sido utilizado tanto en las actividades de obtención de controladores bien ajustados, como en la realización de los diferentes ensayos necesarios para el experimento de fiabilidad. ABSTRACT Autonomous mobile robots and remotely operated robots are used successfully in very diverse scenarios, such as home cleaning, movement of goods in warehouses or space exploration. However, it is difficult to ensure the absence of defects in programs controlling these devices, as it happens in most computer sectors. There exist different quality measures of a system when performing the functions for which it was designed, among them, reliability. For most physical systems, a degradation occurs as the system ages. This is generally due to the wear effect. In software systems, this does not usually happen, and defects often come from system development and not from use. Let us assume that we focus on the coding stage in the software development pro¬cess. We could consider a study to find out the reliability of different and equally valid algorithms, taking into account any flaws that programmers may introduce. This basic study may have several applications, such as choosing the algorithm less sensitive to pro¬gramming defects for the development of a critical system. We could also establish more demanding procedures for verification and validation if we need an algorithm with high sensitivity to programming defects. In this thesis, we studied the influence of certain types of software defects in the reliability of three multivariable speed controllers (PID, Fuzzy and LQR) designed to work in a specific mobile robot. The hypothesis is that similar defect patterns affect differently the reliability of controllers, and it has been confirmed by the results. From the viewpoint of experimental planning, we followed these steps. First, we conducted the necessary test to determine if controllers of the same family (PID, Fuzzy or LQR) offered a similar reliability under the same experimental conditions. Then, a class representative was chosen at ramdom within each controller family to perform a more comprehensive test set, with the purpose of getting data to compare more extensively the reliability of the controllers under study. The impossibility of performing a large number of tests with a real robot and the need to prevent the damage of a device with a significant cost, lead us to construct a multicomputer robot simulator. This simulator has been used to obtain well adjusted controllers and to carry out the required reliability experiments.
Resumo:
En el Código Técnico de la Edificación se define el riesgo como medida del alcance del peligro que representa un evento no deseado para las personas, expresado en términos de probabilidad vinculada a las consecuencias de un evento, también se expresa como Exigencia Básica de Resistencia y Estabilidad, que estas serán las adecuadas para que no se generen riesgos indebidos manteniendo la resistencia y estabilidad frente a las acciones e influencias previsibles durante la construcción y usos previstos de los edificios, y que además, los posibles eventos extraordinarios que puedan producirse no originen consecuencias desproporcionadas respecto a la causa original. Es ahora donde la gestión de riesgos juega un papel muy importante en la sociedad moderna, siendo esta cada vez más exigente con los resultados y calidad de productos y servicios, además de cumplir también con la responsabilidad jurídica que trae la concepción, diseño y construcción de proyectos de gran envergadura como los son la obra civil y edificación. La obra civil destinada al sector industrial debe ser ejecutada con la mayor precisión posible, pues requiere la instalación de complejos equipos y sistemas productivos que pueden producir esfuerzos dinámicos que muchas veces no se consideran en el diseño de los cimientos que lo soportan, razón por la cual interviene la gestión de riesgos para conocer y reducir los posibles riesgos de fallos que se puedan generar y así intentar aproximarse cada vez más al desarrollo de diseños eficientes y confiables, afianzando la exactitud y minimizando errores en la producción y elaboración de piezas, sistemas y equipos de las distintas áreas productivas de la industria. El presente trabajo de investigación se centra en el estudio de los riesgos técnicos existentes en el diseño y ejecución de cimentaciones para maquinarias, mediante la aplicación de varios métodos de investigación, a fin de intentar cubrir los aspectos más importantes que puedan incurrir en una posible causa de fallo de la estructura, evaluando el acoplamiento entre el sistema máquina-cimiento-suelo. Risk is defined, by the Technical Building Code (Código Técnico de la Edificación, CTE) as a measure of the scope of the hazard of an undesired event for people, expressed in terms of probability related to the consequences of an event, also is expressed as a Basic Requirement Strength and Stability these will be appropriate to not cause undue risk maintaining strength and stability against predictable actions and influences during construction and expected uses of the buildings. Nowadays, Risk Management is an important process in modern society, becoming ever more demanding about the results and quality of products and services, and also complies with the legal responsibility that brings the conception, design and construction of large projects as are civil engineering and construction projects. Civil work as a part of industry must be performed as accurately as possible, requiring the installation of sophisticated equipment and production systems which can produce dynamic forces that often are not considered in the design of the foundations, this is the reason why risk management is involved to understand and reduce the risks of failures that may arise and try to move closer to the development of efficient and reliable designs, strengthening the accuracy and minimizing errors in the production and processing of parts, systems and equipments from different production areas of the industry. This paper is a study of existing technical risks in the design and execution of foundations for machinery, through the application of various research methods, in order to try to cover the most important aspects that may produce the failure of the structure, evaluating the union between the machine-foundation system and soil.
Resumo:
Todo tipo de trabajos de investigación y desarrollo en el área de la mecanización de la recolección y manipulación de productos hortícolas requieren del conocimiento de las propiedades físicas de dichos productos. Las propiedades físicas más estudiadas hasta el momento incluyen aspectos tan variados y extensos como: fuerzas de desprendimiento y fuerzas de corte (primera fase de la recolección); parámetros físicos .como tamaño forma, peso específico, superficie externa, etc. (esenciales en las diversas fases de la manipulación y del almacenamiento) características de orientación, deslizamiento, y fricción (para el estudio del manejo de los productos); parámetros mecánicos elásticos y viscosos, de la parte carnosa de los frutos (para predecir la resistencia a los daños); absorbencia y reflectancia de las diversas radiaciones ( respuesta selectiva de diversos materiales); características aero-e hidrodinámicas para su utilización en sistemas de transporte y en corrientes fluidas); propiedades ligadas a la madurez y a la calidad: dureza de piel y carne, resistencia a la penetración, al esfuerzo cortante, etc. En los esfuerzos realizados por automatizar la tría y la clasificación de los productos cosechados, la reflexión de la luz en diversas zonas del espectro electromagnético es una de las propiedades que mayores posibilidades ofrece para resolver los diversos problemas planteados (diferencias de aspecto externo, defectos, etc.). Una de las consecuencias inevitables de la manipulación mecánica de los productos hortícolas es la aparición de daños en los mismos, que acarrean las consiguientes pérdidas económicas. Las principales causas de estos daños son compresiones e impactos contra elementos diversos, que causan magulladuras y roturas Se analizan, en base a referencias bibliográficas y a trabajos propios, cada uno de los aspectos arriba mencionados y se estudian algunos ejemplos de aplicación.
Resumo:
Los frutos sufren tras la recolección diversos cambios fisicoquímicos que determinan su calidad intrínseca. Uno de los cambios más importantes y manifiestos que ocurren durante la maduración, para muchos frutos es el del color. El resaltado mis común de las modificaciones de color es la pérdida de la pigmentación verde como consecuencia de la degradación de la clorofila, que va asociada a la síntesis o al desenmascaramiento de otros pigmentos. Los cambios de color o desaparición del color verde de la piel constituye un buen indicativo no destructivo del grado de madurez para muchos frutos, incluyendo el aguacate "Hass". Actualmente se viene realizando una extensa investigación direccionada a la detección no destructiva del grado de madurez de los frutos, desarrollando sistemas y experimentando sistemas y técnicas basadas en propiedades físicas de los productos. Sin embargo, para los frutos que presentan el cambio de color de piel durante la maduración, el análisis de estos cambios presenta diversas ventajas sobre otras técnicas, como la manipulación mínima de los frutos y la no necesidad de acoplamiento de sensores en la superficie del fruto. Además del potencial de utilización en procesos reales con alta productividad. Así varios investigadores han estudiado el color de los frutos con el fin de evaluar el grado de madurez de los mismos. Así Rood (1957), citado por Delwiche (1987), concluye que los mejores índices de madurez para el melocotón son por el orden de importancia la firmeza de la pulpa, color de la piel, color de la pulpa y contenido de clorofila de la pulpa. Sims et al. (1963) concluyen que la firmeza de la pulpa y el color de fondo pueden ser utilizados como índices de madurez para melocotones y sugiere la utilización del colorímetro "tristimulus" para el desarrollo de una carta colorimétrica para la evaluación de madurez. De la Plaza (1973), define los conceptos de" umbral de color de fondo" y de "umbral de firmeza" como licites superior e inferior, respectivamente, para la madurez de consumo de pera "Dr Jules Guyot". Delwiche et al. (1983,1985,1987) estudian las correlaciones entre la firmeza de la pulpa y otros índices de madurez y el color de fondo proponiendo una carta de colores y madurez. Martínez-Javega y Otero (1989) concluyen que hay una correlación entre la firmeza de la pulpa y el índice cromático obtenido a partir de las coordenadas Hunter L,a,b para el aguacate cv. "HASS" con distintos tratamientos de conservación. Estudios semejantes para otros productos se han referido: Bittner y Noris (1986); Long et al. (1973); Kramer (1976); Robbins y Moore (1990); Pai y Sastry(1990)L El presente trabajo tiene como objetivo estudiar los índices cromáticos obtenidos a partir de las coordenadas Hunter L, a, b para la piel y la pulpa de aguacate cv." HASS ".
Resumo:
El objetivo de este Proyecto Fin de Carrera es realizar el estudio de las características acústicas del Teatro Tomás y Valiente de Fuenlabrada mediante medidas y con el apoyo de los resultados obtenidos mediante la simulación del campo sonoro. El recinto está destinado principalmente a representaciones teatrales, empleándose también como sala polivalente, de forma que se analizará su comportamiento acústico e idoneidad ante la variedad de usos a los que se destina. Para ello, se realizan medidas experimentales in situ de todos los parámetros representativos de un recinto acústico y la predicción de los mismos mediante la simulación de la sala a través del software de simulación acústica EASE, de forma que las características acústicas obtenidas mediante ambos procesos sean comparadas proponiéndose mejoras en el entorno para cumplimiento de parámetros acústicos óptimos exigibles a la sala. En primer lugar se exponen los principales conceptos teóricos a tener en cuenta en el ámbito de la acústica, detallando las diferentes teorías de estudio, los principios básicos de la psicoacústica. Además, se definen los criterios utilizados en el diseño de recintos acústicos y parámetros que definan la calidad según el uso al que se destine en función del estudio de la utilización habitual de la sala y valores óptimos de los parámetros acústicos correspondientes a salas de tamaño y uso similar. A continuación, se describe la metodología aplicada para la realización de las medidas in situ obteniendo resultados de los parámetros acústicos representativos del recinto para el análisis de sus características acústicas y posterior comparación con la predicción de los mismos mediante la simulación del modelo informático. También se muestra el proceso que se ha seguido para el diseño del modelo acústico a partir de los planos del teatro y medidas realizadas en el recinto, para la simulación de parámetros y características acústicas. Finalmente se exponen las conclusiones extraídas tras el estudio realizado y la propuesta de mejoras en el entorno para cumplimiento de parámetros acústicos óptimos que se puedan exigir a esta sala, incluyendo un presupuesto que muestre la viabilidad económica del proyecto. ABSTRACT. The goal of this final project, is to perform an acoustic study and simulation of the Tomás y Valiente theatre in Fuenlabrada. These premises are mainly used for stage plays, but also as a multipurpose space, therefore its acustic behaviour and suitability for the expected uses will be analyzed. To accomplish this task, experimental measures for all the representative parameters for an acoustic hall, will be taken on site. The prediction for those measurements will be simulated through EASE software, so the acoustic characteristics obtained using both methods will be compared, and improvements will be proposed in order to achieve the best acoustic parameters, the hall can have. First at all, the theoretical concepts definition involves exposing the main concepts to consider in the acoustics field, detailing the basic principles of the psychoacoustic. On top of the criteria used in the design of acoustic enclosures and parameters defining the quality according to the use the enclosure is intended for. Research on the most common usage for the space, and optimal values, comparing it with similar rooms in size and use. Experimental measures are made of the acoustic parameters representative of the enclosure for the analysis of its acoustic characteristics and its later comparison with the prediction of the parameters through informatics model simulation. Also the process which has been followed for the design of acoustic model of the theater are taken from on site measurements, experimental representative measures and acoustic parameters, for the acoustic characteristics analysis and post comparison with the software model simulation and prediction. Acoustic design of the theater taking as a base the building blueprints, and manual measures, for the parameters and acoustic characteristics simulation. Finally, the conclusions extracted after the performed research are shown and the propose of improvements in the environment for fulfillment of acoustic optimal parameters which can be required to this room, including a quote with shows the economical viability of the project.
Resumo:
Este proyecto es una documentación sintetizada, para los alumnos de Grado en Imagen y Sonido, de todos los conceptos que conciernen a la asignatura Sistemas Audiovisuales. No obstante puede servir para todo aquel al que le interese la materia, sin ser necesariamente estudiante. El material se basa en la recopilación de libros de diversos autores, páginas web y catálogos de productos de empresas del sector audiovisual. Se intenta con esto incentivar en el auto-aprendizaje, proporcionando multitud de fuentes de información. El documento se ha dividido en dos bloques temáticos correspondientes a los temas: 1- Dispositivos de captación y reproducción de sonido e imagen. 2- Señales y formatos de audio y vídeo. Aunque no es tema de este proyecto pero si de la asignatura hay que nombrar el tercer bloque temático, Introducción a los sistemas de transmisión de audio y vídeo. Dado que hay suficiente documentación de estudio sobre éste se ha optado por no incluirlo. Cada bloque temático a su vez contiene cuatro unidades didácticas. Cada unidad se ha desarrollado de manera independiente a las demás, es decir, que cada unidad puede ser estudiada sin necesidad de recurrir a otras unidades para comprender la/s que interesa/n. Por otro lado hay que remarcar que todos los capítulos tienen relación entre sí. La documentación se complementa al final de cada unidad didáctica con un test de evaluación que a su vez ha sido publicado dentro del entorno de Moodle en la página correspondiente a la asignatura. Para ello se ha accedido a esta plataforma on line con el rol de editor de contenido. Para la elaboración de los cuestionarios se han tomado los conceptos clave de cada unidad didáctica, de esta manera los alumnos pueden saber si han comprendido lo que se explica en la documentación y mejorar así sus conocimientos. Para la redacción y estructuración de cada unidad didáctica, así como el documento en general, se ha cogido como referencia la Taxonomía de objetivos de la Educación o Taxonomía de Bloom. Dado que el dominio cognitivo del lector se encuadra dentro del ‘nivel de comprensión’, el documento no resulta tedioso en su estudio. No obstante introduce al alumno en los temas más importantes de la materia, proporcionando una base sólida de conocimiento en sistemas audiovisuales. Es precisamente el interés en hacer lo más accesible posible este documento lo que ha dificultado su elaboración, ya que el área de estudio es muy extensa y es difícil sintetizar sin eliminar contenido importante. No obstante para hacer más fiable el documento se ha seguido las pautas temáticas y argumentales marcadas por el Departamento Ingeniería Audiovisual y Comunicaciones de la Escuela Universitaria de Ingeniería Técnica de Telecomunicaciones de la Universidad Politécnica de Madrid verificando cada uno de los capítulos con los profesores de este departamento. Al tratarse de un proyecto con fines académicos, el texto se ha apoyado por figuras, esquemas, tablas, anexos y desarrollo de ecuaciones para hacer más comprensible lo que se expone. Algunos de estas informaciones se incluyen en inglés y no se ha creído conveniente su traducción dado que gran parte de la información que encontrará el alumno a lo largo de la carrera vendrá escrita en este idioma. Por último hay que decir al lector que es conveniente, pero no necesario, tener ciertas nociones de cálculo, álgebra, ondas y circuitos para seguir con fluidez lo que a continuación se expone. ABSTRACT. This project concerns all the concepts and topics of the subject Audiovisual Systems. It has been created for students of Sound and Image Degree, however everyone who's interested in this subject could use it even if isn’t a student. The document is divided into two main thematic sections corresponding to the topics: 1- Catchment and reproduction devices of sound and image. 2- Audio and video signals and formats. Even if this subject it isn’t mention in this project, it’s very important to quote a third important thematic of this block , such as Introduction about Transmission of Audio and Video System. Since there is enough study-documentation about this topic, it has been taken the choice to don’t integrate this chapter in this project. Every thematic block in this project is divided in chapters that have been developed in an independent way: that’s means that for each unit it is not necessary to look forward to other chapters in this project On the other hand it is necessary to emphasize that all the chapters are related one to each other. Every didactic unit and chapter ends with an evaluation test , that has been published with Moodle System using a content editor account. Those exercises will help in a easy way the student to improve his skills and his own ability. Collection of books of various authors, websites and product catalogs of audiovisual companies are used in this document and are included for stimulate the curiosity of the student. The key concepts of each unit have been used for making tests, so in this way students could be able to know if they have understood what the documentation explains and improve his skills. For writing and building each didactic unit, such as in the general document, it has been taken reference from Bloom’s Taxonomy. Since the skills and competence of the student are concentrated in the ‘comprehension level’, it will not be very complicated or hard to study. In spite of everything, all of thematic treated and discussed in documentation gives a solid knowledge of topic about audiovisual systems. The most difficult thing of realizing this document it was to take very complex topic and try to explain them as simply as possible In spite of everything for making this document as much accurated as possible it has been taken as point of reference rules established by the Department of Audiovisual Engineering & Communications of University School of Telecommunications Engineering (EUITT-UPM). This Project reach academic goal, for this reason in this document images, tables, annexes and outlines are enclosed in this document for an easier compression. At last, it’s necessary to say that each lector must have necessary a basic knowledge about arithmetic, calculus, waves and electronic circuits in the order that he could follow in a fluently way what the documentation set out.
Resumo:
En la presente investigación se buscó estudiar el efecto de la adición de fibras metálicas como refuerzo en hormigones de alta resistencia, y en especial su comportamiento frente al impacto de proyectiles. Se efectuó el estudio sobre un hormigón de alta resistencia (HAR), analizando los aspectos mecánicos, durabilidad y trabajabilidad para su colocación en obra. Las pruebas de laboratorio se llevaron a cabo en el Laboratorio de Materiales de Construcción de la Escuela Técnica Superior de Caminos Canales y Puertos de la UPM y los ensayos balísticos en la galería de tiro cubierta del Polígono de Experiencia de Carabanchel, adscrito a la Dirección General de Infraestructura del Ministerio de la Defensa. La caracterización del HAR empleado en el estudio se centró en los aspectos de resistencias mecánicas a compresión, tracción, flexotracción, tenacidad a flexotracción, punzonamiento, retracción, fluencia, temperatura interna y resistencia al impacto de proyectiles, siempre buscando de manera primordial analizar el efecto de la adición de fibras en el hormigón de alta resistencia. El programa de ensayos balísticos comprendió la fabricación de 47 placas de hormigón de diferentes espesores, desde 5 a 40 cm., 26 de dichas placas eran de HAR con una adición de fibras metálicas de 80 kg/m3, 11 de ellas eran de HAR sin fibras y 10 de un hormigón de resistencia convencional con y sin fibras; sobre dichas placas se efectuaron diversos impactos con proyectiles de los cuatro calibres siguientes: 7.62 AP, 12.70 M8, 20 mm APDS y 25 mm APDS. Las pruebas mostraron que el HAR presenta una mayor resistencia a los impactos de proyectiles, aunque sin la adición de fibras su fragilidad es un serio inconveniente para su utilización como barrera protectora, la adición de fibras reduce considerablemente la fragmentación en la cara posterior “scabbing” y en menor medida en la cara anterior “spalling”. También se incrementa la capacidad del hormigón a la resistencia de múltiples impactos. Se efectuó un estudio de las diferentes formulas y modelos, en especial el modelo desarrollado por Moreno [60], que se vienen utilizando para el diseño de barreras protectoras de hormigón contra impacto de proyectiles, analizando su viabilidad en el caso del hormigón de alta resistencia, hormigón para el cual no fueron desarrolladas y para el que no existen bases de cálculo específicas. In this research we have tried to study the effect of adding metallic fibres as a means of reinforcing high strength concrete, and especially its behaviour when impacted upon by projectiles. The study was carried out using high strength concrete (HSC), analysing its mechanical facets, durability and malleability when used in construction. The laboratory tests took place in the Laboratorio de Materiales de Construcción of the Escuela Técnica Superior de Caminos Canales y Puertos of the Universidad Politécnica de Madrid, and the ballistic tests were carried out in the covered shooting gallery of the Polígono de Experiencias in Carabanchel (Madrid), belongs to the Departamento de Infraestructura of the Ministerio de Defensa. The aspects of the HSC studied are its mechanical strength to compression, traction, flexotraction, resilience to flexo-traction, shear strength, creep, shrinkage, internal temperature and strength to the impact of projectiles, always looking to analyse the effect of adding fibres to HSC. The ballistic testing process required the construction of 47 concrete plates of different thicknesses, from 5 to 40 cm, 26 made which HSC containing of 80 kg/m3 metallic fibres of, 11 made of HSC without fibres, and 10 made with concrete of normal strength with and without fibres. These plates were subjected to a variety of impacts by four projectile, 7.62 AP, 12.70 M8, 20 mm APDS and 25 mm APDS. The results showed that HSC has a greater resistance to the impact of projectiles, although without the addition of fibres, its fragility makes it much less suitable for use as a protective barrier. The addition of fibres reduces considerably frontal fragmentation, known as “scabbing”, and to a lesser extent causes fragmentation of the reverse side, known as “spalling”. In addition, the concrete’s capacity to resist multiple impacts is improved by its letter ductility. A study was carried out on the various formulae and models used to design protective concrete barriers impacted on by projectiles, analysing their viability in the case of HSC for which they were not developed and for which no specific calculations exist.
Resumo:
Las metodologías para el desarrollo de productos se han convertido en herramientas de vital importancia en el ámbito del desarrollo software debido a que su implantación nos permite estructurar, planificar y controlar el proceso de desarrollo completo de un determinado proyecto y obtener como resultado un producto final exitoso. Por tanto, la elección de una metodología para su implantación en una determinada empresa, es un proceso que requiere especial atención, ya que del éxito o el fracaso de su establecimiento dependerán en gran medida los resultados de los diversos procesos de desarrollo de esa entidad. El trabajo de fin de grado extractado en este documento, tiene como objetivo principal realizar un estudio sobre algunas de las diversas metodologías basadas en líneas de productos software (LPS) presentes en el mercado, tales como el modelo TWIN, el modelo WATCH, el modelo ESPLEP o el modelo SEI. Dicho estudio y la posterior comparativa de los modelos, persigue el propósito de adaptar y concretar alguna de estas metodologías al ciclo de vida de desarrollo habitual en el mercado de la ingeniería de software y más concretamente a los productos desarrollados por la empresa everis. Sin embargo, tras la realización de la comparativa, se llego a la conclusión de que las diferentes características que ofrecen las metodologías a estudio, no satisfacen por completo las necesidades específicas demandadas por everis. Por este motivo, al no poder adaptar ninguno de los modelos, el objetivo principal paso a ser la creación de una metodología propia que aunara las características más importantes de cada uno de los modelos estudiados y se compaginara con las particularidades proporcionadas por el modelo COM exclusivo de everis, obteniendo como resultado un modelo propio de desarrollo ágil, basado en líneas de productos software. Por último, una vez creada la nueva metodología, se buscaba alcanzar dos objetivos finales. El primero es la realización de un pequeño estudio con el propósito de conocer las diversas herramientas “open source” que puedan servir como base o apoyo para la metodología. Y el segundo, realizar un estudio de aplicabilidad del nuevo modelo en un proyecto simulado con el fin de comprobar su efectividad.
Resumo:
Los materiales de banda intermedia han atraido la atención de la comunidad científica en el campo de la energía solar fotovoltaica en los últimos años. Sin embargo, con el objetivo de entender los fundamentos de las células solares de banda intermedia, se debe llevar a cabo un estudio profundo de la características de los materiales. Esto se puede hacer mediante un modelo teórico usando Primeros Principios. A partir de este enfoque se pueden obtener resultados tales como la estructura electrónica y propiedades ópticas, entre otras, de los semiconductores fuertemente dopados y sus precursores. Con el fin de desentrañar las estructuras de estos sistemas electrónicos, esta tesis presenta un estudio termodinámico y optoelectrónico de varios materiales fotovoltaicos. Específicamente se caracterizaron los materiales avanzados de banda intermedia y sus precursores. El estudio se hizo en términos de caracterización teórica de la estructura electrónica, la energética del sistema, entre otros. Además la estabilidad se obtuvo usando configuraciones adaptadas a la simetría del sistema y basado en la combinatoria. Las configuraciones de los sitios ocupados por defectos permiten obtener información sobre un espacio de configuraciones donde las posiciones de los dopantes sustituidos se basan en la simetría del sólido cristalino. El resultado puede ser tratado usando elementos de termodinámica estadística y da información de la estabilidad de todo el espacio simétrico. Además se estudiaron otras características importantes de los semiconductores de base. En concreto, el análisis de las interacciones de van der Waals fueron incluidas en el semiconductor en capas SnS2, y el grado de inversión en el caso de las espinelas [M]In2S4. En este trabajo además realizamos una descripción teórica exhaustiva del sistema CdTe:Bi. Este material de banda-intermedia muestra características que son distintas a las de los otros materiales estudiados. También se analizó el Zn como agente modulador de la posición de las sub-bandas prohibidas en el material de banda-intermedia CuGaS2:Ti. Analizándose además la viabilidad termodinámica de la formación de este compuesto. Finalmente, también se describió el GaN:Cr como material de banda intermedia, en la estructura zinc-blenda y en wurtztite, usando configuraciones de sitios ocupados de acuerdo a la simetría del sistema cristalino del semiconductor de base. Todos los resultados, siempre que fue posible, fueron comparados con los resultados experimentales. ABSTRACT The intermediate-band materials have attracted the attention of the scientific community in the field of the photovoltaics in recent years. Nevertheless, in order to understand the intermediate-band solar cell fundamentals, a profound study of the characteristics of the materials is required. This can be done using theoretical modelling from first-principles. The electronic structure and optical properties of heavily doped semiconductors and their precursor semiconductors are, among others, results that can be obtained from this approach. In order to unravel the structures of these crystalline systems, this thesis presents a thermodynamic and optoelectronic study of several photovoltaic materials. Specifically advanced intermediate-band materials and their precursor semiconductors were characterized. The study was made in terms of theoretical characterization of the electronic structure, energetics among others. The stability was obtained using site-occupancy-disorder configurations adapted to the symmetry of the system and based on combinatorics. The site-occupancy-disorder method allows the formation of a configurational space of substitutional dopant positions based on the symmetry of the crystalline solid. The result, that can be treated using statistical thermodynamics, gives information of the stability of the whole space of symmetry of the crystalline lattice. Furthermore, certain other important characteristics of host semiconductors were studied. Specifically, the van der Waal interactions were included in the SnS2 layered semiconductor, and the inversion degree in cases of [M]In2S4 spinels. In this work we also carried out an exhaustive theoretical description of the CdTe:Bi system. This intermediate-band material shows characteristics that are distinct from those of the other studied intermediate-band materials. In addition, Zn was analysed as a modulator of the positions of the sub-band gaps in the CuGaS2:Ti intermediate-band material. The thermodynamic feasibility of the formation of this compound was also carried out. Finally GaN:Cr intermediate-band material was also described both in the zinc-blende and the wurtztite type structures, using the symmetry-adapted-space of configurations. All results, whenever possible, were compared with experimental results.
Resumo:
La acción del dibujar intenta presentarse en este texto como lenguaje mudo, práctica común general y práctica común en el campo arquitectónico en concreto; y también como acción, apertura, exploración (no representación) en el estado naciente del proyecto. La tesis se presenta como un estudio basado en la experiencia directa, la observación in situ (Practice Based Design Doctórate) intentando reflexionar no desde sus productos alcanzados al dibujar, sino desde la propia acción, enfatizando la dinamicidad del cuerpo como productor de gestos dinámicos. El trabajo busca describir la acción del trazar como apertura, exploración (no representación) en el estado naciente del proyecto. Es el cruce entre la acción experienciada y el pensamiento crítico respecto al hacer con aproximaciones a la artesanía (Sennett, 2010), al placer del dibujar (Nancy, 2013) y la aventura de conformar (Badiou, 2006). La experiencia en el dibujar que este estudio recoge es la desarrollada por la autora en el contexto pedagógico del D.I.G.A. de la E.T.S.A. de Madrid en concreto en las asignaturas “Dibujo Avanzado e Interpretación Gráfica (DAII) I y II” y “Dibujo del Natural” ambas impartidas por el profesor Antonio Verd Herrero y en la participación en los trabajos del Grupo de Investigación y de Innovación Educativa denominado: “Hypermedia” dirigidos por el profesor Javier Seguí, en el periodo que va del año 2007 a la actualidad. La colección de acontecimientos que surgió de esta experiencia y se formó de aproximaciones sucesivas presenta algunos rasgos característicos de la acción del dibujar. Los acontecimientos abordan la acción del dibujar desde una experiencia muda, un tipo de lenguaje, escritura y comunicación común, intercultural pero a la vez impersonal, desde su relación con la escritura, la palabra, el movimiento, el gesto y su imagen. El dibujar se presenta como modo de exploración en la investigación proyectual basada en la arbitrariedad que requiere voluntad, compromiso, ir en contra para participar en cualquier transformación de los límites (físicos, nacionales, sociales, de género, religión, sentido). El dibujar no representativo se presenta como técnica imaginaria radical, “terapia” configural con capacidad para la experimentación con uno mismo (Sloderdijk, 2003), un modo de comunicación intercultural que, sin embargo, siempre recurre al lenguaje verbal, leída e interpretada para cobrar sentido. ABSTRACT The action of drawing is intended to be presented in this text as a mute language, a common practice in general and a common practice in the field of architecture specifically; and also as an action, opening, exploration (not representation) at the birth stage of a project. The thesis forms a study based on a direct observation in an in situ experience (Practice Based Design Doctórate), which intends to reflect not on the products produced by drawing, but on the action itself, emphasizing on the dynamics of the body as a generator of dynamic gestures. The work is the intersection of experienced action and critical thinking related with the making with an approach to a path on craftsmanship (Sennett, 2010), the pleasure in drawing (Nancy, 2013) and the adventure of compromise/ conciliation (Badiou, 2006). The experience in drawing was collected and developed for this study by the author in the context of D.I.G.A. at the E.T.S.A. of Madrid and in particular at the courses of “Advanced Drawing and Graphic Interpretation” (DAII) I y II” and “Life drawing”, together with the active participation and the work of the investigation and Innovation Educational Group “Hypermedia”, coordinated by professor Javier Seguí, during the period starting the year 2007 until the present (2013). The collection of the events derives from a process of successive attempts to approach some characteristic aspects of the action of drawing. The events approach the action of drawing as a mute experience, a kind of language, common communication, writing, gesture and image. Drawing is presented as a way of exploration for a project's investigation, based on arbitrarily and on the asking “what if”. At the same time this process requires will, compromise, opposition in order to participate in a transformation of any kind of limits (physical, national, social, genre, religion, sense). This thesis aims to present non-representative drawing as a radical imaginary technique, a configurational ‘therapy’ with the capacity to experiment with oneself (Sloderdijk, 2003). It can also be considered as a way of intercultural communication which always uses the verbal, readable and interpreted language in order to charge sense.
Resumo:
Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.
Resumo:
En los últimos años, las sociedades industrializadas han tomado una mayor conciencia sobre el problema que suponen las emisiones indiscriminadas de gases de efecto invernadero a la atmósfera. El hormigón, cuyo principal componente es el cemento, es probablemente el material más utilizado en construcción. En la actualidad, las emisiones globales de CO2 debidas a la combustión del CaCO3 del cemento Pórtland representan entre el 5% y el 10% respecto del total. Estos valores son de gran interés si se considera que el compromiso aceptado al firmar el Protocolo de Kioto es de una reducción del 5% antes del año 2020, sobre el total de gases producidos. El principal objetivo del presente trabajo es el estudio microestructural y de los procesos de hidratación de los cementos con adiciones. Para ello se propone contribuir a la investigación sobre nuevos productos cementicios basados en micropartículas esféricas vítreas que pueden adicionarse al cemento antes del proceso de amasado. Los resultados obtenidos se han contrastado con las adiciones convencionales de más uso en la actualidad. El nuevo material basa su composición en la química del aluminio y el silicio. Al disminuir la cantidad de CaCO3, se contribuye al desarrollo sostenible y a la reducción de emisiones de CO2. La patente creada por el Grupo Cementos Pórtland Valderrivas (GCPV), describe el proceso de producción de las cemesferas (WO 2009/007470, 2010). Los productos que forman la materia prima para la elaboración de las cemesferas son arcillas, calizas, margas o productos o subproductos industriales, que tras su molienda, son fundidos mediante un fluido gaseoso a elevada temperatura (entre 1250ºC y 1600ºC). Este proceso permite obtener un producto final en forma esférica maciza o microesfera, que tras estabilizarse mediante un enfriamiento rápido, consigue una alta vitrificación idónea para su reactividad química, con una mínima superficie específica en relación a su masa. El producto final obtenido presenta prácticamente la finura requerida y no precisa ser molido, lo que reduce las emisiones de CO2 por el ahorro de combustible durante el proceso de molienda. El proceso descrito permite obtener un amplio abanico de materiales cementantes que, no solo pueden dar respuesta a los problemas generados por las emisiones de CO2, sino también a la disponibilidad de materiales en países donde hasta el momento no se puede fabricar cemento debido a la falta de calizas. Complementariamente se ha optimizado el método de cálculo del grado de hidratación a partir de los resultados del ensayo de ATD-TG en base a los modelos de cálculo de Bhatty y Pane. El método propuesto permite interpretar el comportamiento futuro del material a partir de la interpolación numérica de la cantidad de agua químicamente enlazada. La evolución del grado de hidratación tiene una relación directa con el desarrollo de la resistencia mecánica del material. Con el fin de caracterizar los materiales de base cemento, se ha llevado a cabo una amplia campaña experimental en pasta de cemento, mortero y hormigón. La investigación abarca tres niveles: caracterización microestructural, macroestructural y caracterización del comportamiento a largo plazo, fundamentalmente durabilidad. En total se han evaluado ocho adiciones diferentes: cuatro adiciones convencionales y cuatro tipos de cemesferas con diferente composición química. Los ensayos a escala microscópica comprenden la caracterización química, granulométrica y de la superficie específica BET de los materiales anhidros, análisis térmico diferencial y termogravimétrico en pasta de cemento y mortero, resonancia magnética de silicio en pasta de cemento, difracción de rayos X de los materiales anhidros y de las probetas de pasta, microscopía electrónica de barrido con analizador de energía dispersiva por rayos X en pasta y mortero, y porosimetría por intrusión de mercurio en mortero. La caracterización macroscópica del material comprende ensayos de determinación del agua de consistencia normal y de los tiempos de inicio y fin de fraguado en pasta de cemento, ensayos de resistencia mecánica a flexión y compresión en probetas prismáticas de mortero, y ensayos de resistencia a compresión en probetas de hormigón. Para caracterizar la durabilidad se han desarrollado ensayos de determinación del coeficiente de migración de cloruros y ensayos de resistividad eléctrica en probetas de mortero. Todos los ensayos enumerados permiten clarificar el comportamiento de las cemesferas y compararlo con las distintas adiciones de uso convencional. Los resultados reflejan un buen comportamiento resistente y durable de los materiales con adición de cemesferas. La caracterización microscópica refleja su relación con las propiedades mesoscópicas y permite comprender mejor la evolución en los procesos de hidratación de las cemesferas. In recent years industrialised societies have become increasingly aware of the problem posed by indiscriminate emission of greenhouse gases into the atmosphere. Concrete, with a main component being cement, is arguably the most widely used construction material. At present, global emissions of CO2 due to the combustion of CaCO3 from Portland cement represent between 5% and 10% of the total. If the requirement of the Kyoto Protocol of a reduction of 5% of the total gas produced before 2020 is considered, then such values are of significant interest. The main objective of this work is the assessment of the microstructure and the hydration processes of cements with additions. Such an examination proposes research into new cementitious products based on vitreous spherical microparticles that may be added to the cement before the mixing process. The results are compared with the most commonly used conventional additions. The new material bases its composition on the chemistry of aluminium and silicates. By decreasing the amount of CaCO3, it is possible both to contribute to sustainable development and reduce CO2 emissions. The patent created by Grupo Cementos Portland Valderrivas (GCPV) describes the production process of microspheres (WO 2009/007470, 2010). The products that form the raw material for manufacture are clays, lime-stone, marl and industrial products or by-products that melt after being ground and fed into a gaseous fluid at high temperatures (1250°C and 1600°C). This process allows the obtaining of a product with a solid-spherical or micro-spherical shape and which, after being stabilised in a solid state by rapid cooling, obtains a high vitrification suitable for chemical reactivity, having a minimal surface in relation to its mass. Given that the final product has the fineness required, it prevents grinding that reduces CO2 emissions by saving fuel during this process. The process, which allows a wide range of cementitious materials to be obtained, not only addresses the problems caused by CO2 emissions but also enhances the availability of materials in countries that until the time of writing have not produced cement due to a lack of limestone. In addition, the calculation of the degree of hydration from the test results of DTA-TG is optimised and based on Bhatty and Pane calculation models. The proposed method allows prediction of the performance of the material from numerical interpolation of the amount of chemically bound water. The degree of hydration has a direct relationship with the development of material mechanical strength. In order to characterise the cement-based materials, an extensive experimental campaign in cement paste, concrete and mortar is conducted. The research comprises three levels: micro-structural characterisation, macro-structural and long-term behaviour (mainly durability). In total, eight additions are assessed: four conventional additions and four types of microspheres with different chemical compositions. The micro-scale tests include characterisation of chemical composition, particle size distribution and the BET specific surface area of anhydrous material, differential thermal and thermogravimetric analysis in cement paste and mortar, silicon-29 nuclear magnetic resonance in cement paste, X-ray diffraction of the anhydrous materials and paste specimens, scanning of electron microscopy with energy dispersive X-ray analyser in cement paste and mortar, and mercury intrusion porosimetry in mortar. The macroscopic material characterisation entails determination of water demand for normal consistency, and initial and final setting times of cement paste, flexural and compressive mechanical strength tests in prismatic mortar specimens, and compressive strength tests in concrete specimens. Tests for determining the chloride migration coefficient are performed to characterise durability, together with electrical resistivity tests in mortar specimens. All the tests listed allow clarification of the behaviour of the microspheres and comparison with the various additions of conventional use. The results show good resistance and durable behaviour of materials with a microsphere addition. Microscopic characterisation reflects their relationship with mesoscopic properties and provides insights into the hydration processes of the microspheres.