281 resultados para Enginyeria de costes
Resumo:
Te dicen que• aproximadamente la mitad del esfuerzo y del coste de desarrollo de una aplicación se lo lleva hoy la interfaz de usuario gráfica y casi ni te lo crees, de lo desproporcionado que a primera vista parece. Y, sin embargo, es verdad, aunque en la medida en que los métodos y técnicas de la ingeniería de la "usabilidad" prosigan su avance, esos costes irán lógicamente disminuyendo. Pero lo que no suscita duda es la irreversibilidad del enfoque de "usabilidad", que, para el autor, es un componente de uno de los nuevos paradigmas de la tecnología de la información.
Resumo:
El presente trabajo es una propuesta de una Red de Transporte de Gas Natural que implementará el sistema de consumo de reservas energéticas del Perú, esta propuesta parte de un diseño que parte del actual Yacimiento de Gas Natural en la localidad de Las Malvinas – Cuzco suministrando el fluido a Junín y Pasco como puntos intermedios de entrega; el final de esta red finaliza en la cuidad de Huánuco. En este diseño se muestra un estudio básico de la demanda para determinar el caudal de transporte, el trazado, el cálculo hidráulico del diámetro en su primera aproximación, descripción de la línea de conducción y sus instalaciones auxiliares para su correcto funcionamiento, pliego de condiciones para la construcción, la planificación de la construcción y su correspondiente estudio económico donde se valorarán las inversiones, costes para estimar así su rentabilidad.
Resumo:
Este proyecto aborda el estudio geotécnico para la cimentación del terraplén de acceso a un paso superior sobre el tramo Albatera-Elche, incluido en la Línea de Alta Velocidad Madrid-Castilla La Mancha-Comunidad Valenciana-Región de Murcia. Con el fin de identificar y clasificar los materiales del terreno de cimentación, se analiza el marco geológico regional y local del área de estudio. En el proyecto se presentan los resultados obtenidos en la campaña de reconocimiento de campo y en los ensayos realizados en laboratorio, a partir de los cuales se realiza la caracterización geotécnica de los materiales y se determinan sus parámetros geotécnicos. Asimismo, se considera la singular problemática geotécnica de la zona de estudio, por lo que se analiza la estabilidad global del terraplén, los tiempos de consolidación del terreno y se realiza una estimación de asientos. De acuerdo a todos los cálculos y consideraciones realizadas, se determinan los tratamientos de mejora y refuerzo del terreno de cimentación. Por último, se evalúan los costes derivados de la campaña de reconocimiento geotécnico y de la redacción del presente estudio. ABSTRACT This project is a geotechnical report for the foundation of the access embankment to an overpass in the railway section Albatera-Elche, included in the High Speed Rail line Madrid-Castilla La Mancha-Comunidad Valenciana-Región de Murcia. In order to identify and classify the foundation soil materials, the regional and local geological frame of the study area is analyzed. The results of the field survey and laboratory tests performed are displayed in the project, from which the geotechnical characterization of materials is made and geotechnical parameters have been determined. It is also considered the special geotechnical problems in the study area, so the overall stability of the embankment and ground consolidation times are analyzed, as well as an estimate of ground settlement is also made. According to all calculations and considerations made, treatments to improve and strengthen the foundation soil are determined. Finally, the costs of the geotechnical campaign and the elaboration of this report are evaluated.
Resumo:
La óptica anidólica es una rama de la óptica cuyo desarrollo comenzó a mediados de la década de 1960. Este relativamente nuevo campo de la óptica se centra en la transferencia eficiente de la luz, algo necesario en muchas aplicaciones, entre las que destacamos los concentradores solares y los sistemas de iluminación. Las soluciones de la óptica clásica a los problemas de la transferencia de energía de la luz sólo son adecuadas cuando los rayos de luz son paraxiales. La condición paraxial no se cumple en la mayoría de las aplicaciones para concentración e iluminación. Esta tesis contiene varios diseños free-form (aquellos que no presentan ninguna simetría, ni de rotación ni lineal) cuyas aplicaciones van destinadas a estos dos campos. El término nonimaging viene del hecho de que estos sistemas ópticos no necesitan formar una imagen del objeto, aunque no formar la imagen no es una condición necesaria. Otra palabra que se utiliza a veces en lugar de nonimaging es la palabra anidólico, viene del griego "an+eidolon" y tiene el mismo significado. La mayoría de los sistemas ópticos diseñados para aplicaciones anidólicas no presentan ninguna simetría, es decir, son free-form (anamórficos). Los sistemas ópticos free-form están siendo especialmente relevantes durante los últimos años gracias al desarrollo de las herramientas para su fabricación como máquinas de moldeo por inyección y el mecanizado multieje. Sin embargo, solo recientemente se han desarrollado técnicas de diseño anidólicas capaces de cumplir con estos grados de libertad. En aplicaciones de iluminación el método SMS3D permite diseñar dos superficies free-form para controlar las fuentes de luz extensas. En los casos en que se requiere una elevada asimetría de la fuente, el objeto o las restricciones volumétricos, las superficies free-form permiten obtener soluciones de mayor eficiencia, o disponer de menos elementos en comparación con las soluciones de simetría de rotación, dado que las superficies free-form tienen más grados de libertad y pueden realizar múltiples funciones debido a su naturaleza anamórfica. Los concentradores anidólicos son muy adecuados para la captación de energía solar, ya que el objetivo no es la reproducción de una imagen exacta del sol, sino sencillamente la captura de su energía. En este momento, el campo de la concentración fotovoltaica (CPV) tiende hacia sistemas de alta concentración con el fin de compensar el gasto de las células solares multi-unión (MJ) utilizadas como receptores, reduciendo su área. El interés en el uso de células MJ radica en su alta eficiencia de conversión. Para obtener sistemas competitivos en aplicaciones terrestres se recurre a sistemas fotovoltaicos de alta concentración (HCPV), con factores de concentración geométrica por encima de 500x. Estos sistemas se componen de dos (o más) elementos ópticos (espejos y/o lentes). En los sistemas presentados a lo largo de este trabajo se presentan ejemplos de concentradores HCPV con elementos reflexivos como etapa primaria, así como concentradores con elementos refractivos (lente de Fresnel). Con la necesidad de aumentar la eficiencia de los sistemas HCPV reales y con el fin de proporcionar la división más eficiente del espectro solar, células conteniendo cuatro o más uniones (con un potencial de alcanzar eficiencias de más del 45% a una concentración de cientos de soles) se exploran hoy en día. En esta tesis se presenta una de las posibles arquitecturas de división del espectro (spectrum-splitting en la literatura anglosajona) que utilizan células de concentración comercial. Otro campo de aplicación de la óptica nonimaging es la iluminación, donde es necesario proporcionar un patrón de distribución de la iluminación específico. La iluminación de estado sólido (SSL), basada en la electroluminiscencia de materiales semiconductores, está proporcionando fuentes de luz para aplicaciones de iluminación general. En la última década, los diodos emisores de luz (LED) de alto brillo han comenzado a reemplazar a las fuentes de luz convencionales debido a la superioridad en la calidad de la luz emitida, elevado tiempo de vida, compacidad y ahorro de energía. Los colimadores utilizados con LEDs deben cumplir con requisitos tales como tener una alta eficiencia, un alto control del haz de luz, una mezcla de color espacial y una gran compacidad. Presentamos un colimador de luz free-form con microestructuras capaz de conseguir buena colimación y buena mezcla de colores con una fuente de LED RGGB. Una buena mezcla de luz es importante no sólo para simplificar el diseño óptico de la luminaria sino también para evitar hacer binning de los chips. La mezcla de luz óptica puede reducir los costes al evitar la modulación por ancho de pulso y otras soluciones electrónicas patentadas para regulación y ajuste de color. Esta tesis consta de cuatro capítulos. Los capítulos que contienen la obra original de esta tesis son precedidos por un capítulo introductorio donde se presentan los conceptos y definiciones básicas de la óptica geométrica y en el cual se engloba la óptica nonimaging. Contiene principios de la óptica no formadora de imagen junto con la descripción de sus problemas y métodos de diseño. Asimismo se describe el método de Superficies Múltiples Simultáneas (SMS), que destaca por su versatilidad y capacidad de controlar varios haces de rayos. Adicionalmente también se describe la integración Köhler y sus aplicaciones en el campo de la energía fotovoltaica. La concentración fotovoltaica y la iluminación de estado sólido son introducidas junto con la revisión de su estado actual. El Segundo y Tercer Capítulo contienen diseños ópticos avanzados con aplicación en la concentración solar principalmente, mientras que el Cuarto Capítulo describe el colimador free-form con surcos que presenta buena mezcla de colores para aplicaciones de iluminación. El Segundo Capítulo describe dos concentradores ópticos HCPV diseñados con el método SMS en tres dimensiones (SMS3D) que llevan a cabo integración Köhler en dos direcciones con el fin de proporcionar una distribución de irradiancia uniforme libre de aberraciones cromáticas sobre la célula solar. Uno de los diseños es el concentrador XXR free-form diseñado con el método SMS3D, donde el espejo primario (X) y la lente secundaria (R) se dividen en cuatro sectores simétricos y llevan a cabo la integración Köhler (proporcionando cuatro unidades del array Köhler), mientras que el espejo intermedio (X) presenta simetría rotacional. Otro concentrador HCPV presentado es el Fresnel-RXI (FRXI) con una lente de Fresnel funcionando como elemento primario (POE) y una lente RXI como elemento óptico secundario (SOE), que presenta configuración 4-fold con el fin de realizar la integración Köhler. Las lentes RXI son dispositivos nonimaging conocidos, pero su aplicación como elemento secundario es novedosa. Los concentradores XXR y FRXI Köhler son ejemplos académicos de muy alta concentración (más de 2,000x, mientras que los sistemas convencionales hoy en día no suelen llegar a 1,000x) preparados para las células solares N-unión (con N>3), que probablemente requerirán una mayor concentración y alta uniformidad espectral de irradiancia con el fin de obtener sistemas CPV terrestres eficientes y rentables. Ambos concentradores están diseñados maximizando funciones de mérito como la eficiencia óptica, el producto concentración-aceptancia (CAP) y la uniformidad de irradiancia sobre la célula libre de la aberración cromática (integración Köhler). El Tercer Capítulo presenta una arquitectura para la división del espectro solar basada en un módulo HCPV con alta concentración (500x) y ángulo de aceptancia alto (>1º) que tiene por objeto reducir ambas fuentes de pérdidas de las células triple unión (3J) comerciales: el uso eficiente del espectro solar y la luz reflejada de los contactos metálicos y de la superficie de semiconductor. El módulo para la división del espectro utiliza el espectro solar más eficiente debido a la combinación de una alta eficiencia de una célula de concentración 3J (GaInP/GaInAs/Ge) y una de contacto posterior (BPC) de concentración de silicio (Si), así como la técnica de confinamiento externo para la recuperación de la luz reflejada por la célula 3J con el fin de ser reabsorbida por la célula. En la arquitectura propuesta, la célula 3J opera con su ganancia de corriente optimizada (concentración geométrica de 500x), mientras que la célula de silicio trabaja cerca de su óptimo también (135x). El módulo de spectrum-splitting consta de una lente de Fresnel plana como POE y un concentrador RXI free-form como SOE con un filtro paso-banda integrado en él. Tanto POE como SOE realizan la integración Köhler para producir homogeneización de luz sobre la célula. El filtro paso banda envía los fotones IR en la banda 900-1,150nm a la célula de silicio. Hay varios aspectos prácticos de la arquitectura del módulo presentado que ayudan a reducir la complejidad de los sistemas spectrum-splitting (el filtro y el secundario forman una sola pieza sólida, ambas células son coplanarias simplificándose el cableado y la disipación de calor, etc.). Prototipos prueba-de-concepto han sido ensamblados y probados a fin de demostrar la fabricabilidad del filtro y su rendimiento cuando se combina con la técnica de reciclaje de luz externa. Los resultados obtenidos se ajustan bastante bien a los modelos y a las simulaciones e invitan al desarrollo de una versión más compleja de este prototipo en el futuro. Dos colimadores sólidos con surcos free-form se presentan en el Cuarto Capítulo. Ambos diseños ópticos están diseñados originalmente usando el método SMS3D. La segunda superficie ópticamente activa está diseñada a posteriori como una superficie con surcos. El diseño inicial de dos espejos (XX) está diseñado como prueba de concepto. En segundo lugar, el diseño RXI free-form es comparable con los colimadores RXI existentes. Se trata de un diseño muy compacto y eficiente que proporciona una muy buena mezcla de colores cuando funciona con LEDs RGB fuera del eje óptico como en los RGB LEDs convencionales. Estos dos diseños son dispositivos free-form diseñados con la intención de mejorar las propiedades de mezcla de colores de los dispositivos no aplanáticos RXI con simetría de revolución y la eficiencia de los aplanáticos, logrando una buena colimación y una buena mezcla de colores. La capacidad de mezcla de colores del dispositivo no-aplanático mejora añadiendo características de un aplanático a su homólogo simétrico sin pérdida de eficiencia. En el caso del diseño basado en RXI, su gran ventaja consiste en su menor coste de fabricación ya que el proceso de metalización puede evitarse. Aunque algunos de los componentes presentan formas muy complejas, los costes de fabricación son relativamente insensibles a la complejidad del molde, especialmente en el caso de la producción en masa (tales como inyección de plástico), ya que el coste del molde se reparte entre todas las piezas fabricadas. Por último, las últimas dos secciones son las conclusiones y futuras líneas de investigación. ABSTRACT Nonimaging optics is a branch of optics whose development began in the mid-1960s. This rather new field of optics focuses on the efficient light transfer necessary in many applications, among which we highlight solar concentrators and illumination systems. The classical optics solutions to the problems of light energy transfer are only appropriate when the light rays are paraxial. The paraxial condition is not met in most applications for the concentration and illumination. This thesis explores several free-form designs (with neither rotational nor linear symmetry) whose applications are intended to cover the above mentioned areas and more. The term nonimaging comes from the fact that these optical systems do not need to form an image of the object, although it is not a necessary condition not to form an image. Another word sometimes used instead of nonimaging is anidolic, and it comes from the Greek “an+eidolon” and has the same meaning. Most of the optical systems designed for nonimaging applications are without any symmetry, i.e. free-form. Free-form optical systems become especially relevant lately with the evolution of free-form tooling (injection molding machines, multi-axis machining techniques, etc.). Nevertheless, only recently there are nonimaging design techniques that are able to meet these degrees of freedom. In illumination applications, the SMS3D method allows designing two free-form surfaces to control very well extended sources. In cases when source, target or volumetric constrains have very asymmetric requirements free-form surfaces are offering solutions with higher efficiency or with fewer elements in comparison with rotationally symmetric solutions, as free-forms have more degrees of freedom and they can perform multiple functions due to their free-form nature. Anidolic concentrators are well suited for the collection of solar energy, because the goal is not the reproduction of an exact image of the sun, but instead the collection of its energy. At this time, Concentration Photovoltaics (CPV) field is turning to high concentration systems in order to compensate the expense of multi-junction (MJ) solar cells used as receivers by reducing its area. Interest in the use of MJ cells lies in their very high conversion efficiency. High Concentration Photovoltaic systems (HCPV) with geometric concentration of more than 500x are required in order to have competitive systems in terrestrial applications. These systems comprise two (or more) optical elements, mirrors and/or lenses. Systems presented in this thesis encompass both main types of HCPV architectures: concentrators with primary reflective element and concentrators with primary refractive element (Fresnel lens). Demand for the efficiency increase of the actual HCPV systems as well as feasible more efficient partitioning of the solar spectrum, leads to exploration of four or more junction solar cells or submodules. They have a potential of reaching over 45% efficiency at concentration of hundreds of suns. One possible architectures of spectrum splitting module using commercial concentration cells is presented in this thesis. Another field of application of nonimaging optics is illumination, where a specific illuminance distribution pattern is required. The Solid State Lighting (SSL) based on semiconductor electroluminescence provides light sources for general illumination applications. In the last decade high-brightness Light Emitting Diodes (LEDs) started replacing conventional light sources due to their superior output light quality, unsurpassed lifetime, compactness and energy savings. Collimators used with LEDs have to meet requirements like high efficiency, high beam control, color and position mixing, as well as a high compactness. We present a free-form collimator with microstructures that performs good collimation and good color mixing with RGGB LED source. Good light mixing is important not only for simplifying luminaire optical design but also for avoiding die binning. Optical light mixing may reduce costs by avoiding pulse-width modulation and other patented electronic solutions for dimming and color tuning. This thesis comprises four chapters. Chapters containing the original work of this thesis are preceded by the introductory chapter that addresses basic concepts and definitions of geometrical optics on which nonimaging is developed. It contains fundamentals of nonimaging optics together with the description of its design problems, principles and methods, and with the Simultaneous Multiple Surface (SMS) method standing out for its versatility and ability to control several bundles of rays. Köhler integration and its applications in the field of photovoltaics are described as well. CPV and SSL fields are introduced together with the review on their background and their current status. Chapter 2 and Chapter 3 contain advanced optical designs with primarily application in solar concentration; meanwhile Chapter 4 portrays the free-form V-groove collimator with good color mixing property for illumination application. Chapter 2 describes two HCPV optical concentrators designed with the SMS method in three dimensions (SMS3D). Both concentrators represent Köhler integrator arrays that provide uniform irradiance distribution free from chromatic aberrations on the solar cell. One of the systems is the XXR free-form concentrator designed with the SMS3D method. The primary mirror (X) of this concentrator and secondary lens (R) are divided in four symmetric sectors (folds) that perform Köhler integration; meanwhile the intermediate mirror (X) is rotationally symmetric. Second HCPV concentrator is the Fresnel-RXI (FRXI) with flat Fresnel lens as the Primary Optical Element (POE) and an RXI lens as the Secondary Optical Element (SOE). This architecture manifests 4-fold configuration for performing Köhler integration (4 array units), as well. The RXI lenses are well-known nonimaging devices, but their application as SOE is novel. Both XXR and FRXI Köhler HCPV concentrators are academic examples of very high concentration (more than 2,000x meanwhile conventional systems nowadays have up to 1,000x) prepared for the near future N-junction (N>3) solar cells. In order to have efficient and cost-effective terrestrial CPV systems, those cells will probably require higher concentrations and high spectral irradiance uniformity. Both concentrators are designed by maximizing merit functions: the optical efficiency, concentration-acceptance angle (CAP) and cell-irradiance uniformity free from chromatic aberrations (Köhler integration). Chapter 3 presents the spectrum splitting architecture based on a HCPV module with high concentration (500x) and high acceptance angle (>1º). This module aims to reduce both sources of losses of the actual commercial triple-junction (3J) solar cells with more efficient use of the solar spectrum and with recovering the light reflected from the 3J cells’ grid lines and semiconductor surface. The solar spectrum is used more efficiently due to the combination of a high efficiency 3J concentration cell (GaInP/GaInAs/Ge) and external Back-Point-Contact (BPC) concentration silicon (Si) cell. By employing external confinement techniques, the 3J cell’s reflections are recovered in order to be re-absorbed by the cell. In the proposed concentrator architecture, the 3J cell operates at its optimized current gain (at geometrical concentration of 500x), while the Si cell works near its optimum, as well (135x). The spectrum splitting module consists of a flat Fresnel lens (as the POE), and a free-form RXI-type concentrator with a band-pass filter embedded in it (as the SOE), both POE and SOE performing Köhler integration to produce light homogenization. The band-pass filter sends the IR photons in the 900-1,150nm band to the Si cell. There are several practical aspects of presented module architecture that help reducing the added complexity of the beam splitting systems: the filter and secondary are forming a single solid piece, both cells are coplanar so the heat management and wiring is simplified, etc. Two proof-of-concept prototypes are assembled and tested in order to prove filter manufacturability and performance, as well as the potential of external light recycling technique. Obtained measurement results agree quite well with models and simulations, and show an opened path to manufacturing of the Fresnel RXI-type secondary concentrator with spectrum splitting strategy. Two free-form solid V-groove collimators are presented in Chapter 4. Both free-form collimators are originally designed with the SMS3D method. The second mirrored optically active surface is converted in a grooved surface a posteriori. Initial two mirror (XX) design is presented as a proof-of-concept. Second, RXI free-form design is comparable with existing RXI collimators as it is a highly compact and a highly efficient design. It performs very good color mixing of the RGGB LED sources placed off-axis like in conventional RGB LEDs. Collimators described here improve color mixing property of the prior art rotationally symmetric no-aplanatic RXI devices, and the efficiency of the aplanatic ones, accomplishing both good collimation and good color mixing. Free-form V-groove collimators enhance the no-aplanatic device's blending capabilities by adding aplanatic features to its symmetric counterpart with no loss in efficiency. Big advantage of the RXI design is its potentially lower manufacturing cost, since the process of metallization may be avoided. Although some components are very complicated for shaping, the manufacturing costs are relatively insensitive to the complexity of the mold especially in the case of mass production (such as plastic injection), as the cost of the mold is spread in many parts. Finally, last two sections are conclusions and future lines of investigation.
Resumo:
El artículo presenta la actividad científica desarrollada en los congresos internacionales de ingeniería de proyectos organizados por AEIPRO. Analizando y visualizando la información a través del análisis de dominios científicos y del análisis de redes de la literatura científica desarrollada desde el II Congreso Internacional del 1998 hasta el XVI Congreso Internacional del 2012. Los resultados permiten identificar los frentes de investigación y la base de conocimientos científica en Ingeniería de Proyectos desarrollada en los congresos internacionales de AEIPRO, proporcionando resultados estadísticos sobre la distribución del aporte internacional, el grado de integración de la investigación y la colaboración científica entre universidades, instituciones científicas y profesionales. Finalmente, se realiza una comparación entre la distribución de la investigación según la temática actual de los congresos y las áreas de conocimientos que gestionan el ciclo de vida del proyecto, alcance, tiempo, costes, calidad, recursos humanos, comunicación, riesgos y adquisiciones.
Resumo:
En la última década, la electricidad de origen fotovoltaico ha experimentado un enorme crecimiento a razón de gigavatio por año, demostrando de este modo su potencial para convertirse en una fuente importante de generación eléctrica. Grosso modo, el 85% de la capacidad instalada está basada en células de silicio cristalino, ya que es la tecnología fotovoltaica más desarrollada, con eficiencias de células comerciales alrededor del 17% y que ha demostrado su buen funcionamiento en campo durante más de veinticinco años. Debido a estos altos valores de eficiencia, las células de silicio presentan poco margen de mejora, por lo que a la hora de reducir el precio de la electricidad generada con esta tecnología, sólo se puede optar por intentar reducir sus costes de producción. Por ello, con el fin de lograr el objetivo de que en las próximas décadas la electricidad fotovoltaica suponga un porcentaje significativo del suministro eléctrico (del 25% o superior), las células de lámina delgada y las de concentración competirán con las células de silicio cristalino por lograr los precios de generación eléctrica más bajos.
Resumo:
ABSTRACT: The comparison of the different bids in the tender for a project, with the traditional contract system based on unit rates open to and re-measurement, requires analysis tools that are able to discriminate proposals having a similar overall economic impact, but that might show a very different behaviour during the execution of the works. RESUMEN: La estimación rápida de costes en fases iniciales del proyecto por métodos paramétricos y referencias estadísticas es un tema bien estudiado, divulgado y aplicado en el sector de la construcción. Sin embargo, existe poca literatura técnica sobre sistemas de predimensionado de tiempos, que permitan realizar rápidamente una planificación con un grado de aproximación razonable. Este texto reúne dos aspectos ya conocidos, pero hasta ahora independientes, y una aportación propia: -La estimación del plazo final por referencias estadísticas (BCIS, 2000) - La estimación del reparto del coste total a lo largo de la ejecución mediante curvas "S" (diversos autores) La estimación de la duración de la ejecución de las actividades en función de su coste. El conjunto de estas tres técnicas, aplicadas a un proyecto, permite obtener una planificación con el suficiente grado de detalle y fiabilidad para tomar decisiones en fases iniciales del proyecto.
Resumo:
Los efectos del transporte en el cambio climático se han convertido en un motivo de preocupación en todo el mundo. El transporte representa el 41% de las emisiones de CO 2 en España, y aproximadamente el 65% de esa cifra corresponde al tráfico por carretera. Las autopistas de peaje se gestionan en la actualidad sobre la base de criterios económicos: minimizar los costes operativos y maximizar los ingresos derivados de los peajes. En este marco, el presente documento desarrolla una nueva metodología para gestionar las autopistas tomando como base un objetivo de máxima eficiencia energética. Incluye las políticas tecnológicas y las impulsadas por la demanda, que se aplican a dos casos prácticos. Este estudio arroja varias conclusiones. Los resultados indican que para reducir al máximo la huella de carbono es preciso diseñar estrategias de sostenibilidad para gestionar cada tramo de autopista. Esto significa utilizar el máximo de su capacidad según los flujos de tráfico total de automóviles y de vehículos pesados en las autopistas y también en las carreteras paralelas. Otra importante conclusión es que se podrían lograr importantes reducciones de las emisiones de gases de efecto invernadero en los tramos con peaje aplicando programas de ETC (cobro electrónico de peaje) y ORT (peaje abierto).
Resumo:
Dentro del objetivo común que persigue alcanzar una estabilidad social y una economía de éxito sostenible en el actual e incierto contexto mundial, el pronóstico es que la demanda de energía siga aumentando y que la generación mundial de electricidad se duplique entre los años 2005 y 2030. En este escenario, los combustibles fósiles podrían mantener una contribución muy significativa al mix energético posiblemente hasta el año 2050, participando del mercado de generación de energía eléctrica mundial en aproximadamente un 70% y siendo base de la generación de energía eléctrica europea en un 60%. El carbón sin duda seguirá teniendo una contribución clave. Este incremento en la demanda energética y energía eléctrica, en el consumo de carbón y de combustibles fósiles en general, sin duda tendrá impacto sobre los niveles de concentración de CO2 a nivel global en los diferentes escenarios evaluados, con un fatal pronóstico de triplicar, si no se contiene de alguna manera su emisión, los niveles actuales de concentración de CO2 hasta valores próximos a 1.200 ppm para finales de este siglo XXI. El Protocolo de Kyoto, adoptado en 1997, fue el primer tratado de responsabilidad a nivel mundial para el monitoreo y limitación de las emisiones de CO2, realizando una primera aproximación hasta el año 2012 y tomando como valores de referencia los referidos a los niveles de concentración de gases de efecto invernadero registrados en 1990. Algunos de los principales países emisores de CO2 como USA y China no ratificaron los objetivos de límite de emisión y niveles de reducción de CO2, y sin embargo están tomando sus propias acciones y medidas en paralelo para reducir sus emisiones. Los procesos de combustión más eficientes y con menor consumo de combustible, proporcionan una significativa contribución del sector de generación eléctrica a la reducción de los niveles de concentración de CO2, pero podría no ser suficiente. Tecnologías de captura y almacenamiento de carbono (CCS, del inglés Carbon Capture and Storage) han comenzado a ganar más importancia desde principios de esta década, se ha intensificado la investigación y proliferado la creación de fondos que impulsen su desarrollo y estimulen su despliegue. Tras los primeros proyectos de investigación básica y ensayos a pequeña escala, casi embrionaria, tres procesos de captura se posicionan como los más viables actualmente, con potencial para alcanzar niveles de reducción de CO2 del 90%, mediante su aplicación en centrales de carbón para generación eléctrica. En referencia al último paso del esquema CCS en el proceso de reducción de las ingentes cantidades de CO2 que habría que eliminar de la atmósfera, dos opciones deberían ser consideradas: la reutilización (EOR y EGR) y el almacenamiento. El presente artículo evalúa el estado de las diferentes tecnologías de captura de CO2, su disponibilidad, su desarrollo y su coste de instalación estimado. Se incorpora un pequeño análisis de los costes de operación y varias extrapolaciones, dado que solo están disponibles algunos de estos datos hasta la fecha. Además este artículo muestra los principales hallazgos y los potenciales de reducción de emisiones de CO2 en la utilización del carbón para generar electricidad y proporciona una visión del desarrollo y despliegue actual de la tecnología. Se realiza una revisión de las iniciativas existentes a nivel mundial mediante proyectos de demostración orientados a la viabilidad comercial del esquema CCS para el período 2020 ? 2030. Se evalúan los diferentes programas en curso y sus avances, como el programa de UK, el EEPR (European Energy Program for Recovery), etc. Las principales fuentes empleadas en la elaboración de este artículo son el DOE, NETL, MIT, EPRI, Centros e Institutos de Investigación, Universidades Europeas, Administraciones Públicas y Agencias Internacionales, suministradores de tecnología crítica, compañías eléctricas (utilities) y empresas tecnológicas.
Resumo:
Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.
Resumo:
El uso de modelos urbanos 3D se extiende cada vez a una mayor diversidad de áreas y aplicaciones, pero su utilización como una herramienta habitual dentro del proceso de realización del proyecto arquitectónico y urbanístico se ve limitada por la lentitud de los procesos de generación de los modelos y el alto coste de realización y mantenimiento de los mismos. Su uso, si el alcance del proyecto lo permite, suele estar encuadrado en propósitos de visualización en la etapa final. Los autores de este trabajo han desarrollado una metodología para la automatización del proceso de generación de estos modelos de ciudad, que reduce tiempos y costes, y que permitirá una mayor generalización de su uso.
Resumo:
La construcción es una de las actividades más valiosas para la sociedad debido a la naturaleza de los servicios que ofrece y por el volumen de empleos y movimiento económico que genera. Por ello es un elemento fundamental para el desarrollo sustentable. Es una industria compleja, cada vez más dependiente del conocimiento. Debido a su naturaleza fragmentaria y temporal y la alta rotación de personal presenta grandes retos y complicaciones particulares. Estas dificultades en oportunidades pueden transformarse en problemas por la complejidad, localización geográfica o los requisitos técnicos, financieros e innovaciones de los proyectos. Debido a sus características, las construcciones sufren cambios en las condiciones planificadas. Con frecuencia estos cambios conducen a retrasos en la ejecución de los proyectos, costes superiores a los presupuestados y conflictos entre los clientes y los ejecutores. Esto genera problemas de competitividad que afectan tanto a países desarrollados como países en vías de desarrollo. Los problemas de la construcción tienen perniciosos efectos para la sociedad, que pierde recursos que deberían permitir mejores resultados en términos de calidad de vida y beneficios sociales y económicos. Debido a la importancia del sector y los ingentes recursos que se invierten en cada proyecto se justifican los máximos esfuerzos para lograr los mejores desempeños de esta industria. Éste interés ha orientado el desarrollo de investigaciones, para apoyar el logro de los objetivos de mejoramiento continuo y construcción sustentable. Los estudios desarrollados han permitido demostrar el valor añadido del conocimiento en todos los sectores productivos. Para la construcción, los conocimientos ofrecen indicadores de desempeño, datos y lecciones aprendidas provenientes de aciertos y errores. Estos deben conducir a aprendizajes fundamentales para sustentar su competitividad. Sin embargo, a pesar de los conocimientos disponibles y los avances en las técnicas de control gerencial y de proyectos, es alarmante la recurrencia de los problemas de construcción. Esta problemática se manifiesta con severidad en los proyectos de construcción industrial que se desarrollan para el sector petrolero, petroquímico y energético venezolano. El sector presenta evidentes necesidades para un mejor desempeño competitivo por la alta incidencia de retrasos de los proyectos, que implican pérdidas de gran parte de los recursos humanos, financieros, técnicos y conocimientos invertidos. Esta investigación plantea como objetivos analizar la importancia de la construcción y su sustentabilidad, los principales problemas que afectan el sector, la gestión del conocimiento y algunos modelos disponibles para gestionarlos. Igualmente examina las lecciones aprendidas y la productividad y competitividad, con particular atención a los problemas de competitividad venezolanos. Adicionalmente se evalúan las implicaciones del conocimiento como activo estratégico y se caracterizan las empresas de construcción industrial venezolanas. Para ello se identifican las dimensiones que sustentan la gestión del conocimiento en estas empresas, para finalmente determinar las que resultan más idóneas para el nuevo modelo a ser propuesto. Con estos objetivos se desarrolló el estudio empírico. Para ello fueron invitados a participar representantes de 105 empresas y expertos de construcción distintos, todos con experiencias de construcción al sector industrial venezolano. Se obtuvieron 112 respuestas en representación de 41 organizaciones y expertos diferentes. El trabajo de campo inició en Junio de 2012 y culminó en Noviembre de 2012. Los datos obtenidos fueron analizados con apoyo de técnicas estadísticas descriptivas y multivariables. Los objetivos de la investigación se alcanzaron ya que se logró caracterizar el sector de las construcciones industriales y se propuso un nuevo modelo de gestión del conocimiento adecuado a sus características. El nuevo modelo fue formulado atendiendo a criterios de sencillez, bajos costes y facilidad de adaptación para motivar su utilización en organizaciones de construcción industrial variadas. Con ello se busca que resulte de utilidad aún para las organizaciones más pequeñas, con menores recursos o aquellas que enfrentan entornos constructivos complicados. Por último se presentan algunas sugerencias para motivar la comprensión de los fenómenos estudiados en los grupos de interés de la construcción. Se propone analizar estos problemas desde las etapas iniciales de los estudios de ingeniería, de arquitectura, de construcción, de economía y administración. Igualmente se propone desarrollar acciones conjuntas de parte de los sectores académicos, gubernamentales, industriales y asociaciones para el mejoramiento competitivo y desarrollo sustentable global. La propuesta aporta datos sobre el sector constructivo venezolano en un área que presenta grandes carencias y propone un modelo innovador por su sencillez y orientación hacia el uso diario e intuitivo de los conocimientos como recursos fundamentales para la competitividad. Esta orientación puede tener trascendencia más allá del sector descrito, para apoyar la solución de problemas de otras industrias en entornos globales. ABSTRACT Construction is one of the most valuable activities for society due to the nature of the services offered and the number of jobs and revenues generated. Therefore it is a key element for sustainable development. Construction is a complex industry increasingly dependent on knowledge. Its temporary and fragmentary nature and the high staff turnover present great challenges and particular complications to construction. In some cases these conditions may evolve to serious problems because of the complexity, geographic location or even technical, financial and innovative requirements of each project. Due to their characteristics, constructions frequently undergo changes in planned conditions. Often these changes lead to delays in project completion, costs higher than budgeted and conflicts between clients and performers. This creates problems of competitiveness affecting both developed and developing countries. The construction problems have harmful effects on society, since it loses resources that would otherwise allow better results in terms of quality of life and social and economic benefits. The importance and the enormous resources invested in each project justify the efforts to achieve the best performance of this industry. This interest has guided the development of multiple research efforts to support the achievement of construction performance improvements and sustainable construction. The studies carried out have demonstrated the added value of knowledge in all productive sectors. For construction, knowledge offers performance indicators, data and lessons learned from successes and failures. These should lead to fundamental learning to sustain sector competitiveness. However, despite the available knowledge and advances in techniques and project management control, the recurrence of construction problems is alarming. This problem shows itself severely in industrial construction projects that are developed for the Venezuelan oil, petrochemical and energy sectors. These sectors have evident needs for better competitive performance because of the high incidence of project delays, involving loss of much of the human, financial, technical and knowledge resources invested. This research analyzes the importance of construction and sustainability, the main problems affecting the sector, knowledge and some models available to manage them. It also examines the lessons learned and the productivity and competitiveness, with particular attention to the problems of Venezuelan competitiveness. Additionally, the Venezuelan industrial construction companies are characterized evaluating the implications of knowledge as an strategic asset for construction. Moreover, the research evaluates the dimensions that support knowledge management in these companies, to finally identify those that are the most suitable for the new model to be proposed. With these objectives in mind the empirical study was developed. 105 different companies and experts with Venezuelan industrial construction experiences were invited to participate on the survey. 112 responses were obtained representing 41 different organizations and experts. Fieldwork started in June 2012 and ended in November 2012. The data obtained was analyzed with descriptive and multivariate statistical techniques. The research objectives were achieved since the industrial construction sector was characterized and a new management model was proposed based on the particular characteristics of these companies. The new model was formulated according to the criteria of simplicity, low cost and ease of adaptation. This was performed to motivate the use of the new model in various industrial construction organizations, even in smaller companies, with limited resources or those facing complex construction environments. Finally some suggestions to encourage understanding of the phenomena studied among construction stakeholders were proposed. The importance of studying these problems at an early stage of the engineering, architectural, construction, economic and administration studies is highlighted. Additionally, academic, government, industrial organizations and associations are invited to join efforts to improve the competitive and sustainable global development. The proposal provides data on the Venezuelan construction sector in an area that has large gaps and proposes a model which is innovative for its simplicity and suggests the daily and intuitive use of knowledge resources as a key issue to competitiveness. This orientation may have implications beyond the described sector to support the solution of problems of other industries in a global environment.
Resumo:
El uso de hormigón autocompactante se ha convertido en algo habitual desde su aparición a finales de la década de los 80 gracias a la reducción de costes de mano de obra, la buena calidad del acabado superficial y su uso en piezas fuertemente armadas. Por otro lado, los hormigones reforzados con fibras aportan una mejora en las propiedades mecánicas que puede permitir la reducción de armados y, en general, mejorar la respuesta del material ante todo tipo de solicitaciones, especialmente de tracción. En este trabajo se ha estudiado el comportamiento mecánico de un hormigón autocompactante con fibras de poliolefina. Se han obtenido resultados de caracterización mecánica y de fractura de un hormigón autocompactante de referencia sin fibras y de tres dosificaciones con fibras desde 3 kg/m³ hasta 6 kg/m³. Estos resultados han proporcionado un notable incremento en los valores de resistencia post-fisuración y de energía de fractura sin perjuicio de sus propiedades autocompactantes en estado fresco. Since the development of the first Self-Compacting Concrete in the late 80’s, its use has become widespread due to the reduction of the labor costs, the good finishing quality and the achieving of the necessary fluidity for congested reinforced pieces. Furthermore, Fiber Reinforced Concrete provides improvements of the mechanical properties which may even permit the reduction of the reinforcement. The mechanical behavior of a Self-Compacting Concrete with polyolefin fibers has been explored in this research. Results for mechanical properties and for fracture and post-cracking toughness have been obtained. The experimental campaign has been performed for a plain Self-Compacting Concrete and for three different fiber dosages from 3 kg/m³ to 6 kg/m³. These results show a significant enhancement of the post-cracking strength and the fracture energy without harming in the concrete self-compacting properties in fresh state.
Resumo:
Los ensayos virtuales de materiales compuestos han aparecido como un nuevo concepto dentro de la industria aeroespacial, y disponen de un vasto potencial para reducir los enormes costes de certificación y desarrollo asociados con las tediosas campañas experimentales, que incluyen un gran número de paneles, subcomponentes y componentes. El objetivo de los ensayos virtuales es sustituir algunos ensayos por simulaciones computacionales con alta fidelidad. Esta tesis es una contribución a la aproximación multiescala desarrollada en el Instituto IMDEA Materiales para predecir el comportamiento mecánico de un laminado de material compuesto dadas las propiedades de la lámina y la intercara. La mecánica de daño continuo (CDM) formula el daño intralaminar a nivel constitutivo de material. El modelo de daño intralaminar se combina con elementos cohesivos para representar daño interlaminar. Se desarrolló e implementó un modelo de daño continuo, y se aplicó a configuraciones simples de ensayos en laminados: impactos de baja y alta velocidad, ensayos de tracción, tests a cortadura. El análisis del método y la correlación con experimentos sugiere que los métodos son razonablemente adecuados para los test de impacto, pero insuficientes para el resto de ensayos. Para superar estas limitaciones de CDM, se ha mejorado la aproximación discreta de elementos finitos enriqueciendo la cinemática para incluir discontinuidades embebidas: el método extendido de los elementos finitos (X-FEM). Se adaptó X-FEM para un esquema explícito de integración temporal. El método es capaz de representar cualitativamente los mecanismos de fallo detallados en laminados. Sin embargo, los resultados muestran inconsistencias en la formulación que producen resultados cuantitativos erróneos. Por último, se ha revisado el método tradicional de X-FEM, y se ha desarrollado un nuevo método para superar sus limitaciones: el método cohesivo X-FEM estable. Las propiedades del nuevo método se estudiaron en detalle, y se concluyó que el método es robusto para implementación en códigos explícitos dinámicos escalables, resultando una nueva herramienta útil para la simulación de daño en composites. Virtual testing of composite materials has emerged as a new concept within the aerospace industry. It presents a very large potential to reduce the large certification costs and the long development times associated with the experimental campaigns, involving the testing of a large number of panels, sub-components and components. The aim of virtual testing is to replace some experimental tests by high-fidelity numerical simulations. This work is a contribution to the multiscale approach developed in Institute IMDEA Materials to predict the mechanical behavior of a composite laminate from the properties of the ply and the interply. Continuum Damage Mechanics (CDM) formulates intraply damage at the the material constitutive level. Intraply CDM is combined with cohesive elements to model interply damage. A CDM model was developed, implemented, and applied to simple mechanical tests of laminates: low and high velocity impact, tension of coupons, and shear deformation. The analysis of the results and the comparison with experiments indicated that the performance was reasonably good for the impact tests, but insuficient in the other cases. To overcome the limitations of CDM, the kinematics of the discrete finite element approximation was enhanced to include mesh embedded discontinuities, the eXtended Finite Element Method (X-FEM). The X-FEM was adapted to an explicit time integration scheme and was able to reproduce qualitatively the physical failure mechanisms in a composite laminate. However, the results revealed an inconsistency in the formulation that leads to erroneous quantitative results. Finally, the traditional X-FEM was reviewed, and a new method was developed to overcome its limitations, the stable cohesive X-FEM. The properties of the new method were studied in detail, and it was demonstrated that the new method was robust and can be implemented in a explicit finite element formulation, providing a new tool for damage simulation in composite materials.
Resumo:
Para hacerse cargo del legado de las Plantas de Gas Manufacturado (MGP) en el Estado de Nueva York, la División de Remediación Medioambiental del Departamento de Conservación Medioambiental, creo las Investigaciones de las áreas afectadas y el Programa de Remediación Medioambiental. Con el paso de los años, la conciencia y entendimiento de la importancia y complejidad de estos proyectos fue creciendo, ya que las investigaciones realizadas daban fe del tamaño y extensión de la contaminación asociada a las plantas de gas manufacturado, propiedad ahora de las diversas compañías de gas que operan a lo largo y ancho del Estado de Nueva York. Tras varios años dentro del Programa de Remediación Medioambiental, muchas de estas compañías han intentado manejar estos vastos y complejos proyectos como han podido, dejándose llevar un poco, subestimando y pasando por alto muchos detalles, ya que al fin y al cabo son proyecto regulados por el estado y que, por tanto, son financiados enteramente por este. Esto ha ido causando en los últimos años grandes problemas a algunas Compañías que a la hora de reportar estos proyectos se han encontrado con una falta total de control y grandes lagunas que resolver. Una técnica para resolver estos problemas es hacer uso de grandes técnicas de gestión empresarial como es el Project Management. En este proyecto se exponen y desarrollan las técnicas que han de utilizarse para integrar la Gestión de Proyectos con el fin de poder gestionar y coordinar las competentes demandas de alcance, tiempo, costes, calidad, recursos, y riesgos con el fin de alcanzar los requerimientos y objetivos del proyecto y de la Compañía. ABSTRACT To address the Manufactured Gas Plant (MGP) legacy in New York State, the Department of Environmental Conservation’s Division of Environmental Remediation has established the MGP Site Investigation and Remediation Programs. With the passage of time the Department’s understanding of the complexity of these sites grew, as investigations identified the extend of the contamination problem associated with many MGPs, property of the Operating Companies in the State. Through many years under the Remediation Programs, some Operating Companies have tried to manage these large and complex projects as they could, underestimating and overlooking them, as they were, in fact, regulated and financed by the Department. This has cause a lot of controlling issues and gaps to solve to the companies. Now the companies are trying to solve this kind of problems using the more innovative management techniques, as Project Management. This project expose and explains how to integrate the project management processes into the MGP Projects under the Remediation Program, to manage and balance the competing demands of scope, time ,cost, quality, resources, and risk to meet the project and company’s requirements and objectives.