1000 resultados para FÁBRICAS - MANTENIMIENTO Y REPARACIÓN
Resumo:
Comentarios Legales: de las licencias urbanísticas.
Resumo:
Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.
Resumo:
En esta ponencia se trata un aspecto del mecanismo proyectado para la extracción de humos generados en un posible incendio en el túnel de Somport. Tras una somera descripción del sistema de ventilación y extracción se comentan los métodos de modelado físico y numérico que han servido para dimensionar la solución y, en particular, se pone de manifiesto la utilidad que los simuladores numéricos (modelos monodimensionales, modelos zonales y modelos tridimensionales), dentro de todas las limitaciones que todavía presentan, pueden tener para la formación del personal encargado del control y para seleccionar estrategias de actuacion que puedan aplicarse de forma automática en caso de accidente. Se comenta brevemente la realización de ensayos in situ para completar los estudios anteriores. Una de las conclusiones, entre otras, es que la extracción de humos mediante trampillas es una solución excelente; sin embargo su éxito depende de la capacidad de desarrollar mecanismos capaces de funcionar con temperaturas muy altas.
Resumo:
La fauna saproxílica ha cobrado mucha relevancia en los últimos años. Por una parte, debido a los múltiples papeles que juega en la ecología de los bosques y por otra, por encontrarse muchas especies de ese grupo amenazadas como consecuencia de la intensificación de las actividades forestales. Se supone que los bosques de Europa meridional albergan una fauna saproxílica rica y variada. Sin embargo apenas se han realizado estudios que permitan conocer la composición de las biocenosis saproxílicas, así como el estatus y grado de amenaza a que está sometida cada especie. En esta tesis se han muestreado de forma sistemática las comunidades de coleópteros saproxílicos de cuatro montes del norte de la Comunidad de Madrid, muy diferentes a pesar de su cercanía: Dehesa Bonita de Somosierra, Hayedo de Montejo, Dehesa de Madarcos y Pinar de La Maleza. Para llevar a cabo la recogida de muestras se definió una estación de muestreo tipo, compuesta por cuatro trampas aéreas con cebo oloroso, dos trampas de ventana y una trampa de embudos. En los dos primeros montes mencionados se desplegaron seis estaciones de muestreo, por sólo tres en los otros dos. El primer objetivo de esta tesis fue conocer las especies de coleópteros que constituyen la fauna de los cuatro montes estudiados. Los muestreos sistemáticos reportaron la presencia de un total de 357 especies de coleópteros saproxílicos, siendo el Hayedo de Montejo el bosque con la diversidad más alta, 220 especies; le siguen la Dehesa de Madarcos con 116; el pinar de La Maleza con 115; y la Dehesa de Somosierra con 109, si bien la fauna de este ultimo bosque podría ser mucho más variada dado que la interferencia del ganado con algunos dispositivos de captura hizo que se perdiera parte del material allí recolectado. Se han encontrado nueve especies nuevas para la fauna de la Península Ibérica, y otras muchas desconocidas previamente en el centro peninsular. Un total de 50 especies se encuentran incluidas en la Lista Roja Europea de coleópteros saproxílicos. El segundo objetivo fue estimar la riqueza de fauna de coleópteros saproxílicos en cada bosque. Partiendo de los datos de los respectivo muestreos se calcularon diferentes estimadores, paramétricos y no paramétricos, y se elaboraron las curvas de rarefacción para cada bosque y para el conjunto. El bosque con más biodiversidad ha resultado ser el Hayedo de Montejo, que albergaría entre 254 y 332 especies. En el Pinar de la Maleza se encontrarían de 132 a 223; de 128 a 205 en la Dehesa de Somosierra; y entre 134 y 188 en la Dehesa de Madarcos. Para el conjunto del área se estimó la presencia de entre 411 y 512 especies. El tercer objetivo fue evaluar la influencia de algunos factores como la especie arbórea dominante y la cantidad de madera muerta en la riqueza y diversidad de coleópteros saproxílicos. El estudio se realizó en el Hayedo de Montejo, encontrando una alta correlación positiva entre cantidad y calidad de madera muerta, y diversidad y riqueza de especies de coleópteros saproxílicos. El cuarto objetivo fue evaluar la eficacia y complementariedad de los diferentes tipos de dispositivos de captura empleados en los muestreos. El más eficaz resultó ser la trampa de ventana, seguido por la trampa aérea con cebo oloroso, y finalmente la trampa de embudos. La mayor complementariedad se encontró entre trampas de ventana y aéreas con cebo oloroso. No obstante, si se quiere optimizar la exhaustividad del inventario no se debe prescindir de ninguno de los sistemas. En cualquier caso, puede afirmarse que la efectividad de los tres tipos de dispositivos de captura utilizados en los muestreos fue baja, pues para la gran mayoría de especies presentes se capturó un número de ejemplares realmente bajo. El bajo rendimiento de captura implica un bajo impacto sobre las poblaciones de las especies muestreadas, y esto supone una importante ventaja desde el punto de vista de la conservación. Finalmente, se dejan algunas recomendaciones de manejo a aplicar en cada uno de los montes con el fin de preservar o mejorar los hábitats utilizables por la fauna saproxílica que garanticen el mantenimiento y mejora de dichas comunidades. ABSTRACT The saproxylic fauna has become increasingly important in recent years. It has been due, on the one hand, to the multiple roles they play in the forest ecosystems and, on the other, because of the large proportion of endangered saproxylic species as a result of the intensification of forestry. It is generally assumed that southern Europe forests are home to a rich and diverse saproxylic fauna. However, there are hardly any studies leading to reveal the composition of saproxylic biocenosis, or the stage and extent of the threat each species is suffering. For the purpose of this thesis the communities of saproxylic beetles of four mountain forests in northern Comunidad de Madrid have been systematically sampled: Dehesa Bonita de Somosierra, Hayedo de Montejo, Dehesa de Madarcos and Pinar de La Maleza. They are very different from each other in spite of not being too far apart. In order to carry out sample collection, a standard sampling station was defined as follows: four smelly bait aerial traps, two window traps and one funnel trap. Six sampling stations were deployed in each of the first two forests mentioned above; put only three in each of the other two. The first aim of this thesis was to determine the composition of saproxylic beetles fauna inhabiting each of the four forests studied. Systematic sampling reported the presence of a total of 357 species of saproxylic beetles. Hayedo de Montejo, with 220 species, is the forest with the highest diversity, followed by Dehesa de Madarcos, 116; Pinar de La Maleza, 115, and Dehesa de Somosierra, 109. The fauna of the latter forest, however, could be much more varied, since cattle interference with some capture devices caused the loss of part of the material collected there. Nine new species in the fauna of the Iberian Peninsula were found, and many others previously unknown in the center of the Peninsula. A total of 41 of those species are included in the European Red List of saproxylic beetles. The second aim was to estimate the richness of saproxylic (beetle) fauna in each forest. From the data of the respective sampling, different parametric and nonparametric estimators were calculated, and rarefaction curves for each forest, as well as for the four of them together, were drawn. The most biodiverse forest turned out to be Hayedo de Montejo, which houses between 254 and 332 species. In Pinar de La Maleza, between 132 and 223 species were found; between 128 and 205 in Dehesa de Somosierra, and between 134 and 188 in Dehesa de Madarcos. The estimated diversity of species for the whole area ranges from 411 to 512. The third aim was to evaluate the influence of such factors as the dominant tree species and the amount of dead wood in the richness and diversity of saproxylic beetles. The study was conducted at Hayedo de Montejo, finding a high positive correlation between quantity and quality of coarse woody debris and diversity and richness of saproxylic beetle species. The fourth aim was to evaluate the effectiveness and complementarity of the different sampling methods used in this research work. The most effective proved to be the window trap, followed by the smelly bait aerial trap and the funnel trap, in that order. The greater complementarity was found between window and aerial traps. However, in order to optimize the completeness of the inventory, neither of the systems should be discarded. Nevertheless, the effectiveness of the three types of capture devices used in this piece of research was on the whole rather low, since for the vast majority of species, a significant low number of specimens were captured. Poor trapping performance implies a low impact on the populations of the sampled species, and this is an important advantage in terms of conservation. Finally, this thesis gives some recommendations with regard to the management of each of those four forests, leading to preserve and improve the habitats of the saproxylic wildlife and so ensure the maintenance and growth of their communities.
Resumo:
El alimento sólido es un ingrediente básico en la producción de leche, de ahí que dediquemos un capítulo al diseño y al manejo de la zona de alimentación. El comedero debe permitir una distribución adecuada de la ración, proporcionar espacio suficiente a las vacas para que éstas puedan consumir la cantidad que necesitan, estar limpio y libre de residuos de comidas anteriores y ser fácil de limpiar. La ingestión de alimentos se ve afectada por una serie de factores ambientales y de manejo. Sobre los primeros (clima y entorno) no se puede actuar o resulta caro y difícil, pero sobre las segundas (diseño y dimensionamiento adecuado, espacio disponible, etc.) sí podemos influir. De esta forma, un comedero correctamente diseñado da lugar a un acercamiento del animal más frecuente, más duradero y a una mayor ingestión. Asimismo, evitará numerosas lesiones debidas a una presión excesiva de las vacas sobre él. También nos referiremos a su mantenimiento y limpieza, para lo que es esencial una buena elección de materiales.
Resumo:
En las murallas de Segovia, existen, atendiendo a su morfología y diseño en planta, tres tipos de torres, poligonales, rectangulares y semicirculares. En la documentación histórica parece insinuarse una unidad y contemporaneidad en la construcción de todo su trazado, lo cual contraviene esta diferenciación estilística que se observa en el documento construido. La existencia de distintas tipologías de torres, de diferentes tipos de fábricas, aparejos y de métricas constructivas nos inducen a pensar en la construcción de una muralla efectuada en distintas fases constructivas y no en una obra tan unitaria como parece respaldar la historiografía tradicional.
Resumo:
En el día a día y mantenimiento de una empresa o negocio, pronto surge la necesidad de gestionar y almacenar la información, y según va creciendo la cantidad de información relativa al negocio, es más importante o primordial la adopción de soluciones y/o aplicaciones informáticas que nos faciliten dichas labores. Años atrás, antes de que las aplicaciones informáticas estuvieran al alcance de todo tipo de negocios, no quedaba otra solución que almacenar grandes cantidades de información impresa, lo cual implica un gran esfuerzo y trabajo, disponer del espacio necesario y correr ciertos riesgos ante posibles errores o fallos en su gestión. Actualmente las aplicaciones informáticas están prácticamente al alcance de cualquier pequeña y mediana empresa. Con dichas aplicaciones conseguimos un gran almacenamiento, control y gestión de la información, y además se disminuye el esfuerzo humano, la necesidad de amplios almacenes, y probabilidad de errores en la gestión de dicha información. Pero no todo serán ventajas. Dependiendo del tipo y complejidad de la aplicación, se necesitará un personal más o menos especializado informáticamente, o bien la aplicación de una formación informática específica a aquel personal que la necesitase para poder manejar la aplicación correctamente. Por otro lado habría que invertir en la maquinaria adecuada para poder ejecutar la aplicación sin problemas, lo cual conlleva un coste y un futuro mantenimiento. Y además hay que ser conscientes que a partir del momento en que se informatiza un negocio, la empresa y el funcionamiento de la misma pasan a depender en mayor medida del correcto funcionamiento de una “máquina”, pero para ello existen sistemas y copias de seguridad que mitigan dichos riesgos. Es obvio que existen grandes ventajas y también ciertos riesgos, pero parece claro que una vez que se informatiza un negocio, el almacenamiento y gestión de la información es mucho más sencillo y ágil. Una vez decidida la informatización del negocio, hay que decidir si se acude a algunas de las soluciones informáticas que ya existen implementadas en el mercado, o bien se elige la solución de implementar una aplicación a medida según las necesidades y características del negocio. En función del tipo de negocio y los gustos del empresario, se adoptará por una solución u otra, siendo cualquiera de ellas totalmente válida. En el caso que nos aborda, acometeremos la informatización de un gimnasio que además ofertará como opción un servicio de guardería para los bebés de los clientes, para que de esta manera los clientes puedan realizar sus ejercicios físicos con total tranquilidad y despreocupación respecto a sus bebés. Los objetivos que se persiguen al informatizar el negocio son: -Agilizar, simplificar y potenciar la gestión de la empresa. -Reducir la cantidad de información impresa que se maneja actualmente. -Tener mayor control global del negocio. -Ofrecer mayor transparencia y velocidad de respuesta en la información proporcionada a los clientes. -Facilitar las posibles futuras ampliaciones del negocio. Para cumplir dichos objetivos se implementará una aplicación estructurada en los diferentes módulos que componen nuestro negocio, y a la vez tendrá un aspecto y funcionamiento muy homogéneo para facilitar su utilización y explotación.
Resumo:
El estudio de los ciclos del combustible nuclear requieren de herramientas computacionales o "códigos" versátiles para dar respuestas al problema multicriterio de evaluar los actuales ciclos o las capacidades de las diferentes estrategias y escenarios con potencial de desarrollo en a nivel nacional, regional o mundial. Por otra parte, la introducción de nuevas tecnologías para reactores y procesos industriales hace que los códigos existentes requieran nuevas capacidades para evaluar la transición del estado actual del ciclo del combustible hacia otros más avanzados y sostenibles. Brevemente, esta tesis se centra en dar respuesta a las principales preguntas, en términos económicos y de recursos, al análisis de escenarios de ciclos de combustible, en particular, para el análisis de los diferentes escenarios del ciclo del combustible de relativa importancia para España y Europa. Para alcanzar este objetivo ha sido necesaria la actualización y el desarrollo de nuevas capacidades del código TR_EVOL (Transition Evolution code). Este trabajo ha sido desarrollado en el Programa de Innovación Nuclear del CIEMAT desde el año 2010. Esta tesis se divide en 6 capítulos. El primer capítulo ofrece una visión general del ciclo de combustible nuclear, sus principales etapas y los diferentes tipos utilizados en la actualidad o en desarrollo para el futuro. Además, se describen las fuentes de material nuclear que podrían ser utilizadas como combustible (uranio y otros). También se puntualizan brevemente una serie de herramientas desarrolladas para el estudio de estos ciclos de combustible nuclear. El capítulo 2 está dirigido a dar una idea básica acerca de los costes involucrados en la generación de electricidad mediante energía nuclear. Aquí se presentan una clasificación de estos costos y sus estimaciones, obtenidas en la bibliografía, y que han sido evaluadas y utilizadas en esta tesis. Se ha incluido también una breve descripción del principal indicador económico utilizado en esta tesis, el “coste nivelado de la electricidad”. El capítulo 3 se centra en la descripción del código de simulación desarrollado para el estudio del ciclo del combustible nuclear, TR_EVOL, que ha sido diseñado para evaluar diferentes opciones de ciclos de combustibles. En particular, pueden ser evaluados las diversos reactores con, posiblemente, diferentes tipos de combustibles y sus instalaciones del ciclo asociadas. El módulo de evaluaciones económica de TR_EVOL ofrece el coste nivelado de la electricidad haciendo uso de las cuatro fuentes principales de información económica y de la salida del balance de masas obtenido de la simulación del ciclo en TR_EVOL. Por otra parte, la estimación de las incertidumbres en los costes también puede ser efectuada por el código. Se ha efectuado un proceso de comprobación cruzada de las funcionalidades del código y se descrine en el Capítulo 4. El proceso se ha aplicado en cuatro etapas de acuerdo con las características más importantes de TR_EVOL, balance de masas, composición isotópica y análisis económico. Así, la primera etapa ha consistido en el balance masas del ciclo de combustible nuclear actual de España. La segunda etapa se ha centrado en la comprobación de la composición isotópica del flujo de masas mediante el la simulación del ciclo del combustible definido en el proyecto CP-ESFR UE. Las dos últimas etapas han tenido como objetivo validar el módulo económico. De este modo, en la tercera etapa han sido evaluados los tres principales costes (financieros, operación y mantenimiento y de combustible) y comparados con los obtenidos por el proyecto ARCAS, omitiendo los costes del fin del ciclo o Back-end, los que han sido evaluado solo en la cuarta etapa, haciendo uso de costes unitarios y parámetros obtenidos a partir de la bibliografía. En el capítulo 5 se analizan dos grupos de opciones del ciclo del combustible nuclear de relevante importancia, en términos económicos y de recursos, para España y Europa. Para el caso español, se han simulado dos grupos de escenarios del ciclo del combustible, incluyendo estrategias de reproceso y extensión de vida de los reactores. Este análisis se ha centrado en explorar las ventajas y desventajas de reprocesado de combustible irradiado en un país con una “relativa” pequeña cantidad de reactores nucleares. Para el grupo de Europa se han tratado cuatro escenarios, incluyendo opciones de transmutación. Los escenarios incluyen los reactores actuales utilizando la tecnología reactor de agua ligera y ciclo abierto, un reemplazo total de los reactores actuales con reactores rápidos que queman combustible U-Pu MOX y dos escenarios del ciclo del combustible con transmutación de actínidos minoritarios en una parte de los reactores rápidos o en sistemas impulsados por aceleradores dedicados a transmutación. Finalmente, el capítulo 6 da las principales conclusiones obtenidas de esta tesis y los trabajos futuros previstos en el campo del análisis de ciclos de combustible nuclear. ABSTRACT The study of the nuclear fuel cycle requires versatile computational tools or “codes” to provide answers to the multicriteria problem of assessing current nuclear fuel cycles or the capabilities of different strategies and scenarios with potential development in a country, region or at world level. Moreover, the introduction of new technologies for reactors and industrial processes makes the existing codes to require new capabilities to assess the transition from current status of the fuel cycle to the more advanced and sustainable ones. Briefly, this thesis is focused in providing answers to the main questions about resources and economics in fuel cycle scenario analyses, in particular for the analysis of different fuel cycle scenarios with relative importance for Spain and Europe. The upgrade and development of new capabilities of the TR_EVOL code (Transition Evolution code) has been necessary to achieve this goal. This work has been developed in the Nuclear Innovation Program at CIEMAT since year 2010. This thesis is divided in 6 chapters. The first one gives an overview of the nuclear fuel cycle, its main stages and types currently used or in development for the future. Besides the sources of nuclear material that could be used as fuel (uranium and others) are also viewed here. A number of tools developed for the study of these nuclear fuel cycles are also briefly described in this chapter. Chapter 2 is aimed to give a basic idea about the cost involved in the electricity generation by means of the nuclear energy. The main classification of these costs and their estimations given by bibliography, which have been evaluated in this thesis, are presented. A brief description of the Levelized Cost of Electricity, the principal economic indicator used in this thesis, has been also included. Chapter 3 is focused on the description of the simulation tool TR_EVOL developed for the study of the nuclear fuel cycle. TR_EVOL has been designed to evaluate different options for the fuel cycle scenario. In particular, diverse nuclear power plants, having possibly different types of fuels and the associated fuel cycle facilities can be assessed. The TR_EVOL module for economic assessments provides the Levelized Cost of Electricity making use of the TR_EVOL mass balance output and four main sources of economic information. Furthermore, uncertainties assessment can be also carried out by the code. A cross checking process of the performance of the code has been accomplished and it is shown in Chapter 4. The process has been applied in four stages according to the most important features of TR_EVOL. Thus, the first stage has involved the mass balance of the current Spanish nuclear fuel cycle. The second stage has been focused in the isotopic composition of the mass flow using the fuel cycle defined in the EU project CP-ESFR. The last two stages have been aimed to validate the economic module. In the third stage, the main three generation costs (financial cost, O&M and fuel cost) have been assessed and compared to those obtained by ARCAS project, omitting the back-end costs. This last cost has been evaluated alone in the fourth stage, making use of some unit cost and parameters obtained from the bibliography. In Chapter 5 two groups of nuclear fuel cycle options with relevant importance for Spain and Europe are analyzed in economic and resources terms. For the Spanish case, two groups of fuel cycle scenarios have been simulated including reprocessing strategies and life extension of the current reactor fleet. This analysis has been focused on exploring the advantages and disadvantages of spent fuel reprocessing in a country with relatively small amount of nuclear power plants. For the European group, four fuel cycle scenarios involving transmutation options have been addressed. Scenarios include the current fleet using Light Water Reactor technology and open fuel cycle, a full replacement of the initial fleet with Fast Reactors burning U-Pu MOX fuel and two fuel cycle scenarios with Minor Actinide transmutation in a fraction of the FR fleet or in dedicated Accelerator Driven Systems. Finally, Chapter 6 gives the main conclusions obtained from this thesis and the future work foreseen in the field of nuclear fuel cycle analysis.
Resumo:
Si bien se han ido realizando análisis sistemáticos desde el punto de vista arquitectónico de los diferentes jardines nacionales europeos, el jardín clásico español, a pesar del importante incremento de bibliografía operado en la última década, no ha sido todavía estudiado desde los criterios compositivos y espaciales propios de la disciplina arquitectónica. Responde el jardín clásico español a una organización perspectiva que proviene de las construcciones espaciales originadas y desarrolladas en Italia durante los siglos XV y XVI; establece, además, una importante conexión con la arquitectura de jardines contemporánea, es decir, las grandes corrientes europeas –desde el jardín renacentista italiano al barroco francés-, que asume, interpreta e incluso supera en cuanto a organización unitaria e integración con su entorno en varios ejemplos señeros. Pero esta imbricación europea se ve puntualizada por una influencia primordial: el concepto islámico del espacio arquitectónico, caracterizado por la fragmentación y la pérdida de la axialidad, que en España se extiende de forma generalizada. Fusionada con los principios perspectivos provenientes de Italia, esta concepción espacial proporciona a los jardines –y demás edificios- una gran riqueza espacial que, poco analizada y mal comprendida, se ha considerado habitualmente como falta de pericia compositiva. Este hecho ha negado a los jardines españoles originalidad alguna –otorgada, en cambio, a los hispanomusulmanes- y una clasificación periférica en la historia de la disciplina. El jardín clásico español presenta tres etapas principales: una primera, durante los siglos XVI y XVII, que se podría denominar renacentista; una segunda, en la primera mitad del siglo XVIII, de ascendencia barroca francesa, y, por último, en la segunda mitad del Ochocientos, el jardín neoclásico, que en buena medida retoma la organización formal de la primera etapa renacentista. Las tres influencias preponderantes en el jardín renacentista español son la hispanomusulmana, procedente de la ocupación islámica en España desde el siglo VIII hasta el XV, cuya estela se mantiene durante todo el desarrollo del jardín clásico; una flamenca, de menor calado y cuyo origen está en los contactos políticos de la corona española con Flandes, y, por último, la italiana, de donde procederá la espacialidad perspectiva propia del Renacimiento, extendida por toda Europa y conocida en España asimismo por vínculos políticos y culturales. El jardín hispanomusulmán va a proporcionar los rasgos distintivos de la jardinería española posterior, derivados de la necesaria adaptación compositiva a un medio físico poco idóneo para la implantación de jardines. Esta cuestión se soluciona tradicionalmente de forma perfecta con el patio y el apoyo de una serie de elementos arquitectónicos de carácter ligero articulados aleatoriamente con la vivienda para organizar su entorno, operación que produce un organismo superior asimétrico y estructurado a partir de pequeños fragmentos ordenados por ejes quebrados, cuyo crecimiento no presupone un cambio en las cualidades espaciales del jardín. Esta ordenación quebrada y la fragmentación espacial tienden a embarazar la unidad perspectiva renacentista, de tal forma que el jardín español no presenta grandes ejes visuales ni espacios fugados, sino pequeñas piezas independientes –adaptadas mejor a la corrección climática y al riego- que se agregan sin intención de regularidad o simetría, pues buscan la ambigüedad espacial mediante la ofuscación de la percepción y orientación en el jardín, como sucedía en las obras hispanomusulmanas. El jardín renacentista español tendrá una doble vertiente dependiendo del medio físico donde se asiente: si este es poco propicio a la implantación de jardines, se recuperará la ordenación espacial medieval musulmana como respuesta compositiva a dicho entorno remiso, pues los ensayos de jardines basados en elementos arquitectónicos, ante la dificultad de estructurar el espacio del jardín en España con las componentes naturales –topografía, vegetación y agua-, se realizaron con éxito y se reutilizaron en siglos posteriores, e incluso alcanzan el momento actual; contemporáneamente, en territorios propicios a la creación de jardines –generalmente, riberas de ríos-, se podrá desarrollar el espacio perspectivo unitario italiano, que producirá ejemplos de gran calidad. Así, Felipe II creará de forma simultánea jardines muy diferentes según su ubicación. Entre los de carácter más medieval destacan los del Alcázar de Madrid y Valsaín –con el antecedente de Yuste, promovido por Carlos V-, y de los plenamente renacentistas, la Casa de Campo, El Escorial y Aranjuez, éstos últimos de Juan Bautista de Toledo. Los dos primeros se organizan con varios recintos independientes articulados por ejes quebrados y ordenados a partir de elementos ligeros –galerías, torreones, miradores- que se proyectan hacia el exterior para dar forma al entorno inmediato del palacio. Los últimos, en cambio, utilizan las posibilidades del medio natural para estructurar los jardines, y establecen magníficos ejes de raigambre renacentista, origen de espacios perspectivos unitarios de gran interés, dado su tamaño y temprana fecha de creación. Así, en la Casa de Campo la villa se articula con un jardín llano cuya unidad espacial no tiene parangón en la Italia del momento; en Aranjuez, el Jardín de la Isla, independiente en su trazado del palacio que lo propicia, presenta una superposición de dos ejes con gradientes en sentido contrario, y una ordenación a escala territorial, las Huertas de Picotajo, con una malla focalizada de doble simetría adaptada a un difícil meandro del río Jarama y con capacidad de extensión ilimitada en la vega de Aranjuez, que es contemporánea pero mucho más evolucionada que los primeros tridentes creados en Italia y anterior en un siglo a las formalizaciones de Versalles. Frente a estas realizaciones reales, en España los jardines nobiliarios responden a una clara influencia medieval, como los del duque de Alcalá en Bornos, el marqués de Mondéjar, Bellaflor en Sevilla, la Casa del Rey en Arganda o el cigarral de Buenavista en Toledo. Pero en paralelo con éstos y promovidos por nobles conectados con Italia, se están implantando jardines de hispanomusulmana-, en fechas incluso anteriores a los construidos por la corona. Así, el marqués de Villena construye en Cadalso de los Vidrios un jardín con una tempranísima ordenación en terrazas que se integra con su entorno; el duque de Alba en Abadía realiza la misma operación con mayor desarrollo espacial; y en Béjar por el duque de esta ciudad salmantina se establece otro jardín de clara espacialidad italiana, pero con la casa fuera de la ordenación. El siglo XVII supone, en los escasos ejemplos construidos, la prolongación de la espacialidad renacentista introducida por Juan Bautista de Toledo. Hay una clara continuidad en los jardines aterrazados, como La Zarzuela y La Florida, mientras en el ejemplo llano principal, el Buen Retiro, se atiende más a la fragmentación hispana y a una adaptación de los sistemas de extensión al aumento de escala. Así había sucedido en Italia, donde los jardines de malla ortogonal se convirtieron en grandes parques focalizados, con avenidas arboladas y remates perspectivos, elementos que se repiten en el jardín madrileño, aunque sin la unidad conseguida en los precedentes mediante la focalización. El siglo XVIII va a conocer la nueva dinastía de los Borbones y el jardín barroco francés, que supondrá un cambio radical en la concepción espacial del jardín, aunque la influencia hispana no dejará de producirse. El tamaño de estos jardines, su coste de implantación y mantenimiento y la falta de adaptación al medio físico español serán los factores principales del escaso desarrollo que el jardín de Le Nôtre alcanzó en España. A pesar de los proyectos realizados - algunos de gran calidad, como los de Robert de Cotte para el Buen Retiro, los del Palacio Real Nuevo, el de Riofrío y el del castillo de Villaviciosa de Odón-, sólo se van a construir escasos parterres de los denominados urbanos. Entre ellos hay que destacar los del Buen Retiro, Aranjuez y palacios de Liria, Buenavista y Altamira en Madrid, Piedrahita para los duques de Alba, el convento de Santa Bárbara, Migas Calientes –algunos de éstos quedaron en proyecto-, a los que se añade un gran jardín con todos los componentes, que es San Ildefonso de La Granja. En La Granja se puede encontrar un parque completo a la francesa, que responde en mayor medida a los principios establecidos en el tratado de Dezallier d'Argenville que a la influencia directa de las obras de Le Nôtre. Pero la ordenación canónica de jardín barroco francés se particulariza mediante los dispositivos proyectuales de origen hispano, pues se desjerarquizan los ejes principales impidiendo su continuidad, que queda truncada por desarrollos paralelos, interrupciones perspectivas y ejes quebrados. En la segunda mitad del siglo XVIII, los propios monarcas Borbones recuperarán los jardines regulares de los Austrias, cuyos tipos llano y aterrazado tuvieron un importante desarrollo con Felipe II y Juan Bautista de Toledo y gozaban de un merecido prestigio. Ya con Fernando VI se introdujeron ordenaciones de inspiración renacentista, como en el Jardín del Príncipe de Aranjuez; pero será con su hermano Carlos III cuando se revisen las actuaciones filipinas. Juan de Villanueva fue el autor de los principales jardines del momento -entre ellos, las Casitas realizadas para el príncipe de Asturias, el futuro Carlos IV y su hermano el infante Don Gabriel- aunque Ventura Rodríguez realizó en esos años un magnífico epílogo del jardín aterrazado en España: el palacio para el infante Don Luis en Boadilla del Monte, así como proyectos para el parque del Palacio Real Nuevo. En las Casitas de El Escorial –en menor medida en El Pardo-, Villanueva recoge una larga tradición de jardines aterrazados que, además, inserta magistralmente en su entorno, dentro de la secular tradición española de adaptación al medio físico. Lejos de presentar una lectura canónica, aunque utilizando todos los recursos del tipo, el arquitecto consigue la ambigüedad espacial hispana mediante la superposición en el eje longitudinal de dos gradaciones de dirección contraria, accesos quebrados e interrupción de las visuales y el viario, sin prescindir de una ordenación clásica. También de Villanueva son el proyecto definitivo del Jardín Botánico, de gran claridad compositiva y orden científico, y, para el Palacio Real Nuevo y su entorno, el jardín previo a las Reales Caballerizas y una remodelación de la Casa de Campo y su acceso.
Resumo:
En los últimos años, debido a la creciente preocupación por el calentamiento global y el cambio climático, uno de los retos más importantes a los que se enfrenta nuestra sociedad es el uso eficiente y económico de energía así como la necesidad correspondiente de reducir los gases de efecto invernadero (GEI). Las tecnologías de mezclas semicalientes se han convertido en un nuevo e importante tema de investigación en el campo de los materiales para pavimentos ya que ofrece una solución potencial para la reducción del consumo energético y las emisiones de GEI durante la producción y puesta en obra de las mezclas bituminosas. Por otro lado, los pavimentos que contienen polvo de caucho procedente de neumático fuera de uso, al hacer uso productos de desecho, ahorran energía y recursos naturales. Estos pavimentos ofrecen una resistencia mejorada a la formación de roderas, a la fatiga y a la fisuración térmica, reducen los costes de mantenimiento y el ruido del tráfico así como prolongan la vida útil del pavimento. Sin embargo, estas mezclas presentan un importante inconveniente: la temperatura de fabricación se debe aumentar en comparación con las mezclas asfálticas convencionales, ya que la incorporación de caucho aumenta la viscosidad del ligante y, por lo tanto, se producen mayores cantidades de emisiones de GEI. En la presente Tesis, la tecnología de mezclas semicalientes con aditivos orgánicos (Sasobit, Asphaltan A, Asphaltan B, Licomont) se incorporó a la de betunes de alta viscosidad modificados con caucho (15% y 20% de caucho) con la finalidad de dar una solución a los inconvenientes de mezclas con caucho gracias a la utilización de aditivos reductores de la viscosidad. Para este fin, se estudió si sería posible obtener una producción más sostenible de mezclas con betunes de alto contenido en caucho sin afectar significativamente su nivel de rendimiento mecánico. La metodología aplicada para evaluar y comparar las características de las mezclas consistió en la realización de una serie de ensayos de laboratorio para betunes y mezclas con caucho y con aditivos de mezclas semicalientes y de un análisis del ciclo de vida híbrido de la producción de mezclas semicalientes teniendo en cuenta la papel del aditivo en la cadena de suministro con el fin de cuantificar con precisión los beneficios de esta tecnología. Los resultados del estudio indicaron que la incorporación de los aditivos permite reducir la viscosidad de los ligantes y, en consecuencia, las temperaturas de producción y de compactación de las mezclas. Por otro lado, aunque la adición de caucho mejoró significativamente el comportamiento mecánico de los ligantes a baja temperatura reduciendo la susceptibilidad al fenómeno de fisuración térmica, la adición de las ceras aumentó ligeramente la rigidez. Los resultados del estudio reológico mostraron que la adición de porcentajes crecientes de caucho mejoraban la resistencia del pavimento con respecto a la resistencia a la deformación permanente a altas temperaturas y a la fisuración térmica a bajas temperaturas. Además, se observó que los aditivos mejoran la resistencia a roderas y la elasticidad del pavimento al aumentar el módulo complejo a altas temperaturas y al disminuir del ángulo de fase. Por otra parte, el estudio reológico confirmó que los aditivos estudiados aumentan ligeramente la rigidez a bajas temperaturas. Los ensayos de fluencia llevados a cabo con el reómetro demostraron una vez más la mejora en la elasticidad y en la resistencia a la deformación permanente dada por la adición de las ceras. El estudio de mezclas con caucho y aditivos de mezclas semicalientes llevado a cabo demostró que las temperaturas de producción/compactación se pueden disminuir, que las mezclas no experimentarían escurrimiento, que los aditivos no cambian significativamente la resistencia conservada y que cumplen la sensibilidad al agua exigida. Además, los aditivos aumentaron el módulo de rigidez en algunos casos y mejoraron significativamente la resistencia a la deformación permanente. Asimismo, a excepción de uno de los aditivos, las mezclas con ceras tenían la misma o mayor resistencia a la fatiga en comparación con la mezcla control. Los resultados del análisis de ciclo de vida híbrido mostraron que la tecnología de mezclas semicalientes es capaz de ahorrar significativamente energía y reducir las emisiones de GEI, hasta un 18% y 20% respectivamente, en comparación con las mezclas de control. Sin embargo, en algunos de los casos estudiados, debido a la presencia de la cera, la temperatura de fabricación debe reducirse en un promedio de 8 ºC antes de que los beneficios de la reducción de emisiones y el consumo de combustible puedan ser obtenidos. Los principales sectores contribuyentes a los impactos ambientales generados en la fabricación de mezclas semicalientes fueron el sector de los combustibles, el de la minería y el de la construcción. Due to growing concerns over global warming and climate change in recent years, one of the most important challenges facing our society is the efficient and economic use of energy, and with it, the corresponding need to reduce greenhouse gas (GHG) emissions. The Warm Mix Asphalt (WMA) technology has become an important new research topic in the field of pavement materials as it offers a potential solution for the reduction of energy consumption and GHG emissions during the production and placement of asphalt mixtures. On the other hand, pavements containing crumb-rubber modified (CRM) binders save energy and natural resources by making use of waste products. These pavements offer an improved resistance to rutting, fatigue and thermal cracking; reduce traffic noise and maintenance costs and prolong pavement life. These mixtures, however, present one major drawback: the manufacturing temperature is higher compared to conventional asphalt mixtures as the rubber lends greater viscosity to the binder and, therefore, larger amounts of GHG emissions are produced. In this dissertation the WMA technology with organic additives (Sasobit, Asphaltan A, Asphaltan B and Licomont) was applied to CRM binders (15% and 20% of rubber) in order to offer a solution to the drawbacks of asphalt rubber (AR) mixtures thanks to the use of fluidifying additives. For this purpose, this study sought to determine if a more sustainable production of AR mixtures could be obtained without significantly affecting their level of mechanical performance. The methodology applied in order to evaluate and compare the performance of the mixtures consisted of carrying out several laboratory tests for the CRM binders and AR mixtures with WMA additives (AR-WMA mixtures) and a hybrid input-output-based life cycle assessment (hLCA) of the production of WMA. The results of the study indicated that the incorporation of the organic additives were able to reduce the viscosity of the binders and, consequently, the production and compaction temperatures. On the other hand, although the addition of rubber significantly improved the mechanical behaviour of the binders at low temperatures reducing the susceptibility to thermal cracking phenomena, the addition of the waxes slightly increased the stiffness. Master curves showed that the addition of increasing percentages of rubber improved the resistance of the pavement regarding both resistance to permanent deformation at high temperatures and thermal cracking at low temperatures. In addition, the waxes improved the rutting resistance and the elasticity as they increased the complex modulus at high temperatures and decreased the phase angle. Moreover, master curves also attest that the WMA additives studied increase the stiffness at low temperatures. The creep tests carried out proved once again the improvement in the elasticity and in the resistance to permanent deformation given by the addition of the waxes. The AR-WMA mixtures studied have shown that the production/compaction temperatures can be decreased, that the mixtures would not experience binder drainage, that the additives did not significantly change the retained resistance and fulfilled the water sensitivity required. Furthermore, the additives increased the stiffness modulus in some cases and significantly improved the permanent deformation resistance. Except for one of the additives, the waxes had the same or higher fatigue resistance compared to the control mixture. The results of the hLCA demonstrated that the WMA technology is able to significantly save energy and reduce GHG emissions, up to 18% and 20%, respectively, compared to the control mixtures. However, in some of the case studies, due to the presence of wax, the manufacturing temperature at the asphalt plant must be reduced by an average of 8ºC before the benefits of reduced emissions and fuel usage can be obtained. The results regarding the overall impacts generated using a detailed production layer decomposition indicated that fuel, mining and construction sectors are the main contributors to the environmental impacts of manufacturing WMA mixtures.
A simplified spectral approachfor impedance-based damage identification of frp-strengthened rc beams
Resumo:
Hoy en día, el refuerzo y reparación de estructuras de hormigón armado mediante el pegado de bandas de polímeros reforzados con fibras (FRP) se emplea cada vez con más frecuencia a causa de sus numerosas ventajas. Sin embargo, las vigas reforzadas con esta técnica pueden experimentar un modo de fallo frágil a causa del despegue repentino de la banda de FRP a partir de una fisura intermedia. A pesar de su importancia, el número de trabajos que abordan el estudio de este mecanismo de fallo y su monitorización es muy limitado. Por ello, el desarrollo de metodologías capaces de monitorizar a largo plazo la adherencia de este refuerzo a las estructuras de hormigón e identificar cuándo se inicia el despegue de la banda constituyen un importante desafío a abordar. El principal objetivo de esta tesis es la implementación de una metodología fiable y efectiva, capaz de detectar el despegue de una banda de FRP en una viga de hormigón armado a partir de una fisura intermedia. Para alcanzar este objetivo se ha implementado un procedimiento de calibración numérica a partir de ensayos experimentales. Para ello, en primer lugar, se ha desarrollado un modelo numérico unidimensional simple y no costoso representativo del comportamiento de este tipo vigas de hormigón reforzadas con FRP, basado en un modelo de fisura discreta para el hormigón y el método de elementos espectrales. La formación progresiva de fisuras a flexion y el consiguiente despegue en la interface entre el hormigón y el FRP se formulan mediante la introducción de un nuevo elemento capaz de representar ambos fenómenos simultáneamente sin afectar al procedimiento numérico. Además, con el modelo propuesto, se puede obtener de una forma sencilla la respuesta dinámica en altas frecuencias de este tipo de estructuras, lo cual puede hacer muy útil su uso como herramienta de diagnosis y detección del despegue en su fase inicial mediante una monitorización de la variación de las características dinámicas locales de la estructura. Un método de evaluación no destructivo muy prometedor para la monitorización local de las estructuras es el método de la impedancia usando sensores-actuadores piezoeléctricos (PZT). La impedancia eléctrica de los sensores PZT se puede relacionar con la impedancia mecánica de las estructuras donde se encuentran adheridos Ya que la impedancia mecánica de una estructura se verá afectada por su deterioro, se pueden implementar indicadores de daño mediante una comparación del espectro de admitancia (inversa de la impedancia) a lo largo de distintas etapas durante el periodo de servicio de una estructura. Cualquier cambio en el espectro se podría interpretar como una variación en la integridad de la estructura. La impedancia eléctrica se mide a altas frecuencias con lo cual esta metodología debería ser muy sensible a la detección de estados de daño incipiente local, tal como se desea en la aplicación de este trabajo. Se ha implementado un elemento espectral PZT-FRP como extensión del modelo previamente desarrollado, con el objetivo de poder calcular numéricamente la impedancia eléctrica de sensores PZT adheridos a bandas de FRP sobre una viga de hormigón armado. El modelo, combinado con medidas experimentales captadas mediante sensores PZT, se implementa en el marco de una metodología de calibración de modelos para detectar cuantitativamente el despegue en la interfase entre una banda de FRP y una viga de hormigón. El procedimiento de optimización se resuelve empleando el método del enjambre cooperativo con un algoritmo bagging. Los resultados muestran una gran aproximación en la estimación del daño para el problema propuesto. Adicionalmente, se ha desarrollado también un método adaptativo para el mallado de elementos espectrales con el objetivo de localizar las zonas dañadas a partir de los resultados experimentales, el cual contribuye a aumentar la robustez y efectividad del método propuesto a la hora de identificar daños incipientes en su aparición inicial. Finalmente, se ha llevado a cabo un procedimiento de optimización multi-objetivo para detectar el despegue inicial en una viga de hormigón a escala real reforzada con FRP a partir de las impedancias captadas con una red de sensores PZT instrumentada a lo largo de la longitud de la viga. Cada sensor aporta los datos para definir cada una de las funciones objetivo que definen el procedimiento. Combinando el modelo previo de elementos espectrales con un algoritmo PSO multi-objetivo el procedimiento de detección de daño resultante proporciona resultados satisfactorios considerando la escala de la estructura y todas las incertidumbres características ligadas a este proceso. Los resultados obtenidos prueban la viabilidad y capacidad de los métodos antes mencionados y también su potencial en aplicaciones reales. Abstract Nowadays, the external bonding of fibre reinforced polymer (FRP) plates or sheets is increasingly used for the strengthening and retrofitting of reinforced concrete (RC) structures due to its numerous advantages. However, this kind of strengthening often leads to brittle failure modes being the most dominant failure mode the debonding induced by an intermediate crack (IC). In spite of its importance, the number of studies regarding the IC debonding mechanism and bond health monitoring is very limited. Methodologies able to monitor the long-term efficiency of bonding and successfully identify the initiation of FRP debonding constitute a challenge to be met. The main purpose of this thesisis the implementation of a reliable and effective methodology of damage identification able to detect intermediate crack debonding in FRP-strengthened RC beams. To achieve this goal, a model updating procedure based on numerical simulations and experimental tests has been implemented. For it, firstly, a simple and non-expensive one-dimensional model based on the discrete crack approach for concrete and the spectral element method has been developed. The progressive formation of flexural cracks and subsequent concrete-FRP interfacial debonding is formulated by the introduction of a new element able to represent both phenomena simultaneously without perturbing the numerical procedure. Furthermore, with the proposed model, high frequency dynamic response for these kinds of structures can also be obtained in a very simple and non-expensive way, which makes this procedure very useful as a tool for diagnoses and detection of debonding in its initial stage by monitoring the change in local dynamic characteristics. One very promising active non-destructive evaluation method for local monitoring is impedance-based structural health monitoring(SHM)using piezoelectric ceramic (PZT) sensor-actuators. The electrical impedance of the PZT can be directly related to the mechanical impedance of the host structural component where the PZT transducers are attached. Since the structural mechanical impedance will be affected by the presence of structural damage, comparisons of admittance (inverse of impedance) spectra at various times during the service period of the structure can be used as damage indicator. Any change in the spectra might be an indication of a change in the structural integrity. The electrical impedance is measured at high frequencies with which this methodology appears to be very sensitive to incipient damage in structural systems as desired for our application. Abonded-PZT-FRP spectral beam element approach based on an extension of the previous discrete crack approach is implemented in the calculation of the electrical impedance of the PZT transducer bonded to the FRP plates of a RC beam. This approach in conjunction with the experimental measurements of PZT actuator-sensors mounted on the structure is used to present an updating methodology to quantitatively detect interfacial debonding between a FRP strip and the host RC structure. The updating procedure is solved by using an ensemble particle swarm optimization approach with abagging algorithm, and the results demonstrate a big improvement for the performance and accuracy of the damage detection in the proposed problem. Additionally, an adaptive strategy of spectral element mesh has been also developed to detect damage location with experimental results, which shows the robustness and effectiveness of the proposed method to identify initial and incipient damages at its early stage. Lastly, multi-objective optimization has been carried out to detect debonding damage in a real scale FRP-strengthened RC beam by using impedance signatures. A net of PZT sensors is distributed along the beam to construct impedance-based multiple objectives under gradually induced damage scenario. By combining the spectral element model presented previously and an ensemble multi-objective PSO algorithm, the implemented damage detection process yields satisfactory predictions considering the scale and uncertainties of the structure. The obtained results prove the feasibility and capability of the aforementioned methods and also their potentials in real engineering applications.
Resumo:
Desarrollo de una librería de efectos de audio en lenguaje nativo de Matlab con procesamiento a tiempo no real. Incluye una interfaz de usuario sencilla y auto explicativa, y ofrece un control libre de los parámetros del efecto, elección y visualización del audio de entrada, reproducción y visualización del audio de salida, y representación característica del procesamiento que se está realizando. El objetivo principal de la librería es que sea usada por alumnos en un laboratorio docente, permitiendo la experimentación con diversos parámetros y entradas de audio facilitando, de esta forma, la comprensión de los diferentes procesamientos que se están realizando. El proyecto incluye una extensa documentación y una plantilla con el objetivo de que se puedan añadir en un futuro más programas de efectos, puesto que la intención del proyecto es ofrecer una librería a largo plazo y facilitar el mantenimiento y las modificaciones futuras.
Resumo:
"En la línea de trabajo que hemos seguido, en todo momento hemos tenido en cuenta que una mejora en las condiciones de vida de la población no sería posible sin: _ la creación de nuevas actividades productivas que puedan dar trabajo a los hombres y generar economía en estos pueblos _ un mejor acondicionamiento de los espacios públicos donde mujeres y niños pasan la mayor parte del día actualmente A escala territorial, la mejora en el sistema hídrico podría ayudar a una mejor explotación agrícola de las tierras, permitiendo con el tiempo, generar una actividad productiva con la venta de cultivos (existente en otras partes de la provincia) A escala urbana, . poner en valor las construcciones tradicionales y evitar que se pierda la forma tradicional de construcción con tierra característica de estos pueblos con la introducción de la técnica del btc empleando un 2-7% de cemento, con lo que conseguiríamos lo bueno del hormigón [ausencia de mantenimiento y rapidez en la construcción] y de la tierra [buen funcionamiento térmico] . una mejora en las competencias técnicas de quienes se dedican a la construcción y el aprendizaje de un nuevo oficio por parte de otros, haciéndoles partícipes de la construcción de su propio entorno. Un año después de la llegada de los talleres de construcción con tierra a los pueblos del oasis, se han producido algunos cambios que suponemos estaban ya a punto de florecer. La construcción de una red hídrica que deriva el agua a las casas en M´Hamid ha empezado a construirse mientras llevábamos a cabo el análisis para esta práctica."
Resumo:
La evaluación de ontologías, incluyendo diagnóstico y reparación de las mismas, es una compleja actividad que debe llevarse a cabo en cualquier proyecto de desarrollo ontológico para comprobar la calidad técnica de las ontologías. Sin embargo, existe una gran brecha entre los enfoques metodológicos sobre la evaluación de ontologías y las herramientas que le dan soporte. En particular, no existen enfoques que proporcionen guías concretas sobre cómo diagnosticar y, en consecuencia, reparar ontologías. Esta tesis pretende avanzar en el área de la evaluación de ontologías, concretamente en la actividad de diagnóstico. Los principales objetivos de esta tesis son (a) ayudar a los desarrolladores en el diagnóstico de ontologías para encontrar errores comunes y (b) facilitar dicho diagnóstico reduciendo el esfuerzo empleado proporcionando el soporte tecnológico adecuado. Esta tesis presenta las siguientes contribuciones: • Catálogo de 41 errores comunes que los ingenieros ontológicos pueden cometer durante el desarrollo de ontologías. • Modelo de calidad para el diagnóstico de ontologías alineando el catálogo de errores comunes con modelos de calidad existentes. • Diseño e implementación de 48 métodos para detectar 33 de los 41 errores comunes en el catálogo. • Soporte tecnológico OOPS!, que permite el diagnstico de ontologías de forma (semi)automática. De acuerdo con los comentarios recibidos y los resultados de los test de satisfacción realizados, se puede afirmar que el enfoque desarrollado y presentado en esta tesis ayuda de forma efectiva a los usuarios a mejorar la calidad de sus ontologías. OOPS! ha sido ampliamente aceptado por un gran número de usuarios de formal global y ha sido utilizado alrededor de 3000 veces desde 60 países diferentes. OOPS! se ha integrado en software desarrollado por terceros y ha sido instalado en empresas para ser utilizado tanto durante el desarrollo de ontologías como en actividades de formación. Abstract Ontology evaluation, which includes ontology diagnosis and repair, is a complex activity that should be carried out in every ontology development project, because it checks for the technical quality of the ontology. However, there is an important gap between the methodological work about ontology evaluation and the tools that support such an activity. More precisely, not many approaches provide clear guidance about how to diagnose ontologies and how to repair them accordingly. This thesis aims to advance the current state of the art of ontology evaluation, specifically in the ontology diagnosis activity. The main goals of this thesis are (a) to help ontology engineers to diagnose their ontologies in order to find common pitfalls and (b) to lessen the effort required from them by providing the suitable technological support. This thesis presents the following main contributions: • A catalogue that describes 41 pitfalls that ontology developers might include in their ontologies. • A quality model for ontology diagnose that aligns the pitfall catalogue to existing quality models for semantic technologies. • The design and implementation of 48 methods for detecting 33 out of the 41 pitfalls defined in the catalogue. • A system called OOPS! (OntOlogy Pitfall Scanner!) that allows ontology engineers to (semi)automatically diagnose their ontologies. According to the feedback gathered and satisfaction tests carried out, the approach developed and presented in this thesis effectively helps users to increase the quality of their ontologies. At the time of writing this thesis, OOPS! has been broadly accepted by a high number of users worldwide and has been used around 3000 times from 60 different countries. OOPS! is integrated with third-party software and is locally installed in private enterprises being used both for ontology development activities and training courses.
Resumo:
Esta tesis tiene como objetivo actualizar los criterios de proyecto de los buques cableros, analizando las nuevas tendencias en el uso de este tipo de barcos. Se estudian las operaciones realizadas para la instalación y reparación de los cables submarinos. Del estudio de estas técnicas se extraen unos requisitos para el proyecto. Se comprueba cómo han evolucionado a lo largo de la historia las características de los buques cableros. Comparando esta evolución con las características necesarias extraídas del estudio de las operaciones de cables, se concluyen los aspectos fundamentales a tener en cuenta por los ingenieros navales en el proyecto de estos buques cableros. Se presentan: datos concretos para el dimensionamiento, equipamiento, distribución y disposición general; soluciones utilizadas y desarrolladas por el autor para la configuración del manejo del cable de tiro del arado submarino; y se propone una disposición general más acorde con las necesidades modernas de uso de estos barcos. Todo está basado en la experiencia del autor de más de 20 años operando buques cableros de la empresa Transoceanic Cableship Company, Ltd.1 y TE Conectivity SubCom SL (antes TEMASA2), ambas filiales de la empresa norteamericana de telecomunicaciones submarinas TE SubCom, por ello su utilidad práctica queda garantizada. ABSTRACT The goal of this thesis is to update the design criteria applied to cableships by analyzing the new trends in the use of this type of ships. The methods of procedure for the installation and repair of fiber optic submarine cables are also explored. The study of these techniques draws conclusions regarding the design requirements. The evolution of the characteristics of the cableships throughout the history is also approached. The primary aspect that has to be taken into account by the naval architect is also stated, when comparing the evolution and the necessary requirements extracted from the study of cable operations. Specific data for dimensioning, outfitting, distribution and arrangement are presented, as well as solutions found and developed by the author for the tow wire handling configuration. Furthermore, a new general arrangement more in line with the modern needs for the purpose of these ships is suggested. Everything is based in the author´s experience of over twenty years in the operation of cableships owned by Transoceanic Cableship Company Ltd. and TE Connectivity SubCom SL (formerly called TEMASA), both subsidiaries of the US based company TE SubCom. For this reason, the practical value of the study is guaranteed.