1000 resultados para PROGRAMA INGENIERÍA INDUSTRIAL
Resumo:
Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.
Resumo:
This document introduces the main concepts of Collaborative Engineering as a new methodology, procedures and tools to design and develop an aircraft, as Airbus Military is implementing. Airbus designs and industrializes aircrafts under Concurrent Engineering techniques since decades with success. The introduction of new PLM methodologies, procedures and tools, mainly in the industrialization areas, and the need to reduce time-to-market conducted Airbus Military to push the engineering teams to do things in a different way. Traditional Engineering works sequentially, Concurrent Engineering basically overlaps tasks between teams using maturity states and taking assuming risks. Collaborative Engineering promotes a single team to develop product, processes and resources from the conceptual phase to the start of the serial production. The deliverable of the team is an iDMU (industrial DMU), a complete definition and verification of the virtual manufacturing of the product.
Resumo:
AIRBUS Military has undertaken a project to implement the industrial Digital Mock-Up (iDMU) concept to support the industrialization process of a medium size aerostructure. Within the framework of a collaborative engineering strategy, such project is part of the efforts to deploy Digital Manufacturing as a key technology for the industrialization of aircrafts assembly lines. The project has confirmed the potential of the iDMU to improve the industrial design process in a collaborative engineering environment. This communication presents the main project objectives, the key methodological points, the main project achievements and the next additional developments to increase the scope and benefits of the iDMU concept.
Resumo:
After being designed, a product has to be manufactured, which means converting concepts and information into a real, physical object. This requires a big amount of resources and a careful planning. The product manufacturing must be designed too, and that is called Industrialization Design. An accepted methodology for this activity is starting defining simple structures and then progressively increasing the detail degree of the manufacturing solution. The impact of decisions taken at first stages of Industrialization Design is remarkable, and software tools to assist designers are required. In this paper a Knowledge Based Application prototype for the Industrialization Design is presented. The application is implemented within the environment CATIA V5/DELMIA. A case study with a simple Product from aerospace sector illustrates the prototype development.
Resumo:
The implementation of Internet technologies has led to e-Manufacturing technologies becoming more widely used and to the development of tools for compiling, transforming and synchronising manufacturing data through the Web. In this context, a potential area for development is the extension of virtual manufacturing to performance measurement (PM) processes, a critical area for decision making and implementing improvement actions in manufacturing. This paper proposes a PM information framework to integrate decision support systems in e-Manufacturing. Specifically, the proposed framework offers a homogeneous PM information exchange model that can be applied through decision support in e-Manufacturing environment. Its application improves the necessary interoperability in decision-making data processing tasks. It comprises three sub-systems: a data model, a PM information platform and PM-Web services architecture. A practical example of data exchange for measurement processes in the area of equipment maintenance is shown to demonstrate the utility of the model.
Resumo:
El objetivo principal está recogido en el título de la Tesis. Ampliando éste para hacerlo más explícito, puede decirse que se trata de “desarrollar un sistema de control para que una instalación fotovoltaica de bombeo directo con una bomba centrífuga accionada por un motor de inducción trabaje de la forma más eficiente posible”. Para lograr ese propósito se establecieron los siguientes objetivos específicos: 1. Diseñar y construir un prototipo de instalación fotovoltaica de bombeo directo que utilice principalmente elementos de bajo coste y alta fiabilidad. Para cumplir esos requisitos la instalación consta de un generador fotovoltaico con módulos de silicio monocristalino, una bomba centrífuga accionada por un motor de inducción y un inversor que controla vectorialmente el motor. Los módulos de silicio monocristalino, el motor asíncrono y la bomba centrífuga son, en sus respectivas categorías, los elementos más robustos y fiables que existen, pudiendo ser adquiridos, instalados e incluso reparados (el motor y la bomba) por personas con una mínima formación técnica en casi cualquier lugar del mundo. El inversor no es tan fiable ni fácil de reparar. Ahora bien, para optimizar la potencia que entrega el generador y tener algún tipo de control sobre el motor se necesita al menos un convertidor electrónico. Por tanto, la inclusión del inversor en el sistema no reduce su fiabilidad ni supone un aumento del coste. La exigencia de que el inversor pueda realizar el control vectorial del motor responde a la necesidad de optimizar tanto la operación del conjunto motor-bomba como la del generador fotovoltaico. Como más adelante se indica, lograr esa optimización es otro de los objetivos que se plantea. 2. Reducir al mínimo el número de elementos de medida y control que necesita el sistema para su operación (sensorless control). Con ello se persigue aumentar la robustez y fiabilidad del sistema y reducir sus operaciones de mantenimiento, buscando que sea lo más económico posible. Para ello se deben evitar todas las medidas que pudieran ser redundantes, tomando datos sólo de las variables eléctricas que no pueden obtenerse de otra forma (tensión e intensidad en corriente continua y dos intensidades en corriente alterna) y estimando la velocidad del rotor (en vez de medirla con un encoder u otro dispositivo equivalente). 3. Estudiar posibles formas de mejorar el diseño y la eficiencia de estas instalaciones. Se trata de establecer criterios para seleccionar los dispositivos mas eficientes o con mejor respuesta, de buscar las condiciones para la operación óptima, de corregir problemas de desacoplo entre subsistemas, etc. Mediante el análisis de cada una de las partes de las que consta la instalación se plantearán estrategias para minimizar pérdidas, pautas que permitan identificar los elementos más óptimos y procedimientos de control para que la operación del sistema pueda alcanzar la mayor eficiente posible. 4. Implementar un modelo de simulación del sistema sobre el que ensayar las estrategias de control que sean susceptibles de llevar a la práctica. Para modelar el generador fotovoltaico se requiere un conjunto de parámetros que es necesario estimar previamente a partir de datos obtenidos de los catálogos de los módulos a utilizar o mediante ensayos. Igual sucede con los parámetros para modelar el motor. Como se pretende que el motor trabaje siempre con la máxima eficiencia será necesario realizar su control vectorial, por lo que el modelo que se implemente debe ser también vectorial. Ahora bien, en el modelo vectorial estándar que normalmente se utiliza en los esquemas de control se consideran nulas las pérdidas en el hierro, por lo que sólo se podrá utilizar ese modelo para evaluar la eficiencia del motor si previamente se modifica para que incluya el efecto de dichas pérdidas. 5. Desarrollar un procedimiento de control para que el inversor consiga que el motor trabaje con mínimas pérdidas y a la vez el generador entregue la máxima potencia. Tal como se ha mencionado en el primer objetivo, se trata de establecer un procedimiento de control que determine las señales de consigna más convenientes para que el inversor pueda imponer en cada momento al motor las corrientes de estator para las que sus pérdidas son mínimas. Al mismo tiempo el procedimiento de control debe ser capaz de variar las señales de consigna que recibe el inversor para que éste pueda hacer que el motor demande más o menos potencia al generador fotovoltaico. Actuando de esa forma se puede lograr que el generador fotovoltaico trabaje entregando la máxima potencia. El procedimiento de control desarrollado se implementará en un DSP encargado de generar las señales de referencia que el inversor debe imponer al motor para que trabaje con mínimas pérdidas y a la vez el generador fotovoltaico entregue la máxima potencia.
Resumo:
En esta tesis se propone un procedimiento para evaluar la resistencia mecánica de obleas de silicio cristalino y se aplica en diferentes casos válidos para la industria. En el sector de la industria fotovoltaica predomina la tecnología basada en paneles de silicio cristalino. Estos paneles están compuestos por células solares conectadas en serie y estas células se forman a partir de obleas de silicio. Con el objetivo de disminuir el coste del panel, en los últimos años se ha observado una clara tendencia a la reducción del espesor de las obleas. Esta reducción del espesor modifica la rigidez de las obleas por lo que ha sido necesario modificar la manera tradicional de manipularlas con el objetivo de mantener un bajo ratio de rotura. Para ello, es necesario conocer la resistencia mecánica de las obleas. En la primera parte del trabajo se describen las obleas de silicio, desde su proceso de formación hasta sus propiedades mecánicas. Se muestra la influencia de la estructura cristalográfica en la resistencia y en el comportamiento ya que el cristal de silicio es anisótropo. Se propone también el método de caracterización de la resistencia. Se utiliza un criterio probabilista basado en los métodos de dimensionamiento de materiales frágiles en el que la resistencia queda determinada por los parámetros de la ley de Weibull triparamétrica. Se propone el procedimiento para obtener estos parámetros a partir de campañas de ensayos, modelización numérica por elementos finitos y un algoritmo iterativo de ajuste de los resultados. En la segunda parte de la tesis se describen los diferentes tipos de ensayos que se suelen llevar a cabo con este material. Se muestra además, para cada uno de los ensayos descritos, un estudio comparativo de diferentes modelos de elementos finitos simulando los ensayos. Se comparan tanto los resultados aportados por cada modelo como los tiempos de cálculo. Por último, se presentan tres aplicaciones diferentes donde se ha aplicado este procedimiento de estudio. La primera aplicación consiste en la comparación de la resistencia mecánica de obleas de silicio en función del método de crecimiento del lingote. La resistencia de las tradicionales obleas monocristalinas obtenidas por el método Czochralski y obleas multicristalinas es comparada con las novedosas obleas quasi-monocristalinas obtenidas por métodos de fundición. En la segunda aplicación se evalúa la profundidad de las grietas generadas en el proceso de corte del lingote en obleas. Este estudio se realiza de manera indirecta: caracterizando la resistencia de grupos de obleas sometidas a baños químicos de diferente duración. El baño químico reduce el espesor de las obleas eliminando las capas más dañadas. La resistencia de cada grupo es analizada y la comparación permite obtener la profundidad de las grietas generadas en el proceso de corte. Por último, se aplica este procedimiento a un grupo de obleas con características muy especiales: obleas preparadas para formar células de contacto posterior EWT. Estas obleas presentan miles de agujeros que las debilitan considerablemente. Se aplica el procedimiento de estudio propuesto con un grupo de estas obleas y se compara la resistencia obtenida con un grupo de referencia. Además, se propone un método simplificado de estudio basado en la aplicación de una superficie de intensificación de tensiones. ABSTRACT In this thesis, a procedure to evaluate the mechanical strength of crystalline silicon wafers is proposed and applied in different studies. The photovoltaic industry is mainly based on crystalline silicon modules. These modules are composed of solar cells which are based on silicon wafers. Regarding the cost reduction of solar modules, a clear tendency to use thinner wafers has been observed during last years. Since the stiffness varies with thickness, the manipulation techniques need to be modified in order to guarantee a low breakage rate. To this end, the mechanical strength has to be characterized correctly. In the first part of the thesis, silicon wafers are described including the different ways to produce them and the mechanical properties of interest. The influence of the crystallographic structure in the strength and the behaviour (the anisotropy of the silicon crystal) is shown. In addition, a method to characterize the mechanical strength is proposed. This probabilistic procedure is based on methods to characterize brittle materials. The strength is characterized by the values of the three parameters of the Weibull cumulative distribution function (cdf). The proposed method requires carrying out several tests, to simulate them through Finite Element models and an iterative algorithm in order to estimate the parameters of the Weibull cdf. In the second part of the thesis, the different types of test that are usually employed with these samples are described. Moreover, different Finite Element models for the simulation of each test are compared regarding the information supplied by each model and the calculation times. Finally, the method of characterization is applied to three examples of practical applications. The first application consists in the comparison of the mechanical strength of silicon wafers depending on the ingot growth method. The conventional monocrystalline wafers based on the Czochralski method and the multicrystalline ones are compared with the new quasi-monocrystalline substrates. The second application is related to the estimation of the crack length caused by the drilling process. An indirect way is used to this end: several sets of silicon wafers are subjected to chemical etchings of different duration. The etching procedure reduces the thickness of the wafers removing the most damaged layers. The strength of each set is obtained by means of the proposed method and the comparison permits to estimate the crack length. At last, the procedure is applied to determine the strength of wafers used for the design of back-contact cells of type ETW. These samples are drilled in a first step resulting in silicon wafers with thousands of tiny holes. The strength of the drilled wafers is obtained and compared with the one of a standard set without holes. Moreover, a simplified approach based on a stress intensification surface is proposed.
Resumo:
Esta investigación tiene por objeto determinar la estructura factorial del modelo de relaciones entre el sistema de gestión de la calidad (SGC) y el desempeño organizacional (DO), así como también, el efecto mediador que sobre dichas relaciones ejercen la gestión del conocimiento (GC) y satisfacción del cliente interno (SCI). El estudio fue de tipo descriptivo-correlacional,no experimental, transversal y expost-facto; analizado factorialmente, a través de técnicas multivariantes. La población fue de 369 trabajadores del área de la calidad de la industria petrolera venezolana (IPV). A la muestra no probabilística se le aplicó un cuestionario, diseñado y validado por los investigadores, a través del método de panel de expertos y de una prueba piloto, la cual alcanzó un α(Cronbach)= 0,899. Se determinó que en el modelo de relaciones subyacen tres factores o variables latentes: ENCSCIAO (Eliminación de la No Conformidad, Satisfacción del Cliente Interno y el Aprendizaje Organizacional), SGC (Sistema de Gestión de la Calidad) y DOOA (Desempeño Organizacional y Organización de Aprendizaje) y que el efecto mediador es ejercido por el factor ENCSCIAO, constituyendo la SCI el núcleo dinamizador del efecto mediador, a través de la dimensión activos físicos, constituida por los indicadores ‘instalaciones aptas’ e ‘información visual entendible’. Se concluye que el modelo teórico formulado sirvió para la configuración de un nuevo modelo empírico de relaciones, en el cual la SCI representa el principal constructo, que favorece un mejor desempeño en la larga cadena de valor de la IPV.
Resumo:
La construcción es una de las actividades más valiosas para la sociedad debido a la naturaleza de los servicios que ofrece y por el volumen de empleos y movimiento económico que genera. Por ello es un elemento fundamental para el desarrollo sustentable. Es una industria compleja, cada vez más dependiente del conocimiento. Debido a su naturaleza fragmentaria y temporal y la alta rotación de personal presenta grandes retos y complicaciones particulares. Estas dificultades en oportunidades pueden transformarse en problemas por la complejidad, localización geográfica o los requisitos técnicos, financieros e innovaciones de los proyectos. Debido a sus características, las construcciones sufren cambios en las condiciones planificadas. Con frecuencia estos cambios conducen a retrasos en la ejecución de los proyectos, costes superiores a los presupuestados y conflictos entre los clientes y los ejecutores. Esto genera problemas de competitividad que afectan tanto a países desarrollados como países en vías de desarrollo. Los problemas de la construcción tienen perniciosos efectos para la sociedad, que pierde recursos que deberían permitir mejores resultados en términos de calidad de vida y beneficios sociales y económicos. Debido a la importancia del sector y los ingentes recursos que se invierten en cada proyecto se justifican los máximos esfuerzos para lograr los mejores desempeños de esta industria. Éste interés ha orientado el desarrollo de investigaciones, para apoyar el logro de los objetivos de mejoramiento continuo y construcción sustentable. Los estudios desarrollados han permitido demostrar el valor añadido del conocimiento en todos los sectores productivos. Para la construcción, los conocimientos ofrecen indicadores de desempeño, datos y lecciones aprendidas provenientes de aciertos y errores. Estos deben conducir a aprendizajes fundamentales para sustentar su competitividad. Sin embargo, a pesar de los conocimientos disponibles y los avances en las técnicas de control gerencial y de proyectos, es alarmante la recurrencia de los problemas de construcción. Esta problemática se manifiesta con severidad en los proyectos de construcción industrial que se desarrollan para el sector petrolero, petroquímico y energético venezolano. El sector presenta evidentes necesidades para un mejor desempeño competitivo por la alta incidencia de retrasos de los proyectos, que implican pérdidas de gran parte de los recursos humanos, financieros, técnicos y conocimientos invertidos. Esta investigación plantea como objetivos analizar la importancia de la construcción y su sustentabilidad, los principales problemas que afectan el sector, la gestión del conocimiento y algunos modelos disponibles para gestionarlos. Igualmente examina las lecciones aprendidas y la productividad y competitividad, con particular atención a los problemas de competitividad venezolanos. Adicionalmente se evalúan las implicaciones del conocimiento como activo estratégico y se caracterizan las empresas de construcción industrial venezolanas. Para ello se identifican las dimensiones que sustentan la gestión del conocimiento en estas empresas, para finalmente determinar las que resultan más idóneas para el nuevo modelo a ser propuesto. Con estos objetivos se desarrolló el estudio empírico. Para ello fueron invitados a participar representantes de 105 empresas y expertos de construcción distintos, todos con experiencias de construcción al sector industrial venezolano. Se obtuvieron 112 respuestas en representación de 41 organizaciones y expertos diferentes. El trabajo de campo inició en Junio de 2012 y culminó en Noviembre de 2012. Los datos obtenidos fueron analizados con apoyo de técnicas estadísticas descriptivas y multivariables. Los objetivos de la investigación se alcanzaron ya que se logró caracterizar el sector de las construcciones industriales y se propuso un nuevo modelo de gestión del conocimiento adecuado a sus características. El nuevo modelo fue formulado atendiendo a criterios de sencillez, bajos costes y facilidad de adaptación para motivar su utilización en organizaciones de construcción industrial variadas. Con ello se busca que resulte de utilidad aún para las organizaciones más pequeñas, con menores recursos o aquellas que enfrentan entornos constructivos complicados. Por último se presentan algunas sugerencias para motivar la comprensión de los fenómenos estudiados en los grupos de interés de la construcción. Se propone analizar estos problemas desde las etapas iniciales de los estudios de ingeniería, de arquitectura, de construcción, de economía y administración. Igualmente se propone desarrollar acciones conjuntas de parte de los sectores académicos, gubernamentales, industriales y asociaciones para el mejoramiento competitivo y desarrollo sustentable global. La propuesta aporta datos sobre el sector constructivo venezolano en un área que presenta grandes carencias y propone un modelo innovador por su sencillez y orientación hacia el uso diario e intuitivo de los conocimientos como recursos fundamentales para la competitividad. Esta orientación puede tener trascendencia más allá del sector descrito, para apoyar la solución de problemas de otras industrias en entornos globales. ABSTRACT Construction is one of the most valuable activities for society due to the nature of the services offered and the number of jobs and revenues generated. Therefore it is a key element for sustainable development. Construction is a complex industry increasingly dependent on knowledge. Its temporary and fragmentary nature and the high staff turnover present great challenges and particular complications to construction. In some cases these conditions may evolve to serious problems because of the complexity, geographic location or even technical, financial and innovative requirements of each project. Due to their characteristics, constructions frequently undergo changes in planned conditions. Often these changes lead to delays in project completion, costs higher than budgeted and conflicts between clients and performers. This creates problems of competitiveness affecting both developed and developing countries. The construction problems have harmful effects on society, since it loses resources that would otherwise allow better results in terms of quality of life and social and economic benefits. The importance and the enormous resources invested in each project justify the efforts to achieve the best performance of this industry. This interest has guided the development of multiple research efforts to support the achievement of construction performance improvements and sustainable construction. The studies carried out have demonstrated the added value of knowledge in all productive sectors. For construction, knowledge offers performance indicators, data and lessons learned from successes and failures. These should lead to fundamental learning to sustain sector competitiveness. However, despite the available knowledge and advances in techniques and project management control, the recurrence of construction problems is alarming. This problem shows itself severely in industrial construction projects that are developed for the Venezuelan oil, petrochemical and energy sectors. These sectors have evident needs for better competitive performance because of the high incidence of project delays, involving loss of much of the human, financial, technical and knowledge resources invested. This research analyzes the importance of construction and sustainability, the main problems affecting the sector, knowledge and some models available to manage them. It also examines the lessons learned and the productivity and competitiveness, with particular attention to the problems of Venezuelan competitiveness. Additionally, the Venezuelan industrial construction companies are characterized evaluating the implications of knowledge as an strategic asset for construction. Moreover, the research evaluates the dimensions that support knowledge management in these companies, to finally identify those that are the most suitable for the new model to be proposed. With these objectives in mind the empirical study was developed. 105 different companies and experts with Venezuelan industrial construction experiences were invited to participate on the survey. 112 responses were obtained representing 41 different organizations and experts. Fieldwork started in June 2012 and ended in November 2012. The data obtained was analyzed with descriptive and multivariate statistical techniques. The research objectives were achieved since the industrial construction sector was characterized and a new management model was proposed based on the particular characteristics of these companies. The new model was formulated according to the criteria of simplicity, low cost and ease of adaptation. This was performed to motivate the use of the new model in various industrial construction organizations, even in smaller companies, with limited resources or those facing complex construction environments. Finally some suggestions to encourage understanding of the phenomena studied among construction stakeholders were proposed. The importance of studying these problems at an early stage of the engineering, architectural, construction, economic and administration studies is highlighted. Additionally, academic, government, industrial organizations and associations are invited to join efforts to improve the competitive and sustainable global development. The proposal provides data on the Venezuelan construction sector in an area that has large gaps and proposes a model which is innovative for its simplicity and suggests the daily and intuitive use of knowledge resources as a key issue to competitiveness. This orientation may have implications beyond the described sector to support the solution of problems of other industries in a global environment.
Resumo:
Conventional dual-rail precharge logic suffers from difficult implementations of dual-rail structure for obtaining strict compensation between the counterpart rails. As a light-weight and high-speed dual-rail style, balanced cell-based dual-rail logic (BCDL) uses synchronised compound gates with global precharge signal to provide high resistance against differential power or electromagnetic analyses. BCDL can be realised from generic field programmable gate array (FPGA) design flows with constraints. However, routings still exist as concerns because of the deficient flexibility on routing control, which unfavourably results in bias between complementary nets in security-sensitive parts. In this article, based on a routing repair technique, novel verifications towards routing effect are presented. An 8 bit simplified advanced encryption processing (AES)-co-processor is executed that is constructed on block random access memory (RAM)-based BCDL in Xilinx Virtex-5 FPGAs. Since imbalanced routing are major defects in BCDL, the authors can rule out other influences and fairly quantify the security variants. A series of asymptotic correlation electromagnetic (EM) analyses are launched towards a group of circuits with consecutive routing schemes to be able to verify routing impact on side channel analyses. After repairing the non-identical routings, Mutual information analyses are executed to further validate the concrete security increase obtained from identical routing pairs in BCDL.
Resumo:
El comercio electrónico ha experimentado un fuerte crecimiento en los últimos años, favorecido especialmente por el aumento de las tasas de penetración de Internet en todo el mundo. Sin embargo, no todos los países están evolucionando de la misma manera, con un espectro que va desde las naciones pioneras en desarrollo de tecnologías de la información y comunicaciones, que cuentan con una elevado porcentaje de internautas y de compradores online, hasta las rezagadas de rápida adopción en las que, pese a contar con una menor penetración de acceso, presentan una alta tasa de internautas compradores. Entre ambos extremos se encuentran países como España que, aunque alcanzó hace años una tasa considerable de penetración de usuarios de Internet, no ha conseguido una buena tasa de transformación de internautas en compradores. Pese a que el comercio electrónico ha experimentado importantes aumentos en los últimos años, sus tasas de crecimiento siguen estando por debajo de países con características socio-económicas similares. Para intentar conocer las razones que afectan a la adopción del comercio por parte de los compradores, la investigación científica del fenómeno ha empleado diferentes enfoques teóricos. De entre todos ellos ha destacado el uso de los modelos de adopción, proveniente de la literatura de adopción de sistemas de información en entornos organizativos. Estos modelos se basan en las percepciones de los compradores para determinar qué factores pueden predecir mejor la intención de compra y, en consecuencia, la conducta real de compra de los usuarios. Pese a que en los últimos años han proliferado los trabajos de investigación que aplican los modelos de adopción al comercio electrónico, casi todos tratan de validar sus hipótesis mediante el análisis de muestras de consumidores tratadas como un único conjunto, y del que se obtienen conclusiones generales. Sin embargo, desde el origen del marketing, y en especial a partir de la segunda mitad del siglo XIX, se considera que existen diferencias en el comportamiento de los consumidores, que pueden ser debidas a características demográficas, sociológicas o psicológicas. Estas diferencias se traducen en necesidades distintas, que sólo podrán ser satisfechas con una oferta adaptada por parte de los vendedores. Además, por contar el comercio electrónico con unas características particulares que lo diferencian del comercio tradicional –especialmente por la falta de contacto físico entre el comprador y el producto– a las diferencias en la adopción para cada consumidor se le añaden las diferencias derivadas del tipo de producto adquirido, que si bien habían sido consideradas en el canal físico, en el comercio electrónico cobran especial relevancia. A la vista de todo ello, el presente trabajo pretende abordar el estudio de los factores determinantes de la intención de compra y la conducta real de compra en comercio electrónico por parte del consumidor final español, teniendo en cuenta el tipo de segmento al que pertenezca dicho comprador y el tipo de producto considerado. Para ello, el trabajo contiene ocho apartados entre los que se encuentran cuatro bloques teóricos y tres bloques empíricos, además de las conclusiones. Estos bloques dan lugar a los siguientes ocho capítulos por orden de aparición en el trabajo: introducción, situación del comercio electrónico, modelos de adopción de tecnología, segmentación en comercio electrónico, diseño previo del trabajo empírico, diseño de la investigación, análisis de los resultados y conclusiones. El capítulo introductorio justifica la relevancia de la investigación, además de fijar los objetivos, la metodología y las fases seguidas para el desarrollo del trabajo. La justificación se complementa con el segundo capítulo, que cuenta con dos elementos principales: en primer lugar se define el concepto de comercio electrónico y se hace una breve retrospectiva desde sus orígenes hasta la situación actual en un contexto global; en segundo lugar, el análisis estudia la evolución del comercio electrónico en España, mostrando su desarrollo y situación presente a partir de sus principales indicadores. Este apartado no sólo permite conocer el contexto de la investigación, sino que además permite contrastar la relevancia de la muestra utilizada en el presente estudio con el perfil español respecto al comercio electrónico. Los capítulos tercero –modelos de adopción de tecnologías– y cuarto –segmentación en comercio electrónico– sientan las bases teóricas necesarias para abordar el estudio. En el capítulo tres se hace una revisión general de la literatura de modelos de adopción de tecnología y, en particular, de los modelos de adopción empleados en el ámbito del comercio electrónico. El resultado de dicha revisión deriva en la construcción de un modelo adaptado basado en los modelos UTAUT (Unified Theory of Acceptance and Use of Technology, Teoría unificada de la aceptación y el uso de la tecnología) y UTAUT2, combinado con dos factores específicos de adopción del comercio electrónico: el riesgo percibido y la confianza percibida. Por su parte, en el capítulo cuatro se revisan las metodologías de segmentación de clientes y productos empleadas en la literatura. De dicha revisión se obtienen un amplio conjunto de variables de las que finalmente se escogen nueve variables de clasificación que se consideran adecuadas tanto por su adaptación al contexto del comercio electrónico como por su adecuación a las características de la muestra empleada para validar el modelo. Las nueve variables se agrupan en tres conjuntos: variables de tipo socio-demográfico –género, edad, nivel de estudios, nivel de ingresos, tamaño de la unidad familiar y estado civil–, de comportamiento de compra – experiencia de compra por Internet y frecuencia de compra por Internet– y de tipo psicográfico –motivaciones de compra por Internet. La segunda parte del capítulo cuatro se dedica a la revisión de los criterios empleados en la literatura para la clasificación de los productos en el contexto del comercio electrónico. De dicha revisión se obtienen quince grupos de variables que pueden tomar un total de treinta y cuatro valores, lo que deriva en un elevado número de combinaciones posibles. Sin embargo, pese a haber sido utilizados en el contexto del comercio electrónico, no en todos los casos se ha comprobado la influencia de dichas variables respecto a la intención de compra o la conducta real de compra por Internet; por este motivo, y con el objetivo de definir una clasificación robusta y abordable de tipos de productos, en el capitulo cinco se lleva a cabo una validación de las variables de clasificación de productos mediante un experimento previo con 207 muestras. Seleccionando sólo aquellas variables objetivas que no dependan de la interpretación personal del consumidores y que determinen grupos significativamente distintos respecto a la intención y conducta de compra de los consumidores, se obtiene un modelo de dos variables que combinadas dan lugar a cuatro tipos de productos: bien digital, bien no digital, servicio digital y servicio no digital. Definidos el modelo de adopción y los criterios de segmentación de consumidores y productos, en el sexto capítulo se desarrolla el modelo completo de investigación formado por un conjunto de hipótesis obtenidas de la revisión de la literatura de los capítulos anteriores, en las que se definen las hipótesis de investigación con respecto a las influencias esperadas de las variables de segmentación sobre las relaciones del modelo de adopción. Este modelo confiere a la investigación un carácter social y de tipo fundamentalmente exploratorio, en el que en muchos casos ni siquiera se han encontrado evidencias empíricas previas que permitan el enunciado de hipótesis sobre la influencia de determinadas variables de segmentación. El capítulo seis contiene además la descripción del instrumento de medida empleado en la investigación, conformado por un total de 125 preguntas y sus correspondientes escalas de medida, así como la descripción de la muestra representativa empleada en la validación del modelo, compuesta por un grupo de 817 personas españolas o residentes en España. El capítulo siete constituye el núcleo del análisis empírico del trabajo de investigación, que se compone de dos elementos fundamentales. Primeramente se describen las técnicas estadísticas aplicadas para el estudio de los datos que, dada la complejidad del análisis, se dividen en tres grupos fundamentales: Método de mínimos cuadrados parciales (PLS, Partial Least Squares): herramienta estadística de análisis multivariante con capacidad de análisis predictivo que se emplea en la determinación de las relaciones estructurales de los modelos propuestos. Análisis multigrupo: conjunto de técnicas que permiten comparar los resultados obtenidos con el método PLS entre dos o más grupos derivados del uso de una o más variables de segmentación. En este caso se emplean cinco métodos de comparación, lo que permite asimismo comparar los rendimientos de cada uno de los métodos. Determinación de segmentos no identificados a priori: en el caso de algunas de las variables de segmentación no existe un criterio de clasificación definido a priori, sino que se obtiene a partir de la aplicación de técnicas estadísticas de clasificación. En este caso se emplean dos técnicas fundamentales: análisis de componentes principales –dado el elevado número de variables empleadas para la clasificación– y análisis clúster –del que se combina una técnica jerárquica que calcula el número óptimo de segmentos, con una técnica por etapas que es más eficiente en la clasificación, pero exige conocer el número de clústeres a priori. La aplicación de dichas técnicas estadísticas sobre los modelos resultantes de considerar los distintos criterios de segmentación, tanto de clientes como de productos, da lugar al análisis de un total de 128 modelos de adopción de comercio electrónico y 65 comparaciones multigrupo, cuyos resultados y principales consideraciones son elaboradas a lo largo del capítulo. Para concluir, el capítulo ocho recoge las conclusiones del trabajo divididas en cuatro partes diferenciadas. En primer lugar se examina el grado de alcance de los objetivos planteados al inicio de la investigación; después se desarrollan las principales contribuciones que este trabajo aporta tanto desde el punto de vista metodológico, como desde los punto de vista teórico y práctico; en tercer lugar, se profundiza en las conclusiones derivadas del estudio empírico, que se clasifican según los criterios de segmentación empleados, y que combinan resultados confirmatorios y exploratorios; por último, el trabajo recopila las principales limitaciones de la investigación, tanto de carácter teórico como empírico, así como aquellos aspectos que no habiendo podido plantearse dentro del contexto de este estudio, o como consecuencia de los resultados alcanzados, se presentan como líneas futuras de investigación. ABSTRACT Favoured by an increase of Internet penetration rates across the globe, electronic commerce has experienced a rapid growth over the last few years. Nevertheless, adoption of electronic commerce has differed from one country to another. On one hand, it has been observed that countries leading e-commerce adoption have a large percentage of Internet users as well as of online purchasers; on the other hand, other markets, despite having a low percentage of Internet users, show a high percentage of online buyers. Halfway between those two ends of the spectrum, we find countries such as Spain which, despite having moderately high Internet penetration rates and similar socio-economic characteristics as some of the leading countries, have failed to turn Internet users into active online buyers. Several theoretical approaches have been taken in an attempt to define the factors that influence the use of electronic commerce systems by customers. One of the betterknown frameworks to characterize adoption factors is the acceptance modelling theory, which is derived from the information systems adoption in organizational environments. These models are based on individual perceptions on which factors determine purchase intention, as a mean to explain users’ actual purchasing behaviour. Even though research on electronic commerce adoption models has increased in terms of volume and scope over the last years, the majority of studies validate their hypothesis by using a single sample of consumers from which they obtain general conclusions. Nevertheless, since the birth of marketing, and more specifically from the second half of the 19th century, differences in consumer behaviour owing to demographic, sociologic and psychological characteristics have also been taken into account. And such differences are generally translated into different needs that can only be satisfied when sellers adapt their offer to their target market. Electronic commerce has a number of features that makes it different when compared to traditional commerce; the best example of this is the lack of physical contact between customers and products, and between customers and vendors. Other than that, some differences that depend on the type of product may also play an important role in electronic commerce. From all the above, the present research aims to address the study of the main factors influencing purchase intention and actual purchase behaviour in electronic commerce by Spanish end-consumers, taking into consideration both the customer group to which they belong and the type of product being purchased. In order to achieve this goal, this Thesis is structured in eight chapters: four theoretical sections, three empirical blocks and a final section summarizing the conclusions derived from the research. The chapters are arranged in sequence as follows: introduction, current state of electronic commerce, technology adoption models, electronic commerce segmentation, preliminary design of the empirical work, research design, data analysis and results, and conclusions. The introductory chapter offers a detailed justification of the relevance of this study in the context of e-commerce adoption research; it also sets out the objectives, methodology and research stages. The second chapter further expands and complements the introductory chapter, focusing on two elements: the concept of electronic commerce and its evolution from a general point of view, and the evolution of electronic commerce in Spain and main indicators of adoption. This section is intended to allow the reader to understand the research context, and also to serve as a basis to justify the relevance and representativeness of the sample used in this study. Chapters three (technology acceptance models) and four (segmentation in electronic commerce) set the theoretical foundations for the study. Chapter 3 presents a thorough literature review of technology adoption modelling, focusing on previous studies on electronic commerce acceptance. As a result of the literature review, the research framework is built upon a model based on UTAUT (Unified Theory of Acceptance and Use of Technology) and its evolution, UTAUT2, including two specific electronic commerce adoption factors: perceived risk and perceived trust. Chapter 4 deals with client and product segmentation methodologies used by experts. From the literature review, a wide range of classification variables is studied, and a shortlist of nine classification variables has been selected for inclusion in the research. The criteria for variable selection were their adequacy to electronic commerce characteristics, as well as adequacy to the sample characteristics. The nine variables have been classified in three groups: socio-demographic (gender, age, education level, income, family size and relationship status), behavioural (experience in electronic commerce and frequency of purchase) and psychographic (online purchase motivations) variables. The second half of chapter 4 is devoted to a review of the product classification criteria in electronic commerce. The review has led to the identification of a final set of fifteen groups of variables, whose combination offered a total of thirty-four possible outputs. However, due to the lack of empirical evidence in the context of electronic commerce, further investigation on the validity of this set of product classifications was deemed necessary. For this reason, chapter 5 proposes an empirical study to test the different product classification variables with 207 samples. A selection of product classifications including only those variables that are objective, able to identify distinct groups and not dependent on consumers’ point of view, led to a final classification of products which consisted on two groups of variables for the final empirical study. The combination of these two groups gave rise to four types of products: digital and non-digital goods, and digital and non-digital services. Chapter six characterizes the research –social, exploratory research– and presents the final research model and research hypotheses. The exploratory nature of the research becomes patent in instances where no prior empirical evidence on the influence of certain segmentation variables was found. Chapter six also includes the description of the measurement instrument used in the research, consisting of a total of 125 questions –and the measurement scales associated to each of them– as well as the description of the sample used for model validation (consisting of 817 Spanish residents). Chapter 7 is the core of the empirical analysis performed to validate the research model, and it is divided into two separate parts: description of the statistical techniques used for data analysis, and actual data analysis and results. The first part is structured in three different blocks: Partial Least Squares Method (PLS): the multi-variable analysis is a statistical method used to determine structural relationships of models and their predictive validity; Multi-group analysis: a set of techniques that allow comparing the outcomes of PLS analysis between two or more groups, by using one or more segmentation variables. More specifically, five comparison methods were used, which additionally gives the opportunity to assess the efficiency of each method. Determination of a priori undefined segments: in some cases, classification criteria did not necessarily exist for some segmentation variables, such as customer motivations. In these cases, the application of statistical classification techniques is required. For this study, two main classification techniques were used sequentially: principal component factor analysis –in order to reduce the number of variables– and cluster analysis. The application of the statistical methods to the models derived from the inclusion of the various segmentation criteria –for both clients and products–, led to the analysis of 128 different electronic commerce adoption models and 65 multi group comparisons. Finally, chapter 8 summarizes the conclusions from the research, divided into four parts: first, an assessment of the degree of achievement of the different research objectives is offered; then, methodological, theoretical and practical implications of the research are drawn; this is followed by a discussion on the results from the empirical study –based on the segmentation criteria for the research–; fourth, and last, the main limitations of the research –both empirical and theoretical– as well as future avenues of research are detailed.
Resumo:
The bandwidth achievable by using voltage mode control or current mode control in switch-mode power supply is limited by the switching frequency. Fast transient response requires high switching frequency, although lower switching frequencies could be more suitable for higher efficiency. This paper proposes the use of hysteretic control of the output capacitor $(C_{out})$ current to improve the dynamic response of the buck converter. An external voltage loop is required to accurately regulate the output voltage. The design of the hysteretic loop and the voltage loop are presented. Besides, it is presented a non-invasive current sensor that allows measuring the current in the capacitor. This strategy has been applied for DVS (dynamic voltage scaling) on a 5 MHz buck converter. Experimental results validate the proposed control technique and show fast transient response from 1.5 V to 2.5 V in 2 $mu{rm s}$.
Resumo:
A comprehensive assessment of the liquidity development in the Iberian power futures market managed by OMIP (“Operador do Mercado Ibérico de Energia, Pólo Português”) in its first 4 years of existence is performed. This market started on July 2006. A regression model tracking the evolution of the traded volumes in the continuous market is built as a function of 12 potential liquidity drivers. The only significant drivers are the traded volumes in OMIP compulsory auctions, the traded volumes in the “Over The Counter” (OTC) market, and the OTC cleared volumes in OMIP clearing house (OMIClear). Furthermore, the enrollment of financial members shows strong correlation with the traded volumes in the continuous market. OMIP liquidity is still far from the levels reached by the most mature European markets (Nord Pool and EEX). The market operator and its clearing house could develop efficient marketing actions to attract new entrants active in the spot market (energy intensive industries, suppliers, and small producers) as well as volumes from the opaque OTC market, and to improve the performance of existing illiquid products. An active dialogue with all the stakeholders (market participants, spot market operator, and supervisory authorities) will help to implement such actions.
Resumo:
This paper presents a comprehensive review of stepup single-phase non-isolated inverters suitable for ac-module applications. In order to compare the most feasible solutions of the reviewed topologies, a benchmark is set. This benchmark is based on a typical ac-module application considering the requirements for the solar panels and the grid. The selected solutions are designed and simulated complying with the benchmark obtaining passive and semiconductor components ratings in order to perform a comparison in terms of size and cost. A discussion of the analyzed topologies regarding the obtained ratings as well as ground currents is presented. Recommendations for topological solutions complying with the application benchmark are provided.
Resumo:
In high performance digital systems as well as in RF systems, voltage scaling and modulation techniques have been adopted to achieve a more efficient processing of the energy. The implementation of such techniques relies on a power supply that is capable of rapidly adjusting the system supply voltage. In this paper, a pulsewidth modulation multiphase topology with magnetic coupling is proposed for its use in voltage modulation techniques. Since the magnetic coupling in this topology is done with transformers instead of coupled inductors, the energy storage is reduced and very fast voltage changes are achieved. Advantages and drawbacks of this topology have been previously presented in the literature and in this paper, the design criteria for implementing a power supply for the envelope elimination and restoration technique in an RF system are presented along with an implementation of the power supply.