697 resultados para Expenses
Resumo:
The spreading of new systems of broadcasting and distribution of multimedia content has had as a consequence a larger need for aggregation of data and metadata to traditionally based contents of video and audio supply. Broadcasting chains of this type of channels have become overwhelmed by the quantity of resources, infrastructures and development needed for these channels to provide information. In order to avoid this kind of shortcomings, several recommendations and standards have been created to exchange metadata between production and distribution of taped programs. The problem lies in live programs, producers sometimes offer data to channels but most often, channels are not able to face required developments. The key to this problem is cost reduction. In this work, a study is conducted on added services which producers may provide to the media about content; a system is found by which additional communication expenses are not made and a model of information transfer is offered which allows low cost developments to supply new media platforms.
Resumo:
The contribution to global energy consumption of the information and communications technology (ICT) sector has increased considerably in the last decade, along with its growing relevance to the overall economy. This trend will continue due to the seemingly ever greater use of these technologies, with broadband data traffic generated by the usage of telecommunication networks as a primary component. In fact, in response to user demand, the telecommunications industry is initiating the deployment of next generation networks (NGNs). However, energy consumption is mostly absent from the debate on these deployments, in spite of the potential impact on both expenses and sustainability. In addition, consumers are unaware of the energy impact of their choices in ultra-broadband services. This paper focuses on forecasting energy consumption in the access part of NGNs by modelling the combined effect of the deployment of two different ultra-broadband technologies (FTTH-GPON and LTE), the evolution of traffic per user, and the energy consumption in each of the networks and user devices. Conclusions are presented on the levels of energy consumption, their cost and the impact of different network design parameters. The effect of technological developments, techno-economic and policy decisions on energy consumption is highlighted. On the consumer side, practical figures and comparisons across technologies are provided. Although the paper focuses on Spain, the analysis can be extended to similar countries.
Resumo:
Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.
Resumo:
Among the main features that are intended to become part of what can be expected from the Smart City, one of them should be an improved energy management system, in order to benefit from a healthier relation with the environment, minimize energy expenses, and offer dynamic market opportunities. A Smart Grid seems like a very suitable infrastructure for this objective, as it guarantees a two-way information flow that will provide the means for energy management enhancement. However, to obtain all the required information, another entity must care about all the devices required to gather the data. What is more, this entity must consider the lifespan of the devices within the Smart Grid—when they are turned on and off or when new appliances are added—along with the services that devices are able to provide. This paper puts forward SMArc—an acronym for semantic middleware architecture—as a middleware proposal for the Smart Grid, so as to process the collected data and use it to insulate applications from the complexity of the metering facilities and guarantee that any change that may happen at these lower levels will be updated for future actions in the system.
Resumo:
El objetivo de este Proyecto Fin de Grado es el diseño de megafonía y PAGA (Public Address /General Alarm) de la estación de tren Waipahu Transit Center en la ciudad de Honolulú, Hawái. Esta estación forma parte de una nueva línea de tren que está en proceso de construcción actualmente llamada Honolulu Rail Transit. Inicialmente la línea de tren constará de 21 estaciones, en las que prácticamente todas están diseñadas como pasos elevados usando como referencia las autopistas que cruzan la isla. Se tiene prevista su fecha de finalización en el año 2019, aunque las primeras estaciones se inaugurarán en 2017. Se trata en primer lugar un estudio acústico del recinto a sonorizar, eligiendo los equipos necesarios: conmutadores, altavoces, amplificadores, procesador, equipo de control y micrófonos. Este primer estudio sirve para obtener una aproximación de equipos necesarios, así como la posible situación de estos dentro de la estación. Tras esto, se procede a la simulación de la estación mediante el programa de simulación acústica y electroacústica EASE 4.4. Para ello, se diseña la estación en un modelo 3D, en el que cada superficie se asocia a su material correspondiente. Para facilitar el diseño y el cómputo de las simulaciones se divide la estación en 3 partes por separado. Cada una corresponde a un nivel de la estación: Ground level, el nivel inferior que contiene la entrada; Concourse Level, pasillo que comunica los dos andenes; y Platform Level, en el que realizarán las paradas los trenes. Una vez realizado el diseño se procede al posicionamiento de altavoces en los diferentes niveles de la estación. Debido al clima existente en la isla, el cual ronda los 20°C a lo largo de todo el año, no es necesaria la instalación de sistemas de aire acondicionado o calefacción, por lo que la estación no está totalmente cerrada. Esto supone un problema al realizar las simulaciones en EASE, ya que al tratarse de un recinto abierto se deberán hallar parámetros como el tiempo de reverberación o el volumen equivalente por otros medios. Para ello, se utilizará el método Ray Tracing, mediante el cual se halla el tiempo de reverberación por la respuesta al impulso de la sala; y a continuación se calcula un volumen equivalente del recinto mediante la fórmula de Eyring. Con estos datos, se puede proceder a calcular los parámetros necesarios: nivel de presión sonora directo, nivel de presión sonora total y STI (Speech Transmission Index). Para obtener este último será necesario ecualizar antes en cada uno de los niveles de la estación. Una vez hechas las simulaciones, se comprueba que el nivel de presión sonora y los valores de inteligibilidad son acordes con los requisitos dados por el cliente. Tras esto, se procede a realizar los bucles de altavoces y el cálculo de amplificadores necesarios. Se estudia la situación de los micrófonos, que servirán para poder variar la potencia emitida por los altavoces dependiendo del nivel de ruido en la estación. Una vez obtenidos todos los equipos necesarios en la estación, se hace el conexionado entre éstos, tanto de una forma simplificada en la que se pueden ver los bucles de altavoces en cada nivel de la estación, como de una forma más detallada en la que se muestran las conexiones entre cada equipo del rack. Finalmente, se realiza el etiquetado de los equipos y un presupuesto estimado con los costes del diseño del sistema PAGA. ABSTRACT. The aim of this Final Degree Project is the design of the PAGA (Public Address / General Alarm) system in the train station Waipahu Transit Center in the city of Honolulu, Hawaii. This station is part of a new rail line that is currently under construction, called Honolulu Rail Transit. Initially, the rail line will have 21 stations, in which almost all are designed elevated using the highways that cross the island as reference. At first, it is treated an acoustic study in the areas to cover, choosing the equipment needed: switches, loudspeakers, amplifiers, DPS, control station and microphones. This first study helps to obtain an approximation of the equipments needed, as well as their placement inside the station. Thereafter, it is proceeded to do the simulation of the station through the acoustics and electroacoustics simulation software EASE 4.4. In order to do that, it is made the 3D design of the station, in which each surface is associated with its material. In order to ease the design and calculation of the simulations, the station has been divided in 3 zones. Each one corresponds with one level of the station: Ground Level, the lower level that has the entrance; Concourse Level, a corridor that links the two platforms; and Platform Level, where the trains will stop. Once the design is made, it is proceeded to place the speakers in the different levels of the station. Due to the weather in the island, which is about 20°C throughout the year, it is not necessary the installation of air conditioning or heating systems, so the station is not totally closed. This cause a problem when making the simulations in EASE, as the project is open, and it will be necessary to calculate parameters like the reverberation time or the equivalent volume by other methods. In order to do that, it will be used the Ray Tracing method, by which the reverberation time is calculated by the impulse response; and then it is calculated the equivalent volume of the area with the Eyring equation. With this information, it can be proceeded to calculate the parameters needed: direct sound pressure level, total sound pressure level and STI (Speech Transmission Index). In order to obtain the STI, it will be needed to equalize before in each of the station’s levels. Once the simulations are done, it is checked that the sound pressure level and the intelligibility values agree with the requirements given by the client. After that, it is proceeded to perform the speaker’s loops and the calculation of the amplifiers needed. It is studied the placement of the microphones, which will help to vary the power emitted by the speakers depending on the background noise level in the station. Once obtained all the necessary equipment in the station, it is done the connection diagram, both a simplified diagram in which there can be seen the speaker’s loops in each level of the station, or a more detailed diagram in which it is shown the wiring between each equipment of the rack. At last, it is done the labeling of the equipments and an estimated budget with the expenses for the PAGA design.
Resumo:
The Shopping centre is a long term investment in which Greenfield development decisions are often taken based on risks analysis regarding construction costs, location, competition, market and an expected DCF. Furthermore, integration between the building design, project planning, operational costs and investment analysis is not entirely considered by the investor at the decision making stage. The absence of such information tends to produce certain negative impacts on the future running costs and annual maintenance of the building, especially on energy demand and other occupancy expenses paid by the tenants to the landlord. From the investor´s point of view, this blind spot in strategy development will possibly decrease their profit margin as changes in the occupancy expenses[ ] have a direct outcome on the profit margin. In order to try to reduce some higher operating cost components such as energy use and other utility savings as well as their CO2 emissions, quite a few income properties worldwide have some type of environmental label such as BREEAM and LEED. The drawback identified in this labelling is that usually the investments required to get an ecolabel are high and the investor finds no direct evidence that it increases market value. However there is research on certified commercial properties (especially offices) that shows better performance in terms of occupancy rate and rental cost (Warren-Myers, 2012). Additionally, Sayce (2013) says that the certification only provides a quick reference point i.e. the lack of a certificate does not indicate that a building is not sustainable or efficient. Based on the issues described above, this research compares important components of the development stages such as investments costs, concept/ strategy development as well as the current investor income and property value. The subjects for this analysis are a shopping centre designed with passive cooling/bioclimatic strategies evaluated at the decision making stage, a certified regional shopping centre and a non-certified standard regional shopping centre. Moreover, the proposal intends to provide decision makers with some tools for linking green design features to the investment analysis in order to optimize the decision making process when looking into cost savings and design quality.
Resumo:
El cultivo de café es de gran importancia a nivel mundial (ICO, 2011), y en el Ecuador ha sido uno de los cultivos más importantes en la generación de divisas (COFENAC, 2011). Sin embargo en los sistemas productivos de este país se puede apreciar el uso inapropiado de fertilizantes, lo que conlleva a una pérdida de nutrientes, por lo que es importante estudiar las dosis adecuadas para la fertilización tanto mineral como orgánica. El objetivo del trabajo fue evaluar el efecto de la fertilización mineral y orgánica en diferentes dosis en un monocultivo de café en la provincia de Loja, sobre las propiedades del suelo, la emisión de los principales gases que provocan el efecto invernadero y la fenología y productividad del cultivo. En la provincia de Loja (Ecuador) se seleccionó un área de 2.520 m2 en la que se establecieron 21 parcelas de café arábigo (Coffea arabica L.) var. caturra y se aplicó tres tratamientos con tres repeticiones de fertilización mineral y tres orgánicos con dosis: bajas minerales (MIN 1= 157 Kg NPK ha-1 año-1 para el primer año y 425 Kg NPK ha-1 año-1 para el segundo año), medias minerales (MIN 2= 325 Kg NPK ha-1 año-1 para el primer año y 650 Kg NPK ha-1 año-1 en el segundo año) y altas minerales (MIN 3= 487 y 875 Kg NPK ha-1 año-1 para el primer y segundo año respectivamente), bajas orgánicas (ORG 1= 147 Kg NPK ha-1 año-1 en el primer año y 388 Kg NPK ha-1 año-1 en el año dos), medias orgánicas (ORG 2= 265 Kg NPK ha-1 año-1 para el primer año y 541 Kg NPK ha-1 año-1 en el segundo año), altas orgánicas (ORG 3= 368 Kg NPK ha-1 año-1 para el primer año y 727 Kg NPK ha-1 año-1 en el segundo año) y fertilización cero (TES = sin fertilización). Se usó urea, roca fosfórica y muriato de potasio en la fertilización mineral y humus (Bioabor) en la orgánica, más un tratamiento testigo, cada tratamiento tuvo tres repeticiones. El tiempo de evaluación de los fertilizantes aplicados fue de dos años consecutivos, la fertilización se la realizó dos veces por año y en base a análisis del suelo y demandas nutricionales del cultivo. para determinar las características del suelo se realizó muestreos de suelos en cada parcela a una profundidad de 20 cm de estas muestras los parámetro iniciales determinados fueron: color (Munsell), textura (método del hidrómetro), pH (relación 1:2,5 suelo-agua), Materia orgánica (Walkey y Black), Nitrógeno (Micro Kjendahl), Fósforo (Bray y Kurtz), Potasio (Olsen), estos procesos se repitieron cada seis meses para poder evaluar los cambios de que se producen debido a la fertilización mineral y orgánica en el cultivo. Las emisiones de gases efecto invernadero desde el suelo al ambiente se determinaron por el método de cámara cerrada (Rondón, 2000) y la concentración por cromatografía de gases. Las mediciones fisiológicas (altura de planta, ancho de copa, grosor de tallo y producción) se las evaluó cada dos meses, a excepción de la producción que fue anual al término de cada cosecha. Además se realizó el análisis económico de la productividad del cultivo. El análisis estadístico de datos se lo realizó con el programa SPSS v. 17.0. Las medias fueron comprobadas mediante ANOVAS de un factor con test de Tukey (P < 0,05). El beneficio económico se estimó en términos de ingresos y gastos totales que se presentaron en el ensayo. Los resultados obtenidos al término del ensayo indican que los tratamientos MIN 2 y MIN 3 produjeron cambios más significativos en comparación con los otros tratamientos establecidos en la mejora de fertilidad del suelo, el pH ha sido menos afectado en la acidificación en comparación con los tratamientos orgánicos que se han acidificado mayormente; la materia orgánica (MO) tuvo incrementos considerablemente bueno en estos dos tratamientos, sin embargo fueron superados por los tratamientos de fertilización orgánica; el nitrógeno total (Nt )y el potasio (K) también presentaron mejores valores al termino del ensayo y el fósforo (P) mostro incrementos buenos aunque un poco menores que los de los tratamientos ORG 2 y ORG 3. En lo que respecta a las emisiones de gases efecto invernadero, los flujos acumulados de óxido nitroso (N2O) en los dos años han aumentado en todos los tratamientos en comparación con el tratamiento Testigo, pero de manera considerable y con mayores flujos en el tratamiento MIN 3 y MIN 2 que se podrían considerarse los de mayor contaminación por N2O al ambiente lo que se le atribuye a las dosis de fertilización mineral aplicadas en el periodo de investigación, los tratamiento MIN 1 y todos los tratamientos orgánicos muestran menores emisiones al ambiente. Las emisiones de metano (CH4) no muestran mayores diferencias de emisiones entre tratamientos, siendo los mayores emisores los tratamientos ORG 3 y ORG 2 posiblemente debido al abono orgánico y añadido al suelo; para las emisiones de dióxido de carbono (CO2) de manera similar al CH4 el tratamiento ORG 3 fue el que presento mayores emisiones, los flujos de CO2 al ambiente de los otros tratamientos fueron menores y no presentaron diferencias significativas entre ellos. La variables fisiológicas en todos los casos apoyaron al desarrollo de las plantas de café, esto al ser comparadas con el tratamiento Testigo, sin embargo las que alcanzaron las mayores altitudes, anchos de copas y diámetro de tallo fueron las plantas del tratamiento MIN 3, seguido del MIN 3, no mostrando significancia entre ellos, y para los tratamientos orgánicos el que presento muy buenos resultados en estas variables ha sido el ORG 3, el cual no presento diferencias significativas con el MIN 2, lo cual comprueba que la fertilización mineral es más efectiva en este caso frente a la orgánica. Para el primer año de producción el tratamiento mineral con fertilización MIN 3 es el que obtuvo mayor producción no presentando diferencia estadística con el tratamiento con el MIN 2, no obstante fueron significativamente mayores que los otros tratamientos. Vale indicar que también el tratamiento MIN 1 y el tratamiento ORG 3 han presentado una producción considerable de café no mostrando diferencias estadísticas entre ellos. Para el segundo año la producción el cultivo mostró mayores rendimientos que el primer año de evaluación en todos los tratamientos, esto debido a la fisiología propia del cultivo y por otra parte se atribuye a la adición de fertilizantes que se ha realizado durante todo el ensayo; de manera similar al anterior los tratamientos MIN 3 y MIN 2 obtuvieron mejores rendimientos, no enseñando diferencias estadísticas significativas entre ellos, no obstante el tratamiento mineral dosis MEDIA no presentó significancia estadística con el ORG 3. El benéfico económico ha resultado mayor en el tratamiento MIN 3 y MIN 2, aunque el tratamiento MIN 2, es el que obtiene la mejor relación costo-beneficio; los tratamientos ORG 2 y ORG 3 y Testigo has producido beneficios negativos para el productor. En cuanto a la parte ambiental se considera que los mejores tratamientos en cuanto ha cuidado ambiental serían los tratamientos MIN 1 y ORG 1, sin embargo a nivel de producción y rentabilidad para el productor baja. ABSTRACT Coffee growing has great importance worldwide (ICO, 2011), and in Ecuador, it has been one of the most important crops to generate income (COFENAC, 2011). However, in the productive systems of this country, the inappropriate use of fertilizers has been observed which produces loss of nutrients, thus it is important to study suitable doses for mineral and organic fertilizing. The purpose of the study was to evaluate the effect of mineral and organic fertilizing at different doses in a coffee monoculture in the province of Loja on soil characteristics, emission of the main gasses that produce the greenhouse effect and the phenology and productivity of crops. In the province of Loja (Ecuador) an area of 2.520 m2 was chosen, where 21 plots of Arabica coffee (Coffea arabica L.), the caturra variety were cultivated and three treatments with three repetitions each one for mineral and organic fertilization were used with doses that ranged from: mineral low (MIN 1= 157 Kg NPK ha-1 año-1 for the first year y 425 Kg NPK ha-1 año-1 for the second year), mineral medium (MIN 2= 325 Kg NPK ha-1 año-1 for the first year y 650 Kg NPK ha-1 año-1 I the second year) y mineral high (MIN 3= 487 y 875 Kg NPK ha-1 año-1 for the first and second year respectively), organic low (ORG 1= 147 Kg NPK ha-1 año-1 in the first year y 388 Kg NPK ha-1 año-1 in the second year), organics medium (ORG 2= 265 Kg NPK ha-1 año-1 for the first year y 541 Kg NPK ha-1 año-1 in the second year), organics high (ORG 3= 368 Kg NPK ha-1 año-1 for the first year and 727 Kg NPK ha-1 año-1 in the second year) y fertilization zero (TES = no fertilization).; urea, phosphoric rock and muriate of potash were used in the mineral fertilization and humus (Bioabor) in the organic, plus a blank treatment. Time to evaluate the applied fertilizers was for two consecutive years, fertilization was done twice per year based on soil analysis and nutritional requirements of the crops. In order to determine the characteristics of the soil, samples of soil in each plot with a depth of 20 cm were done; from these samples, the determined initial parameters were: color (Munsell), texture (hydrometer method), pH (soil-water 1:2,5 relation), organic matter (Walkey y Black), nitrogen (Micro Kjendahl), phosphorus (Bray y Kurtz), potassium (Olsen); these processes were repeated each six months in order to evaluate the changes that are produced due to mineral and organic fertilization in the crops. The emissions of greenhouse gasses from the soil to the atmosphere were determined by using enclosure method (Rondón, 2000) and the concentration, by using gas chromatography during the whole testing. The physiological measures (plant height, width of the top of the tree, thickness of the stem and production) were evaluated each two months, except for production which was annual at the end of each harvest. Moreover, the economic analysis of the productivity of the crops was done. The statistical analysis of the data was done using SPSS v. 17.0. The means were proved by ANOVAS with a factor of a Tukey test (P < 0,05). The economic benefit was estimated in terms of incomes and total expenses which were presented in the essay. The results obtained at the end of the essay show that the MIN 2 and MIN 3 treatments produced more meaningful changes in comparison with the other treatments used to improve soil fertility; pH was less affected in the acidification compared with the organic treatments which were greatly acidified; organic matter (MO) had increased considerably in these two treatments; however, they were surpassed by the organic treatments of fertilization; total nitrogen (Nt) and potassium (K) also presented better results at the end of the essay and phosphorus (P) showed good increasing figures although a little lower compared with ORG 2 and ORG 3 treatments. Regarding the emission of the greenhouse gasses, the fluxes accumulated from nitrous oxide (N2O) in two years increased in all the treatments in comparison with the blank treatment, but in a greater form and with higher fluxes in the MIN 3 and MIN 2 treatments which can be considered as the ones with greater contamination of N2O in the atmosphere, this can be due to the applied mineral doses to fertilize during the process; MIN 1 treatments and all the organic ones showed lower emission to the atmosphere. Methane emissions (CH4) did not show major differences in emissions in the treatments, being the greater emissions the ORG 3 and ORG 2 treatments; this is possibly due to the organic compost added to the soil; regarding carbon dioxide (CO2) emissions, in a similar way to CH4, the ORG 3 treatment was the one that presented greater emissions, the CO2 emissions to the atmosphere in the other treatments were lower and did not present meaningful differences among them. The physiological variables in all the cases helped coffee crops grow, this was observed when compared with the blank treatment; however, plants that reached the greatest height, width of top and diameter of stem were the plants of the MIN 3 treatment, followed by MIN 3, which did not show much significance among them, and for the organic treatments, the one that presented great results in these variables was ORG 3, which did not show meaningful differences compared with MIN 2, which proves that mineral fertilization is more effective in this case compared with the organic. In the first year of production, the mineral treatment with MIN 3 fertilization obtained greater production and thus did not show statistical difference with MIN 2 treatment, although the other treatments were greater. It is worth mentioning that MIN 1 treatment and ORG 3 treatment presented a meaningful production of coffee, not showing statistical differences among them. For the second year, the production of the crops showed greater profits than in the first year of evaluation in all the treatments, this was due to the physiological properties of the crops and on the other hand, it might be due to the addition of fertilizers during the whole essay; in a similar way, MIN 3 and MIN 2 performed better, not showing greater statistical differences among them, although the mineral treatment MEDIUM doses did not show statistical difference compared with ORG 3. The economic benefit was greater in the MIN 3 and MIN 2 treatments, although MIN 2 treatment is the one that shows the best cost-benefit ratios; ORG 2 and ORG 3 treatments and the blank produced negative benefits for the producer. Regarding the environment, the best treatments to care for the atmosphere are considered to be MIN 1 and ORG 1 treatments; however, regarding production volume and profitability they were low for the producer.
Resumo:
Rabbit does in modern rabbitries are under intensive reproductive rhythms. Females are high milk producers with high energetic expenses due to the extensive overlap between lactation and gestation. This situation leads to a negative energy balance with a mobilization of body fat especially in primiparous rabbit does. Poor body condition and poor health status severely affect the reproductive features (fertility rate and lifespan of the doe as well as ovarian physiology). This paper reviews some reproductive and nutritional approaches used in the last years to improve the reproductive performance of rabbit females, mainly focusing on the influence on ovarian response and embryo quality and with emphasis on epigenetic modifications in pre-implantation embryos and offspring consequences.
Resumo:
Fully integrated semiconductor master-oscillator power-amplifiers (MOPA) with a tapered power amplifier are attractive sources for applications requiring high brightness. The geometrical design of the tapered amplifier is crucial to achieve the required power and beam quality. In this work we investigate by numerical simulation the role of the geometrical design in the beam quality and in the maximum achievable power. The simulations were performed with a Quasi-3D model which solves the complete steady-state semiconductor and thermal equations combined with a beam propagation method. The results indicate that large devices with wide taper angles produce higher power with better beam quality than smaller area designs, but at expenses of a higher injection current and lower conversion efficiency.
Resumo:
En este trabajo de fin de grado se llevará a cabo la elaboración de una aplicación web de gestión de gastos personales desde sus inicios, hasta su completo funcionamiento. Estas aplicaciones poseen un crecimiento emergente en el mercado, lo cual implica que la competencia entre ellas es muy elevada. Por ello el diseño de la aplicación que se va a desarrollar en este trabajo ha sido delicadamente cuidado. Se trata de un proceso minucioso el cual aportará a cada una de las partes de las que va a constar la aplicación características únicas que se plasmaran en funcionalidades para el usuario, como son: añadir sus propios gastos e ingresos mensuales, confeccionar gráficos de sus principales gastos, obtención de consejos de una fuente externa, etc… Estas funcionalidades de carácter único junto con otras más generalistas, como son el diseño gráfico en una amplia gama de colores, harán su manejo más fácil e intuitivo. Hay que destacar que para optimizar su uso, la aplicación tendrá la característica de ser responsive, es decir, será capaz de modificar su interfaz según el tamaño de la pantalla del dispositivo desde el que se acceda. Para su desarrollo, se va a utilizar una de las tecnologías más novedosas del mercado y siendo una de las más revolucionarias del momento, MEAN.JS. Con esta innovadora tecnología se creará la aplicación de gestión económica de gastos personales. Gracias al carácter innovador de aplicar esta tecnología novedosa, los retos que plantea este proyecto son muy variados, desde cómo estructurar las carpetas del proyecto y toda la parte de backend hasta como realizar el diseño de la parte de frontend. Además una vez finalizado su desarrollo y puesta en marcha se analizaran posibles mejoras para poder perfeccionarla en su totalidad. ABSTRACT In this final degree project will take out the development of a web application from its inception, until its full performance management. These applications have an emerging market growth, implying that competition between them is very high. Therefore the design of the application that will be developed in this work has been delicately care. It's a painstaking process which will provide each of the parties which will contain the application unique features that were translated into functionality for the user, such as: add their own expenses and monthly income, make graphs of your major expenses, obtaining advice from an external source, etc... These features of unique character together with other more general, such as graphic design in a wide range of colors, will make more easy and intuitive handling. It should be noted that to optimize its use, the application will have the characteristic of being responsive, will be able to modify your interface according to the size of the screen of the device from which are accessed. For its development, it is to use one of the newest technologies on the market and being one of the most revolutionary moment, MEAN. JS. The economic management of personal expenses application will be created with this innovative technology. Thanks to the innovative nature of applying this new technology, the challenges posed by this project are varied, from how to structure the folders of the project and all the backend part up to how to perform the part of frontend design. In addition once finished its development and commissioning possible improvements will analyze to be able to perfect it in its entirety.
Resumo:
En la actualidad, y en consonancia con la tendencia de “sostenibilidad” extendida a todos los campos y parcelas de la ciencia, nos encontramos con un área de estudio basado en la problemática del inevitable deterioro de las estructuras existentes, y la gestión de las acciones a realizar para mantener las condiciones de servicio de los puentes y prolongar su vida útil. Tal y como se comienza a ver en las inversiones en los países avanzados, con una larga tradición en el desarrollo de sus infraestructuras, se muestra claramente el nuevo marco al que nos dirigimos. Las nuevas tendencias van encaminadas cada vez más a la conservación y mantenimiento, reduciéndose las partidas presupuestarias destinadas a nuevas actuaciones, debido a la completa vertebración territorial que se ha ido instaurando en estos países, entre los que España se encuentra. Este nutrido patrimonio de infraestructuras viarias, que cuentan a su vez con un importante número de estructuras, hacen necesarias las labores de gestión y mantenimiento de los puentes integrantes en las mismas. Bajo estas premisas, la tesis aborda el estado de desarrollo de la implementación de los sistemas de gestión de puentes, las tendencias actuales e identificación de campos por desarrollar, así como la aplicación específica a redes de carreteras de escasos recursos, más allá de la Red Estatal. Además de analizar las diversas metodologías de formación de inventarios, realización de inspecciones y evaluación del estado de puentes, se ha enfocado, como principal objetivo, el desarrollo de un sistema específico de predicción del deterioro y ayuda a la toma de decisiones. Este sistema, adicionalmente a la configuración tradicional de criterios de formación de bases de datos de estructuras e inspecciones, plantea, de forma justificada, la clasificación relativa al conjunto de la red gestionada, según su estado de condición. Eso permite, mediante técnicas de optimización, la correcta toma de decisiones a los técnicos encargados de la gestión de la red. Dentro de los diversos métodos de evaluación de la predicción de evolución del deterioro de cada puente, se plantea la utilización de un método bilineal simplificado envolvente del ajuste empírico realizado y de los modelos markovianos como la solución más efectiva para abordar el análisis de la predicción de la propagación del daño. Todo ello explotando la campaña experimenta realizada que, a partir de una serie de “fotografías técnicas” del estado de la red de puentes gestionados obtenidas mediante las inspecciones realizadas, es capaz de mejorar el proceso habitual de toma de decisiones. Toda la base teórica reflejada en el documento, se ve complementada mediante la implementación de un Sistema de Gestión de Puentes (SGP) específico, adaptado según las necesidades y limitaciones de la administración a la que se ha aplicado, en concreto, la Dirección General de Carreteras de la Junta de Comunidades de Castilla-La Mancha, para una muestra representativa del conjunto de puentes de la red de la provincia de Albacete, partiendo de una situación en la que no existe, actualmente, un sistema formal de gestión de puentes. Tras un meditado análisis del estado del arte dentro de los Capítulos 2 y 3, se plantea un modelo de predicción del deterioro dentro del Capítulo 4 “Modelo de Predicción del Deterioro”. De la misma manera, para la resolución del problema de optimización, se justifica la utilización de un novedoso sistema de optimización secuencial elegido dentro del Capítulo 5, los “Algoritmos Evolutivos”, en sus diferentes variantes, como la herramienta matemática más correcta para distribuir adecuadamente los recursos económicos dedicados a mantenimiento y conservación de los que esta administración pueda disponer en sus partidas de presupuesto a medio plazo. En el Capítulo 6, y en diversos Anexos al presente documento, se muestran los datos y resultados obtenidos de la aplicación específica desarrollada para la red local analizada, utilizando el modelo de deterioro y optimización secuencial, que garantiza la correcta asignación de los escasos recursos de los que disponen las redes autonómicas en España. Se plantea con especial interés la implantación de estos sistemas en la red secundaria española, debido a que reciben en los últimos tiempos una mayor responsabilidad de gestión, con recursos cada vez más limitados. Finalmente, en el Capítulo 7, se plantean una serie de conclusiones que nos hacen reflexionar de la necesidad de comenzar a pasar, en materia de gestión de infraestructuras, de los estudios teóricos y los congresos, hacia la aplicación y la práctica, con un planteamiento que nos debe llevar a cambios importantes en la forma de concebir la labor del ingeniero y las enseñanzas que se imparten en las escuelas. También se enumeran las aportaciones originales que plantea el documento frente al actual estado del arte. Se plantean, de la misma manera, las líneas de investigación en materia de Sistemas de Gestión de Puentes que pueden ayudar a refinar y mejorar los actuales sistemas utilizados. In line with the development of "sustainability" extended to all fields of science, we are faced with the inevitable and ongoing deterioration of existing structures, leading nowadays to the necessary management of maintaining the service conditions and life time extension of bridges. As per the increased amounts of money that can be observed being spent in the countries with an extensive and strong tradition in the development of their infrastructure, the trend can be clearly recognized. The new tendencies turn more and more towards conservation and maintenance, reducing programmed expenses for new construction activities, in line with the already wellestablished territorial structures, as is the case for Spain. This significant heritage of established road infrastructure, consequently containing a vast number of structures, imminently lead to necessary management and maintenance of the including bridges. Under these conditions, this thesis focusses on the status of the development of the management implementation for bridges, current trends, and identifying areas for further development. This also includes the specific application to road networks with limited resources, beyond the national highways. In addition to analyzing the various training methodologies, inventory inspections and condition assessments of bridges, the main objective has been the development of a specific methodology. This methodology, in addition to the traditional system of structure and inspection database training criteria, sustains the classification for the entire road network, according to their condition. This allows, through optimization techniques, for the correct decision making by the technical managers of the network. Among the various methods for assessing the evolution forecast of deterioration of each bridge, a simplified bilinear envelope adjustment made empirical method and Markov models as the most effective solution to address the analysis of predicting the spread of damage, arising from a "technical snapshot" obtained through inspections of the condition of the bridges included in the investigated network. All theoretical basis reflected in the document, is completed by implementing a specific Bridges Management System (BMS), adapted according to the needs and limitations of the authorities for which it has been applied, being in this case particularly the General Highways Directorate of the autonomous region of Castilla-La Mancha, for a representative sample of all bridges in the network in the province of Albacete, starting from a situation where there is currently no formal bridge management system. After an analysis of the state of the art in Chapters 2 and 3, a new deterioration prediction model is developed in Chapter 4, "Deterioration Prediction Model". In the same way, to solve the optimization problem is proposed the use of a singular system of sequential optimization elected under Chapter 5, the "Evolutionary Algorithms", the most suitable mathematical tool to adequately distribute the economic resources for maintenance and conservation for mid-term budget planning. In Chapter 6, and in the various appendices, data and results are presented of the developed application for the analyzed local network, from the optimization model, which guarantees the correct allocation of scarce resources at the disposal of authorities responsible for the regional networks in Spain. The implementation of these systems is witnessed with particular interest for the Spanish secondary network, because of the increasing management responsibility, with decreasing resources. Chapter 7 presents a series of conclusions that triggers to reconsider shifting from theoretical studies and conferences towards a practical implementation, considering how to properly conceive the engineering input and the related education. The original contributions of the document are also listed. In the same way, the research on the Bridges Management System can help evaluating and improving the used systematics.
Resumo:
Los regímenes fiscales que se aplican a los contratos de exploración y desarrollo de petróleo y gas, entre los propietarios del recurso natural (generalmente el país soberano representado por su gobierno) y las compañías operadoras internacionales (COI) que aportan capital, experiencia y tecnología, no han sabido responder a la reciente escalada de los precios del crudo y han dado lugar a que los países productores no estén recibiendo la parte de renta correspondiente al incremento de precios. Esto ha provocado una ola de renegociaciones llegándose incluso a la imposición unilateral de nuevos términos por parte de algunos gobiernos entre los que destacan el caso de Venezuela y Argentina, por ser los más radicales. El objetivo del presente trabajo es el estudio y diseño de un régimen fiscal que, en las actuales condiciones del mercado, consiga que los gobiernos optimicen sus ingresos incentivando la inversión. Para ello se simulan los efectos de siete tipos diferentes de fiscalidades aplicadas a dos yacimientos de características muy distintas y se valoran los resultados. El modelo utilizado para la simulación es el modelo de escenarios, ampliamente utilizado tanto por la comunidad académica como por la industria para comparar el comportamiento de diferentes regímenes fiscales. Para decidir cuál de las fiscalidades estudiadas es la mejor se emplea un método optimización multicriterio. Los criterios que se han aplicado para valorar los resultados recogen la opinión de expertos de la industria sobre qué factores se consideran deseables en un contrato a la hora invertir. El resultado permite delinear las características de un marco fiscal ideal del tipo acuerdo de producción compartida, sin royalties, con un límite alto de recuperación de crudo coste que permita recobrar todos los costes operativos y una parte de los de capital en cualquier escenario de precios, un reparto de los beneficios en función de un indicador de rentabilidad como es la TIR, con un mecanismo de recuperación de costes adicional (uplift) que incentive la inversión y con disposiciones que premien la exploración y más la de alto riesgo como la amortización acelerada de los gastos de capital o una ampliación de la cláusula de ringfence. Un contrato con estas características permitirá al gobierno optimizar los ingresos obtenidos de sus reservas de petróleo y gas maximizando la producción al atraer inversión para la exploración y mejorar la recuperación alargando la vida del yacimiento. Además al reducir el riesgo percibido por el inversor que recupera sus costes, menor será la rentabilidad exigida al capital invertido y por tanto mayor la parte de esos ingresos que irá a parar al gobierno del país productor. ABSTRACT Fiscal systems used in petroleum arrangements between the owners of the resource (usually a sovereign country represented by its government) and the international operating company (IOC) that provides capital, knowhow and technology, have failed to allocate profits from the recent escalation of oil prices and have resulted in producing countries not receiving the right share of that increase. This has caused a wave of renegotiations and even in some cases, like Venezuela and Argentina, government unilaterally imposed new terms. This paper aims to outline desirable features of a petroleum fiscal system, under current market conditions, for governments to maximize their revenues while encouraging investment. Firstly the impact of seven different types of fiscal regimes is studied with a simulation for two separate oil fields using the scenario approach. The scenario approach has been frequently employed by academic and business researchers to compare the performance of diverse fiscal regimes. In order to decide which of the fiscal regimes’ performance is best we used a multi-objective optimization decision making approach to assess the results. The criteria applied gather the preferences of a panel of industry experts about the desirable features of a contract when making investment decisions. The results show the characteristics of an ideal fiscal framework that closely resembles a production sharing contract, with no royalty payment and a high cost recovery limit that allows the IOC to recover all operating expenses and a share of its capital costs under any price scenario, a profit oil sharing mechanism based on a profitability indicator such as the ROR, with an uplift that allows to recover an additional percentage of capital costs and provisions that promote exploration investment, specially high-risk exploration, such as accelerated depreciation for capital costs and a wide definition of the ringfence clause. A contract with these features will allow governments to optimize overall revenues from its petroleum resources maximizing production by promoting investment on exploration and extending oil fields life. Also by reducing the investor’s perception of risk it will reduce the minimum return to capital required by the IOC and therefore it will increase the government share of those revenues.
Resumo:
O associativismo empresarial aparece como forma de desenvolvimento regional, seja este econômico, social ou cultural, e é grande aliado para o surgimento e crescimento das micro e pequenas empresas. É um tema já vivenciado e estudado por vários países do mundo, entre eles europeus e especificamente italianos, mas ainda pouco estudado e conhecido no Brasil. A presente pesquisa objetivou analisar o associativismo empresarial entre micro e pequenas empresas (MPEs) na região do Grande ABC (GABC) pelo Projeto Empreender (SEBRAE) relacionando seus dados com os publicados do relatório 2003/5 de autoria do Observatório Europeu de estudos sobre pequenas e médias empresas europeias, analisando as formas de associativismo aqui ocorridas, além de identificar o perfil das empresas e empresários envolvidos no projeto. Para tal análise foram coletados dados de um total de 63 empresas do Projeto Empreender, nos núcleos de Santo André, São Caetano do Sul e Ribeirão Pires. Do GABC foram coletados dados utilizando o instrumento desenvolvido pelo Observatório Europeu de estudos sobre pequenas e médias empresas. A análise dos dados coletados no GABC em relação aos dados europeus se fez necessária para que pudessem ser encontrados pontos de divergências e convergências em cada uma das experiências, objetivando o aprendizado e evolução do tema. A escolha do GABC foi motivada pelo fato da região passar por mudanças no seu perfil econômico, passando de berço e grande pólo das grandes indústrias para um grande centro de pequenas empresas prestadoras de serviços. Após coleta e análise dos dados, percebeu-se que a experiência do GABC e a ocorrida na Itália se parecem em muitos aspectos, porém tem grandes diferenças estruturais. Enquanto o projeto europeu é de responsabilidade de um órgão da União Europeia, aqui o projeto é de autoria do SEBRAE e sofre grandes conflitos com as Associações Comerciais e Industriais (ACIs) da região quando o tema é custeio das despesas das pessoas e estrutura que envolve a implantação do projeto. Além disso, conclui-se que é necessária uma maior aproximação dos municípios com o projeto, tendo em vista que isto poderia ser fator de incentivo a entrada de novas empresas além de fator de aumento de seriedade do sistema. Mais dois dados merecem destaque. Primeiro o fato do Projeto Empreender ter pouca visibilidade regional, ou seja, ser muito pouco divulgado, e o fato da agência de desenvolvimento do GABC não ter aproximação alguma com o projeto. Por último, surgem dados no decorrer da pesquisa que rompem a barreira das teorias administrativas conhecidas, tais como a amizade como fator de associativismo. Portanto, os resultados obtidos com essa pesquisa apontam para a influência no incentivo ao desenvolvimento do processo associativista na região do GABC, além de servir como incentivador para a aproximação de outros atores sociais no processo.(AU)
Resumo:
O associativismo empresarial aparece como forma de desenvolvimento regional, seja este econômico, social ou cultural, e é grande aliado para o surgimento e crescimento das micro e pequenas empresas. É um tema já vivenciado e estudado por vários países do mundo, entre eles europeus e especificamente italianos, mas ainda pouco estudado e conhecido no Brasil. A presente pesquisa objetivou analisar o associativismo empresarial entre micro e pequenas empresas (MPEs) na região do Grande ABC (GABC) pelo Projeto Empreender (SEBRAE) relacionando seus dados com os publicados do relatório 2003/5 de autoria do Observatório Europeu de estudos sobre pequenas e médias empresas europeias, analisando as formas de associativismo aqui ocorridas, além de identificar o perfil das empresas e empresários envolvidos no projeto. Para tal análise foram coletados dados de um total de 63 empresas do Projeto Empreender, nos núcleos de Santo André, São Caetano do Sul e Ribeirão Pires. Do GABC foram coletados dados utilizando o instrumento desenvolvido pelo Observatório Europeu de estudos sobre pequenas e médias empresas. A análise dos dados coletados no GABC em relação aos dados europeus se fez necessária para que pudessem ser encontrados pontos de divergências e convergências em cada uma das experiências, objetivando o aprendizado e evolução do tema. A escolha do GABC foi motivada pelo fato da região passar por mudanças no seu perfil econômico, passando de berço e grande pólo das grandes indústrias para um grande centro de pequenas empresas prestadoras de serviços. Após coleta e análise dos dados, percebeu-se que a experiência do GABC e a ocorrida na Itália se parecem em muitos aspectos, porém tem grandes diferenças estruturais. Enquanto o projeto europeu é de responsabilidade de um órgão da União Europeia, aqui o projeto é de autoria do SEBRAE e sofre grandes conflitos com as Associações Comerciais e Industriais (ACIs) da região quando o tema é custeio das despesas das pessoas e estrutura que envolve a implantação do projeto. Além disso, conclui-se que é necessária uma maior aproximação dos municípios com o projeto, tendo em vista que isto poderia ser fator de incentivo a entrada de novas empresas além de fator de aumento de seriedade do sistema. Mais dois dados merecem destaque. Primeiro o fato do Projeto Empreender ter pouca visibilidade regional, ou seja, ser muito pouco divulgado, e o fato da agência de desenvolvimento do GABC não ter aproximação alguma com o projeto. Por último, surgem dados no decorrer da pesquisa que rompem a barreira das teorias administrativas conhecidas, tais como a amizade como fator de associativismo. Portanto, os resultados obtidos com essa pesquisa apontam para a influência no incentivo ao desenvolvimento do processo associativista na região do GABC, além de servir como incentivador para a aproximação de outros atores sociais no processo.(AU)
Resumo:
Esse trabalho teve como objetivo contribuir para o debate sobre a importância das políticas de incentivo à inovação no Brasil. Os resultados esperados do uso que as empresas fizeram dos diferentes tipos de instrumentos sobre os gastos em pesquisa e desenvolvimento (P&D) foram avaliados pelo método de diferenças em diferenças. O método permitiu obter as diferenças de gastos entre empresas beneficiárias de instrumentos e as não-beneficiárias em três períodos consecutivos: 2005 em relação à 2003; 2008 em relação à 2005 e de 2011 em relação à 2008. Ao fazer isso, foi possível identificar se tais diferenças foram positivas e significativas, podendo ser atribuídas às influências dos instrumentos. Os instrumentos utilizados foram: incentivos fiscais, Lei de Informática, financiamentos em parcerias, financiamentos sem parcerias e subvenção. E a utilização dos mesmos pelas empresas teve maior relevância no âmbito de diversos programas de apoio à inovação vigentes no país a partir da retomada das políticas industriais e tecnológicas, nos anos 2000. O estudo concluiu que os efeitos positivos e significativos são limitados à determinados grupos tecnológicos e à poucos instrumentos, em geral, de caráter fiscal. Além disso, esses efeitos positivos surgem em apenas um período, sendo que para cada grupo tecnológico foram efetuadas estimativas para três períodos. Também não houve evidências de que os instrumentos financeiros exerçam efeitos significativos sobre as decisões de gastos em pesquisa e desenvolvimento, apesar da maior ênfase dada aos mesmos no período estudado. Os resultados sugerem fraca influência dos mecanismos de apoio à P&D no Brasil sobre o aumento dos gastos privados, apesar dos avanços recentes.