689 resultados para CONTADORES ELÉCTRICOS
Resumo:
En este trabajo se presenta el estudio realizado para determinar los modelos eléctricos equivalentes de materiales de tipo piezoeléctrico, para evaluar su capacidad como elementos generadores de energía eléctrica. Los diferentes modelos desarrollados a partir de los resultados experimentales registrados, se han utilizado para obtener la estructura óptima de elementos semiconductores a utilizar en la etapa de entrada del sistema de generación y acumulación de energía eléctrica, teniendo en cuenta su morfología, tipo de semiconductor a utilizar y número necesario, así como su comportamiento ante una demanda variable de potencia a suministrar.
Resumo:
En esta ponencia se realiza una revisión de diferentes metodologías para la evaluación de procesos de desgaste en turbinas aéreas derivadas. Mediante el análisis de las características del lubricante utilizado, a través de espectrometría de micropartículas y de la evaluación por contadores de partículas de tamaño superior a los 20 micrómetros, se pretende determinar procesos de desgaste y correlaciones entre diversos parámetros de funcionamiento de la turbina. Para ello se presentan las principales metodologías de análisis de aceite en uso, indicando la información que suministran, los ámbitos en los que su aplicación es pertinente, y se muestran los resultados de diferentes casos de aplicación correspondientes tanto a aeronaves de ala fija como de ala rotativa.
Resumo:
En esta comunicación se presenta el método para obtener modelos equivalentes eléctricos de materiales piezoeléctricos utilizados en entornos con tráfico vial para aplicaciones "Energy Harvesting". Los resultados experimentales se procesan para determinar la estructura topológica óptima y la tecnología de los elementos semiconductores utilizados en la etapa de entrada del sistema de alimentación "harvesting". Asimismo se presenta el modelo de la fuente de alimentación no regulada bajo demanda variable de corriente. Abstract: The method to obtain electrical equivalent models of piezoelectric materials used in energy harvesting road traffic environment is presented in this paper. The experimental results are processed in order to determine the optimal topological structure and technology of the semiconductor elements used in the input stage of the power harvesting system. The non regulated power supply model under variable current demand is also presented.
Resumo:
El presente proyecto surge como resultado de un proyecto real, consistente en la elaboración de un estudio energético a un edificio perteneciente al Sector Terciario. Pretende llevarse a cabo la realización de una auditoría energética en una Residencia de Mayores con el objetivo principal de obtener un conocimiento óptimo del perfil de los consumos energéticos, identificando y valorando las posibilidades de ahorro de energía según cada sistema, proponiendo medidas de mejora y realizando su evaluación técnica y económica. Para la consecución de este objetivo principal se ha necesitado realizar una campaña de medidas que ha consistido en la obtención de mediciones y registros de parámetros eléctricos, térmicos y de confort, inventariar equipos e instalaciones existentes, conocer las condiciones normales de funcionamiento del centro, analizar y estudiar los datos recogidos durante las visitas y la información aportada por el personal del centro. Con las medidas de mejora energética propuestas se reduce el consumo del edificio un 4,39 %, dando como resultado un periodo de retorno de 4,40 años. ABSTRACT The following project is the result of a real project, involving the development of an energy study to a building belonging to the Tertiary Sector. Energetic audit is performed at a home for the elderly with the main aim of getting knowledge on its optimal energy consumption profile. For this purpose, the possibilities in the energy savings for each system are identified and evaluated. To achieve our goal, we have carried out a measurement campaign consisting of: obtaining and recording measurements of electrical, thermal and comfort parameters, inventory of existing equipment and facilities, acquisition of knowledge about the normal operating conditions of the center, and analysis and study of the data collected during visits and information provided by the staff. As a conclusion of this study it should be noted that the proposed improvement measures will minimize energy consumption of the building 4.39%, resulting in a payback period of 4,40 years.
Resumo:
En esta tesis se han abordado dos estrategias diferentes para caracterizar el fenómeno de estabilidad de tensión en los sistemas de energía eléctrica. En el primer enfoque, presentado en el capítulo 2, se lia estudiado el fenó¬meno de estabilidad de tensión aportando mejoras a diferentes metodologías presentes en la bibliografía y que se refieren al cálculo del margen de potencia, cuando varía una carga, empleando el teorema de la máxima transferencia de potencia. Adicionalmente, se propone una ampliación de este teorema cuando varían las cargas de varios nudos simultáneamente, basado en una linealización del sistema de energía eléctrica para determinar las admitancias críticas y por tanto, los nudos críticos, que proporcionan la potencia total máxima. El segundo enfoque, presentado en los capítulos 3 y 4, propone el empleo del flujo de cargas desde una dimensión distinta a la convencional. Para ello se define un nuevo tipo de nudo en el flujo de cargas, el nudo FU. Esto constituye la principal aportación de la tesis por dos motivos. Por un lado se trata de una nueva herramienta que permite el análisis de la estabilidad de tensión dotando a este de una componente práctica. En el trabajo diario de operación de los sistemas eléctricos el conocimiento del margen para operar bajo unos perfiles de tensión determinados representa una gran ayuda y constituye un enfoque distinto al realizado de forma tradicional. Por otro lado, el nudo FU se presenta no solo como herramienta de carácter global para el estudio y predicción del fenómeno de estabilidad de tensión sino como herramienta de planificación, ya que proporciona información de márgenes de carga, sensibilidades y origen del problema de estabilidad mientras que toda esta información hasta ahora era proporcionada por distintas herramientas. En resumen, el trabajo realizado en esta tesis contribuye al mejor cono¬cimiento del fenómeno de estabilidad de tensión empleando herramientas de tipo estáticas como el flujo de cargas. A continuación, se presentan las aportaciones originales presentadas en este trabajo y se discuten los diferentes aspectos que pueden ser de interés en estudios futuros.
Resumo:
A lo largo de este proyecto se han tratado las diferentes fases que tienen lugar durante el desarrollo del programa de Diseño y Verificación de una Bocina en Banda C destinada a un satélite comercial de comunicaciones. En un primer lugar, se introduce el proyecto en el mundo real realizando una pequeña aproximación a los satélites artificiales y su historia. Después, en una primera fase, se describen los diversos puntos de la etapa de diseño y los resultados de la simulación de nuestra Antena. Se estudian por separado los diferentes elementos que componen el equipo, y además, se realiza un análisis de los parámetros eléctricos que se deben tener en cuenta durante el diseño para adaptar el comportamiento de la Antena a los requisitos solicitados por el cliente. Antes de realizar la verificación de la Antena, se procede a la definición de los ensayos, que se debe realizar sobre el equipo con el fin de simular las condiciones a las que se verá sometido. Pruebas y medidas, niveles de test, etc. que nos ayudan a demostrar que nuestra Antena está preparada para realizar su misión en el espacio. Se hará una descripción sobre la forma de realizar de los ensayos y de las instalaciones donde se van a llevar a cabo, además del orden que llevaremos durante la campaña. Una vez determinados los test y con la Antena fabricada y lista, se procede a la Verificación de nuestro equipo mediante la Campaña de Ensayos con el objetivo de caracterizar por completo el funcionamiento de nuestra Antena en cualquier circunstancia. Se muestran los resultados obtenidos en los test siguiendo el orden establecido por el Test Plan. Medidas en Laboratorio y Radiación, los test de vibración y las pruebas ambientales en las Cámaras Térmicas de Vacío, y medidas eléctricas en condiciones extremas de temperatura y presión. Y una vez realizada la Campaña, se vuelve a medir la Antena para comprobar el funcionamiento tras soportar todos los ensayos. Se analizan los resultados obtenidos en cada una de las pruebas y se comparan con las simulaciones obtenidas durante la fase de diseño. Finalmente, se realiza un pequeño resumen de los valores más importantes obtenidos durante la Verificación y exponen las Conclusiones que se desprende de dicho proceso. Como último punto del proyecto, se estudian las correcciones y mejoras que se podrán llevar a cabo en futuros programas gracias a lo que hemos aprendido en este proyecto. Abstract This project presents a C Band Horn Antenna for a commercial communications satellite. All the different phases from Design to Verification are presented. First of all, an introduction to artificial satellites and their history is presented to put this project into perspective. Next, the electrical design of the Antenna is presented. Taking into account the theoretical fundamentals, each element that comprises this Antenna was designed. Their electrical performances, obtained from analysis using commercial software, are presented in the simulation results. In the design of each element of the antenna, some critical parameters are set and optimized in order to be compliant with the global requirements requested by the customer. After the design is completed, it is necessary to define the Test Campaign that has to be carried out in order to verify the validity of the designed and manufactured Antenna. Therefore, a Test Plan and the Electrical and Environmental Test Procedures are defined. This Test Campaign must be representative of the same conditions of the real space mission. Considering this, the following are defined: parameters for the network analyzer and radiation patterns measurements; test levels for the environmental test; definition of the RF measurements to be carried out and the temperatures to be applied in the thermal vacuum cycling. If the Antenna surpasses these tests, it will be ready to perform its mission in space over the entire satellite’s life cycle. The facilities where the tests are performed, as well as the sequence of the tests along the campaign are described too. After that, the Test Campaign is performed to fully characterize the Antenna in the space simulated conditions. Following the order established in the Test Plan, a radiation pattern and laboratory parameters are measured to correlate its electrical response with the simulations. Then, vibration and thermal vacuum tests are performed to verify its behavior in extreme environmental conditions. Last, if the final electrical results are the same as the initial ones, it can be stated that the antenna has successfully passed the Test Campaign. And finally, conclusions obtained from the data simulation design and Test Campaign results are presented. Status of Compliance with the specification is shown to demonstrate that the Antenna fulfills the requested requirements. Although the purpose of this project is to design and verify the response of C Band Horn Antenna, it is important to highlight improvements for future developments and the lessons learnt during this project.
Resumo:
Un sistema informático es un grupo de máquinas unidas físicamente unas a otras por medios eléctricos, colocadas bajo la dependencia de un órgano central de decisión y control que hace ejecutar a las distintas máquinas un plan de trabajo establecido previamente por el hombre
Resumo:
Nuevas aplicaciones tecnológicas y científicas mediante amarras electrodinámicas son analizadas para misiones planetarias. i) Primero, se considera un conjunto de amarras cilíndricas en paralelo (veleros electrosolares) para una misión interplanetaria. Los iones provenientes del viento solar son repelidos por el alto potencial de dichas amarras generando empuje sobre el velero. Para conocer el intercambio de momento que provocan los iones sobre las amarras se ha considerado un modelo de potencial estacionario. Se ha analizado la transferencia orbital de la Tierra a Júpiter siguiendo un método de optimización de trayectoria indirecto. ii) Una vez que el velero se encuentra cerca de Júpiter, se ha considerado el despliegue de una amarra para diferentes objetivos científicos. iia) Una amarra podría ser utilizada para diagnóstico de plasmas, al ser una fuente efectiva de ondas, y también como un generador de auroras artificiales. Una amarra conductora que orbite en la magnetosfera jovial es capaz de producir ondas. Se han analizado las diferentes ondas radiadas por un conductor por el que circula una corriente constante que sigue una órbita polar de alta excentricidad y bajo apoápside, como ocurre en la misión Juno de la NASA. iib) Además, se ha estudiado una misión tentativa que sigue una órbita ecuatorial (LJO) por debajo de los intensos cinturones de radiación. Ambas misiones requiren potencia eléctrica para los sistemas de comunicación e instrumentos científicos. Las amarras pueden generar potencia de manera más eficiente que otros sistemas que utlizan paneles solares o sistemas de potencia de radioisótopos (RPS). La impedancia de radiación es necesaria para determinar la corriente que circula por todo el circuito de la amarra. En un modelo de plasma frío, la radiación ocurre principalmente en los modos de Alfven y magnetosónica rápida, mostrando un elevado índice de refracción. Se ha estudiado la impedancia de radiación en amarras con recubrimiento aislante para los dos modos de radiación y cada una de las misiones. A diferencia del caso ionosférico terrestre, la baja densidad y el intenso campo magnético que aparecen en el entorno de Júpiter consiguen que la girofrecuencia de los electrones sea mucho mayor que la frecuencia del plasma; esto hace que el espectro de potencia para cada modo se modifique substancialmente, aumentando la velocidad de Alfven. Se ha estimado también la impedancia de radiación para amarras sin aislante conductor. En la misión LJO, un vehículo espacial bajando lentamente la altitud de su órbita permitiría estudiar la estructura del campo magnético y composición atmosférica para entender la formación, evolución, y estructura de Júpiter. Adicionalmente, si el contactor (cátodo) se apaga, se dice que la amarra flota eléctricamente, permitiendo emisión de haz de electrones que generan auroras. El continuo apagado y encendido produce pulsos de corriente dando lugar a emisiones de señales, que pueden ser utilizadas para diagnóstico del plasma jovial. En Órbita Baja Jovial, los iones que impactan contra una amarra polarizada negativamente producen electrones secundarios, que, viajando helicoidalmente sobre las líneas de campo magnético de Júpiter, son capaces de alcanzar su atmósfera más alta, y, de esta manera, generar auroras. Se han identificado cuáles son las regiones donde la amarra sería más eficiente para producir auroras. iic) Otra aplicación científica sugerida para la misión LJO es la detección de granos cargados que orbitan cerca de Júpiter. Los electrones de alta energía en este ambiente pueden ser modelados por una distribucción no Maxwelliana conocida como distribución kappa. En escenarios con plasmas complejos, donde los campos eléctricos en Júpiter pueden acelerar las cargas hasta velocidades que superen la velocidad térmica, este tipo de distribuciones son muy útiles. En este caso las colas de las distribuciones de electrones siguen una ley de potencias. Se han estudiado las fluctuaciones de granos cargados para funciones de distribución kappa. iii) La tesis concluye con el análisis para deorbitar satélites con amarras electrodinámicas que siguen una Órbita Baja Terrestre (LEO). Una amarra debe presentar una baja probabilidad de corte por pequeño debris y además debe ser suficientemente ligero para que el cociente entre la masa de la amarra y el satélite sea muy pequeño. En este trabajo se estiman las medidas de la longitud, anchura y espesor que debe tener una amarra para minimizar el producto de la probabilidad de corte por el cociente entre las masas de la amarra y el satélite. Se presentan resultados preliminares del diseño de una amarra con forma de cinta para deorbitar satélites relativamente ligeros como Cryosat y pesados como Envisat. Las misiones espaciales a planetas exteriores y en el ámbito terrestre plantean importantes retos científico-tecnológicos que deben ser abordados y solucionados. Por ello, desde el inicio de la era espacial se han diseñando novedosos métodos propulsivos, sistemas de guiado, navegación y control más robustos, y nuevos materiales para mejorar el rendimiento de los vehículos espaciales (SC). En un gran número de misiones interplanetarias y en todas las misiones a planetas exteriores se han empleado sistemas de radioisótopos (RPS) para generar potencia eléctrica en los vehículos espaciales y en los rovers de exploración. Estos sistemas emplean como fuente de energía el escaso y costoso plutonio-238. La NASA, por medio de un informe de la National Academy of Science (5 de Mayo del 2009), expresó una profunda preocupación por la baja cantidad de plutonio almacenado, insuficiente para desarrollar todas las misiones de exploración planetaria planeadas en el futuro [81, 91]. Esta circustancia ha llevado a dicha Agencia tomar la decisión de limitar el uso de estos sistemas RPS en algunas misiones de especial interés científico y una recomendación de alta prioridad para que el Congreso de los EEUU apruebe el reestablecimiento de la producción de plutonio-238, -son necesarios cerca de 5 kg de este material radiactivo al año-, para salvaguardar las misiones que requieran dichos sistemas de potencia a partir del año 2018. Por otro lado, la Agencia estadounidense ha estado considerando el uso de fuentes de energía alternativa; como la fisión nuclear a través del ambicioso proyecto Prometheus, para llevar a cabo una misión de exploración en el sistema jovial (JIMO). Finalmente, dicha misión fue desestimada por su elevado coste. Recientemente se han estado desarrollando sistemas que consigan energía a través de los recursos naturales que nos aporta el Sol, mediante paneles solares -poco eficientes para misiones a planetas alejados de la luz solar-. En este contexto, la misión JUNO del programa Nuevas Fronteras de la NASA, cuyo lanzamiento fue realizado con éxito en Agosto de 2011, va a ser la primera misión equipada con paneles solares que sobrevolará Júpiter en el 2015 siguiendo una órbita polar. Anteriormente se habían empleado los antes mencionados RPS para las misiones Pioneer 10,11, Voyager 1,2, Ulysses, Cassini-Huygens y Galileo (todas sobrevuelos excepto Galileo). Dicha misión seguirá una órbita elíptica de alta excentricidad con un periápside muy cercano a Júpiter, y apoápside lejano, evitando que los intensos cinturones de radiación puedan dañar los instrumentos de navegación y científicos. Un tether o amarra electrodinámica es capaz de operar como sistema propulsivo o generador de potencia, pero también puede ser considerado como solución científicotecnológica en misiones espaciales tanto en LEO (Órbita Baja Terrestre) como en planetas exteriores. Siguiendo una perspectiva histórica, durante las misiones terrestres TSS-1 (1992) y TSS-1R (1996) se emplearon amarras estandard con recubrimiento aislante en toda su longitud, aplicando como terminal anódico pasivo un colector esférico para captar electrones. En una geometría alternativa, propuesta por J. R. Sanmartín et al. (1993) [93], se consideró dejar la amarra sin recubrimiento aislante (“bare tether”), y sin colector anódico esférico, de forma que recogiera electrones a lo largo del segmento que resulta polarizado positivo, como si se tratara de una sonda de Langmuir de gran longitud. A diferencia de la amarra estandard, el “bare tether” es capaz de recoger electrones a lo largo de una superficie grande ya que este segmento es de varios kilómetros de longitud. Como el radio de la amarra es del orden de la longitud de Debye y pequeño comparado con el radio de Larmor de los electrones, permite una recolección eficiente de electrones en el régimen OML (Orbital Motion Limited) de sondas de Langmuir. La corriente dada por la teoría OML varía en función del perímetro y la longitud. En el caso de una cinta delgada, el perímetro depende de la anchura, que debe ser suficientemente grande para evitar cortes producidos por debris y micrometeoritos, y suficientemente pequeño para que la amarra funcione en dicho régimen [95]. En el experimento espacial TSS-1R mencionado anteriormente, se identificó una recolección de corriente más elevada que la que predecía el modelo teórico de Parker- Murphy, debido posiblemente a que se utilizaba un colector esférico de radio bastante mayor que la longitud de Debye [79]. En el caso de una amarra “bare”, que recoge electrones a lo largo de gran parte de su longitud, se puede producir un fenómeno conocido como atrapamiento adiabático de electrones (adiabatic electron trapping) [25, 40, 60, 73, 74, 97]. En el caso terrestre (LEO) se da la condición mesotérmica en la que la amarra se mueve con una velocidad muy superior a la velocidad térmica de los iones del ambiente y muy inferior a la velocidad térmica de los electrones. J. Laframboise y L. Parker [57] mostraron que, para una función de distribución quasi-isotrópica, la densidad de electrones debe entonces ser necesariamente inferior a la densidad ambiente. Por otra parte, debido a su flujo hipersónico y a la alta polarización positiva de la amarra, la densidad de los iones es mayor que la densidad ambiente en una vasta región de la parte “ram” del flujo, violando la condición de cuasi-neutralidad,-en una región de dimensión mayor que la longitud de Debye-. La solución a esta paradoja podría basarse en el atrapamiento adiabático de electrones ambiente en órbitas acotadas entorno al tether. ABSTRACT New technological and scientific applications by electrodynamic tethers for planetary missions are analyzed: i) A set of cylindrical, parallel tethers (electric solar sail or e-sail) is considered for an interplanetary mission; ions from the solar wind are repelled by the high potential of the tether, providing momentum to the e-sail. An approximated model of a stationary potential for a high solar wind flow is considered. With the force provided by a negative biased tether, an indirect method for the optimization trajectory of an Earth-to-Jupiter orbit transfer is analyzed. ii) The deployment of a tether from the e-sail allows several scientific applications in Jupiter. iia) It might be used as a source of radiative waves for plasma diagnostics and artificial aurora generator. A conductive tether orbiting in the Jovian magnetosphere produces waves. Wave radiation by a conductor carrying a steady current in both a polar, highly eccentric, low perijove orbit, as in NASA’s Juno mission, and an equatorial low Jovian orbit (LJO) mission below the intense radiation belts, is considered. Both missions will need electric power generation for scientific instruments and communication systems. Tethers generate power more efficiently than solar panels or radioisotope power systems (RPS). The radiation impedance is required to determine the current in the overall tether circuit. In a cold plasma model, radiation occurs mainly in the Alfven and fast magnetosonic modes, exhibiting a large refraction index. The radiation impedance of insulated tethers is determined for both modes and either mission. Unlike the Earth ionospheric case, the low-density, highly magnetized Jovian plasma makes the electron gyrofrequency much larger than the plasma frequency; this substantially modifies the power spectrum for either mode by increasing the Alfven velocity. An estimation of the radiation impedance of bare tethers is also considered. iib) In LJO, a spacecraft orbiting in a slow downward spiral under the radiation belts would allow determining magnetic field structure and atmospheric composition for understanding the formation, evolution, and structure of Jupiter. Additionally, if the cathodic contactor is switched off, a tether floats electrically, allowing e-beam emission that generate auroras. On/off switching produces bias/current pulses and signal emission, which might be used for Jovian plasma diagnostics. In LJO, the ions impacting against the negative-biased tether do produce secondary electrons, which racing down Jupiter’s magnetic field lines, reach the upper atmosphere. The energetic electrons there generate auroral effects. Regions where the tether efficiently should produce secondary electrons are analyzed. iic) Other scientific application suggested in LJO is the in-situ detection of charged grains. Charged grains naturally orbit near Jupiter. High-energy electrons in the Jovian ambient may be modeled by the kappa distribution function. In complex plasma scenarios, where the Jovian high electric field may accelerate charges up superthermal velocities, the use of non-Maxwellian distributions should be considered. In these cases, the distribution tails fit well to a power-law dependence for electrons. Fluctuations of the charged grains for non-Mawellian distribution function are here studied. iii) The present thesis is concluded with the analysis for de-orbiting satellites at end of mission by electrodynamic tethers. A de-orbit tether system must present very small tether-to-satellite mass ratio and small probability of a tether cut by small debris too. The present work shows how to select tape dimensions so as to minimize the product of those two magnitudes. Preliminary results of tape-tether design are here discussed to minimize that function. Results for de-orbiting Cryosat and Envisat are also presented.
Resumo:
Ha sido diseñada e instalada en el Departamento de Ingeniería Rural de la Universidad Politécnica de Madrid una línea experimental de manipulación de fruta con el objetivo de mejorar elementos mecánicos y condiciones de manipulación para reducir daños a la fruta. La línea experimental consta de varias cintas transportadoras, un transportador de rodillos, un calibrador de diábolos, un elevador, un alineador y tres bandejas de salida para la fruta calibrada. La línea tiene una longitud de 6.15 m y una anchura de 1.9 m. Los diferentes elementos de la línea están accionados por motores eléctricos con velocidad variable controlada electrónicamente. La altura de los puntos de transferencia es variable y puede ser modificada con facilidad. La línea experimental ha sido calibrada utilizando dos frutos electrónicos IS 100 (8.8 cm Ø y 6.2 cm Ø). Los impactos registrados por los frutos electrónicos permanecen por debajo de 80 g's en todos los puntos de transferencia.
Resumo:
En los últimos años ha habido un creciente interés en los cristales líquidos como posibles moduladores de luz coherente en las comunicaciones ópticas, modulación que implica la perturbación de las propiedades ópticas de tales compuestos orgánicos mediante campos eléctricos y / o magnéticos.
Resumo:
Como es sabido, los cristales líquidos poseen la propiedad de orientarse en dominios inducidos por las condiciones de contorno, así como de sufrir reorientaciones por la acción de campos externos magnéticos, eléctricos u ópticos. Se conoce, asimismo, que la introducción de sustancias no mesomórficas en una estructura de cristal líquido no modifica apreciablemente su ordenación, a condición de que la impurificación realizada sea muy pequeña (10-2 -10-3 M típicamente). Las moléculas no mesomórficas son en este caso inducidas por los dominios de cristal líquido a orientarse a su vez, efecto este que puede ser detectado estudiando la absorción y/o emisión de luz polarizada de las mismas. La reorientación por campos externos, por su parte, sigue produciéndose cualitativamente de igual manera, aunque se producen variaciones en el voltaje umbral y/o tiempo de respuesta.
Resumo:
Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.
Resumo:
En los últimos años se ha producido un aumento constante en la potencia fotovoltaica instalada a nivel mundial. Este crecimiento, acompañado de crecimientos similares en el resto de energías renovables, está motivado por la necesidad de dar respuesta a varios de los retos que planteados al sector energético: creciente preocupación por los efectos en el medioambiente de las emisiones de gases de efecto invernadero, entre los que cabe destacar el cambio climático (IPCC 2011); el inevitable agotamiento de algunas fuentes tradicionales de energía eléctrica, basadas en combustibles fósiles, que llevara aparejado en las próximas décadas un aumento en el coste asociado a producir energía eléctrica mediante estas fuentes como indican Bentley (2002), Gori (2007), Kjastard (2009), Owen (2010) y Hughes (2011), y la necesidad para algunos países de asegurar su independencia energética, factor especialmente crítico para los países europeos debido a su escasez en reservas naturales de combustibles fósiles. La energía solar fotovoltaica, al igual que el resto de energías renovables, proporciona energía eléctrica de manera limpia y segura y plantea soluciones a los problemas mencionados. Asimismo, las energías renovables también presentan beneficios sociales como la creación de empleo cualificado en actividades de ingeniería, fabricación, instalación y mantenimiento, así como en la investigación, desarrollo e innovación. Es por estos motivos que las energías renovables se han visto beneficiadas a lo largo de las últimas décadas de mecanismos favorables, subvenciones y primas a la producción, conducentes a su implantación y desarrollo. La Figura 1.1 muestra la evolución de la potencia total instalada a nivel mundial y su tasa de crecimiento del 2000 al 2012, de acuerdo con datos proporcionados por la Agencia Internacional de la Energía: IEA (2012a, 2013). Los datos incluidos en la Figura 1.1 solo incluyen a los países que pertenecen a la Agencia Internacional de la Energía: Alemania, Australia, Austria, Bélgica, Canadá, China, Corea, Dinamarca, España, Estados Unidos, Finlandia, Francia, Holanda, Israel, Italia, Japón, Malasia, México, Noruega, Portugal, Reino Unido, Suecia, Suiza y Turquía. La potencia instalada muestra un crecimiento de tipo exponencial, incrementándose cada año un 41,6% de media. A los 88,5 GWP de potencia fotovoltaica instalada en todos los países miembros de la IEA a finales de 2012 habría que añadir, siempre según la IEA (2013), 7 GWP adicionales repartidos en seis países que no pertenecen a este organismo: Republica Checa, Grecia, Bulgaria, Eslovaquia, Ucrania y Tailandia. Esta tendencia en la tasa de crecimiento se mantiene incluso en los últimos años del periodo cuando varios países han reducido los incentivos a las energías renovables. Como consecuencia de este crecimiento en algunos países la proporción de energía eléctrica total de origen fotovoltaico empieza a ser apreciable. Para los casos de España, Alemania e Italia, el porcentaje de energía eléctrica final producida sistemas fotovoltaicos conectados a la red (SFCR) fue, respectivamente, de 3,1% y 4,7% en 2012 y de 3,1% en 2011 en Italia. La potencia instalada, la energía producida y la demanda total en estos países desde el año 2006 al 2012, de acuerdo con REE (2012, 2012, 2013), BMU (2013) y TERNA (2013), se recoge en la Tabla 1.1. Para el caso de Italia se incluyen únicamente datos hasta el año 2011 por no encontrarse disponibles datos para 2012. A medida que el nivel de penetración de la energía solar fotovoltaica en los sistemas eléctricos aumenta la necesidad de que este tipo de energía se integre de manera efectiva en dichos sistemas aumenta. La integración efectiva de un generador en el sistema eléctrico requiere que su producción sea conocida de antemano para poder incluirlo en la planificación del sistema eléctrico con el objetivo de que la producción programada para los distintos generadores iguale a la demanda esperada. Esta planificación del sistema eléctrico se suele hacer a escala diaria. Asimismo, además de equilibrar la generación con la demanda esperada un generador eléctrico debe ser capaz de proporcionar servicios auxiliares al sistema eléctrico como compensación de desequilibrios entre generación y consumo, regulación de tensión o inyección de potencia reactiva, entre otros. Por ejemplo, los sistemas fotovoltaicos cuya potencia sea superior a 2 MWP deben contribuir en España desde el 2010 a garantizar la continuidad del suministro eléctrico frente a huecos de tensión (España, 2010), aplicándose a estos sistemas fotovoltaicos el mismo procedimiento de operación – PO 12.3, REE(2006) – que ya se aplicó en su día a los generadores eólicos (España, 2007). La energía fotovoltaica, junto a otras energías renovables como la eólica, ha sido considerada tradicionalmente una fuente de energía no regulable. En consecuencia, no ha sido tenida en cuenta por los operadores de los sistemas eléctricos como una fuente de energía fiable. Esta consideración de la fotovoltaica como fuente de energía no fiable se debe a su dependencia de las condiciones meteorológicas, radiación y temperatura, para producir energía. Si la producción de un sistema fotovoltaico pudiese conocerse con exactitud y con la suficiente antelación se facilitaría su integración en los sistemas eléctricos. Sin embargo, la mera predicción de cuanta energía producirá un sistema fotovoltaico, aun cuando esta predicción se haga sin error, puede no ser suficiente; la energía producida por el sistema fotovoltaico sigue estando limitada por las condiciones meteorológicas y no es posible regular esta producción de energía. Como ya se ha comentado, la capacidad por parte de un generador eléctrico de regular su potencia de salida, tanto anticipadamente como en tiempo real, es crucial a la hora de su integración en el sistema eléctrico.
Resumo:
En este trabajo, se estudia la evolución desde su inicio de las fases de hidratación de materiales cementicios a los que se incorporan cenizas volantes y escorias procedentes de centrales térmicas. Mediante medidas de espectroscopía de impedancia eléctrica (EIS), y de difracción de rayos X (XRD), se analiza el proceso desde la etapa inicial visualizando los cambios que se producen. Se consideran diferentes elementos de sustitución y se determina para cada uno de ellos cuando se inician los procesos, cuando se completan y los cambios que sufren durante el mismo. Se relacionan los valores de EIS con los de DRX para determinar las fases que se transforman, y se indica para cada sustitución como se modifica la transformación de las fases en función del tiempo y en comparación con el material de referencia. Se pone de manifiesto que la utilización de EIS, trabajando en función de la frecuencia y con los parámetros eléctricos adecuados es una herramienta muy potente para hacer el seguimiento a tiempo real de estos procesos.
Resumo:
La energía basada en turbinas hidráulicas de reducida potencia es, a menudo, un ejemplo- modelo dentro del campo de las energías renovables desde su aparición a finales del S. XIX, aunque los ingenios precursores surgen mucho antes. Entre los testimonios más antiguos destacan la saqia o rueda persa y la rueda hidráulica romana que había sido previamente implementada en Extremo Oriente, y que después llega a Europa a través de Egipto. Más tarde, durante la Edad Media y el Renacimiento, se generaliza el uso de los molinos hidráulicos, además de los eólicos. Ejemplos de ello son las norias de Alepo (Siria) y de Córdoba (España). Otro caso interesante es el de los molinos de regolfo en la Península Ibérica e Iberoamérica, muy cercanos en su forma y fundamentos a las turbinas hidráulicas. Algunos de estos ingenios siguen activos en los ríos de España. Posteriormente los estudios de Euler, Burdin y Fourneyron prepararon las bases para el definitivo avance de Pelton, Kaplan, Francis, y otros, pero ya como máquinas motrices de los generadores eléctricos. En la actualidad, se admite como límite superior para minihidráulica aquellas centrales con una potencia instalada de 5000 kW, y considerando que cuando las potencias son inferiores a 100 kW se denomina micro hidráulica, aunque en Latinoamérica este límite se fija en 20 kW. El estudio del recurso hídrico, ayudado del geotécnico, constituyen la base sobre la que podremos proyectar el aprovechamiento hidroeléctrico: selección del tipo de central dentro de la tipología disponible, diseño y cálculos de la turbina, obra civil necesaria (azud, presa, canal, tubería forzada, edificio, aspiración, desagüe, etc.) y equipo electromecánico. El proyecto tecnológico se complementa con el estudio de impacto ambiental y de viabilidad económica. Muchos de estos proyectos tratan de reducir la falta de acceso a la energía en poblaciones desfavorecidas, entendida esta carencia como un factor determinante de la pobreza. Así la energía mini y micro-hidráulica adquiere un nuevo valor como tecnología para el desarrollo humano.