988 resultados para Compact Dual Band Planar Antenna
Resumo:
A compact and planar donor–acceptor molecule 1 comprising tetrathiafulvalene (TTF) and benzothiadiazole (BTD) units has been synthesised and experimentally characterised by structural, optical, and electrochemical methods. Solution-processed and thermally evaporated thin films of 1 have also been explored as active materials in organic field-effect transistors (OFETs). For these devices, hole field-effect mobilities of μFE=(1.3±0.5)×10−3 and (2.7±0.4)×10−3 cm2 V s−1 were determined for the solution-processed and thermally evaporated thin films, respectively. An intense intramolecular charge-transfer (ICT) transition at around 495 nm dominates the optical absorption spectrum of the neutral dyad, which also shows a weak emission from its ICT state. The iodine-induced oxidation of 1 leads to a partially oxidised crystalline charge-transfer (CT) salt {(1)2I3}, and eventually also to a fully oxidised compound {1I3}⋅1/2I2. Single crystals of the former CT compound, exhibiting a highly symmetrical crystal structure, reveal a fairly good room temperature electrical conductivity of the order of 2 S cm−1. The one-dimensional spin system bears compactly bonded BTD acceptors (spatial localisation of the LUMO) along its ridge.
Resumo:
A method to reduce the noise power in far-field pattern without modifying the desired signal is proposed. Therefore, an important signal-to-noise ratio improvement may be achieved. The method is used when the antenna measurement is performed in planar near-field, where the recorded data are assumed to be corrupted with white Gaussian and space-stationary noise, because of the receiver additive noise. Back-propagating the measured field from the scan plane to the antenna under test (AUT) plane, the noise remains white Gaussian and space-stationary, whereas the desired field is theoretically concentrated in the aperture antenna. Thanks to this fact, a spatial filtering may be applied, cancelling the field which is located out of the AUT dimensions and which is only composed by noise. Next, a planar field to far-field transformation is carried out, achieving a great improvement compared to the pattern obtained directly from the measurement. To verify the effectiveness of the method, two examples will be presented using both simulated and measured near-field data.
Resumo:
This work is motivated in providing and evaluating a fusion algorithm of remotely sensed images, i.e. the fusion of a high spatial resolution panchromatic image with a multi-spectral image (also known as pansharpening) using the dual-tree complex wavelet transform (DT-CWT), an effective approach for conducting an analytic and oversampled wavelet transform to reduce aliasing, and in turn reduce shift dependence of the wavelet transform. The proposed scheme includes the definition of a model to establish how information will be extracted from the PAN band and how that information will be injected into the MS bands with low spatial resolution. The approach was applied to Spot 5 images where there are bands falling outside PAN’s spectrum. We propose an optional step in the quality evaluation protocol, which is to study the quality of the merger by regions, where each region represents a specific feature of the image. The results show that DT-CWT based approach offers good spatial quality while retaining the spectral information of original images, case SPOT 5. The additional step facilitates the identification of the most affected regions by the fusion process.
Resumo:
This paper describes two methods to cancel the effect of two kinds of leakage signals which may be presented when an antenna is measured in a planar near-field range. One method tries to reduce leakage bias errors from the receiver¿s quadrature detector and it is based on estimating the bias constant added to every near-field data sample. Then, that constant is subtracted from the data, removing its undesired effect on the far-field pattern. The estimation is performed by back-propagating the field from the scan plane to the antenna under test plane (AUT) and averaging all the data located outside the AUT aperture. The second method is able to cancel the effect of the leakage from faulty transmission lines, connectors or rotary joints. The basis of this method is also a reconstruction process to determine the field distribution on the AUT plane. Once this distribution is known, a spatial filtering is applied to cancel the contribution due to those faulty elements. After that, a near-field-to-far-field transformation is applied, obtaining a new radiation pattern where the leakage effects have disappeared. To verify the effectiveness of both methods, several examples are presented.
Resumo:
This work discusses an iterative procedure of shaping offset dual-reflector antennas based on geometrical optics considering both far-field and near-field measurements of amplitude and phase from the feed horn. The surfaces synthesized will transform a known radiation field of a feed to a desired aperture distribution. This technique is applied for both circular and elliptical apertures and has the advantage to simplify the problem compared with existing techniques based on solving nonlinear differential equations. A MATLAB tool has been developed to implement the shaping algorithms. This procedure is applied for the design of a 1.1 m high-gain antenna for the ESA’s Solar Orbiter spacecraft. This antenna operating at X-band will manage high data rate and high efficiency communications with Earth stations.
Resumo:
In this work, we propose two new optical structures, using the Simultaneous Multiple Surfaces (SMS) method, comprised of 2 reflecting surfaces and 2 refracting surfaces, 800mm focal length, f/8 (aperture diameter 100 mm) and 1.18 0 diagonal field of view in the SWIR band. The lens surfaces are rotational symmetric and calculated to have good control of non-paraxial rays. We have achieved designs with excellent performance, and with total system length of less than 60 mm.
Resumo:
One important task in the design of an antenna is to carry out an analysis to find out the characteristics of the antenna that best fulfills the specifications fixed by the application. After that, a prototype is manufactured and the next stage in design process is to check if the radiation pattern differs from the designed one. Besides the radiation pattern, other radiation parameters like directivity, gain, impedance, beamwidth, efficiency, polarization, etc. must be also evaluated. For this purpose, accurate antenna measurement techniques are needed in order to know exactly the actual electromagnetic behavior of the antenna under test. Due to this fact, most of the measurements are performed in anechoic chambers, which are closed areas, normally shielded, covered by electromagnetic absorbing material, that simulate free space propagation conditions, due to the absorption of the radiation absorbing material. Moreover, these facilities can be employed independently of the weather conditions and allow measurements free from interferences. Despite all the advantages of the anechoic chambers, the results obtained both from far-field measurements and near-field measurements are inevitably affected by errors. Thus, the main objective of this Thesis is to propose algorithms to improve the quality of the results obtained in antenna measurements by using post-processing techniques and without requiring additional measurements. First, a deep revision work of the state of the art has been made in order to give a general vision of the possibilities to characterize or to reduce the effects of errors in antenna measurements. Later, new methods to reduce the unwanted effects of four of the most commons errors in antenna measurements are described and theoretical and numerically validated. The basis of all them is the same, to perform a transformation from the measurement surface to another domain where there is enough information to easily remove the contribution of the errors. The four errors analyzed are noise, reflections, truncation errors and leakage and the tools used to suppress them are mainly source reconstruction techniques, spatial and modal filtering and iterative algorithms to extrapolate functions. Therefore, the main idea of all the methods is to modify the classical near-field-to-far-field transformations by including additional steps with which errors can be greatly suppressed. Moreover, the proposed methods are not computationally complex and, because they are applied in post-processing, additional measurements are not required. The noise is the most widely studied error in this Thesis, proposing a total of three alternatives to filter out an important noise contribution before obtaining the far-field pattern. The first one is based on a modal filtering. The second alternative uses a source reconstruction technique to obtain the extreme near-field where it is possible to apply a spatial filtering. The last one is to back-propagate the measured field to a surface with the same geometry than the measurement surface but closer to the AUT and then to apply also a spatial filtering. All the alternatives are analyzed in the three most common near-field systems, including comprehensive noise statistical analyses in order to deduce the signal-to-noise ratio improvement achieved in each case. The method to suppress reflections in antenna measurements is also based on a source reconstruction technique and the main idea is to reconstruct the field over a surface larger than the antenna aperture in order to be able to identify and later suppress the virtual sources related to the reflective waves. The truncation error presents in the results obtained from planar, cylindrical and partial spherical near-field measurements is the third error analyzed in this Thesis. The method to reduce this error is based on an iterative algorithm to extrapolate the reliable region of the far-field pattern from the knowledge of the field distribution on the AUT plane. The proper termination point of this iterative algorithm as well as other critical aspects of the method are also studied. The last part of this work is dedicated to the detection and suppression of the two most common leakage sources in antenna measurements. A first method tries to estimate the leakage bias constant added by the receiver’s quadrature detector to every near-field data and then suppress its effect on the far-field pattern. The second method can be divided into two parts; the first one to find the position of the faulty component that radiates or receives unwanted radiation, making easier its identification within the measurement environment and its later substitution; and the second part of this method is able to computationally remove the leakage effect without requiring the substitution of the faulty component. Resumen Una tarea importante en el diseño de una antena es llevar a cabo un análisis para averiguar las características de la antena que mejor cumple las especificaciones fijadas por la aplicación. Después de esto, se fabrica un prototipo de la antena y el siguiente paso en el proceso de diseño es comprobar si el patrón de radiación difiere del diseñado. Además del patrón de radiación, otros parámetros de radiación como la directividad, la ganancia, impedancia, ancho de haz, eficiencia, polarización, etc. deben ser también evaluados. Para lograr este propósito, se necesitan técnicas de medida de antenas muy precisas con el fin de saber exactamente el comportamiento electromagnético real de la antena bajo prueba. Debido a esto, la mayoría de las medidas se realizan en cámaras anecoicas, que son áreas cerradas, normalmente revestidas, cubiertas con material absorbente electromagnético. Además, estas instalaciones se pueden emplear independientemente de las condiciones climatológicas y permiten realizar medidas libres de interferencias. A pesar de todas las ventajas de las cámaras anecoicas, los resultados obtenidos tanto en medidas en campo lejano como en medidas en campo próximo están inevitablemente afectados por errores. Así, el principal objetivo de esta Tesis es proponer algoritmos para mejorar la calidad de los resultados obtenidos en medida de antenas mediante el uso de técnicas de post-procesado. Primeramente, se ha realizado un profundo trabajo de revisión del estado del arte con el fin de dar una visión general de las posibilidades para caracterizar o reducir los efectos de errores en medida de antenas. Después, se han descrito y validado tanto teórica como numéricamente nuevos métodos para reducir el efecto indeseado de cuatro de los errores más comunes en medida de antenas. La base de todos ellos es la misma, realizar una transformación de la superficie de medida a otro dominio donde hay suficiente información para eliminar fácilmente la contribución de los errores. Los cuatro errores analizados son ruido, reflexiones, errores de truncamiento y leakage y las herramientas usadas para suprimirlos son principalmente técnicas de reconstrucción de fuentes, filtrado espacial y modal y algoritmos iterativos para extrapolar funciones. Por lo tanto, la principal idea de todos los métodos es modificar las transformaciones clásicas de campo cercano a campo lejano incluyendo pasos adicionales con los que los errores pueden ser enormemente suprimidos. Además, los métodos propuestos no son computacionalmente complejos y dado que se aplican en post-procesado, no se necesitan medidas adicionales. El ruido es el error más ampliamente estudiado en esta Tesis, proponiéndose un total de tres alternativas para filtrar una importante contribución de ruido antes de obtener el patrón de campo lejano. La primera está basada en un filtrado modal. La segunda alternativa usa una técnica de reconstrucción de fuentes para obtener el campo sobre el plano de la antena donde es posible aplicar un filtrado espacial. La última es propagar el campo medido a una superficie con la misma geometría que la superficie de medida pero más próxima a la antena y luego aplicar también un filtrado espacial. Todas las alternativas han sido analizadas en los sistemas de campo próximos más comunes, incluyendo detallados análisis estadísticos del ruido con el fin de deducir la mejora de la relación señal a ruido lograda en cada caso. El método para suprimir reflexiones en medida de antenas está también basado en una técnica de reconstrucción de fuentes y la principal idea es reconstruir el campo sobre una superficie mayor que la apertura de la antena con el fin de ser capaces de identificar y después suprimir fuentes virtuales relacionadas con las ondas reflejadas. El error de truncamiento que aparece en los resultados obtenidos a partir de medidas en un plano, cilindro o en la porción de una esfera es el tercer error analizado en esta Tesis. El método para reducir este error está basado en un algoritmo iterativo para extrapolar la región fiable del patrón de campo lejano a partir de información de la distribución del campo sobre el plano de la antena. Además, se ha estudiado el punto apropiado de terminación de este algoritmo iterativo así como otros aspectos críticos del método. La última parte de este trabajo está dedicado a la detección y supresión de dos de las fuentes de leakage más comunes en medida de antenas. El primer método intenta realizar una estimación de la constante de fuga del leakage añadido por el detector en cuadratura del receptor a todos los datos en campo próximo y después suprimir su efecto en el patrón de campo lejano. El segundo método se puede dividir en dos partes; la primera de ellas para encontrar la posición de elementos defectuosos que radian o reciben radiación indeseada, haciendo más fácil su identificación dentro del entorno de medida y su posterior substitución. La segunda parte del método es capaz de eliminar computacionalmente el efector del leakage sin necesidad de la substitución del elemento defectuoso.
Resumo:
En el presente trabajo de tesis se afronta el problema de la optimización de la superficie de grandes antenas reflectoras. Es sabido que los grandes reflectores, formados por una superficie panelada, sufren deformaciones debidas al impacto del viento, a los cambios de temperatura y a los efectos gravitacionales derivados del gran peso de la estructura. Estos efectos hacen que los reflectores pierdan su forma ideal, generalmente de paraboloide, y se reduzca su eficiencia de apertura y, por tanto, se limite la máxima frecuencia de uso de los mismos. Es necesario, por tanto, disponer de técnicas que permitan medir el estado de la superficie de grandes reflectores, y derivar los ajustes necesarios a aplicar sobre los tornillos de soporte de cada uno de los paneles que conforman dicha superficie. De esta manera, se devolvería al reflector su forma óptima y aumentaría la eficiencia de apertura y el rango de frecuencias de uso. Hay que resaltar que el aumento de la eficiencia de un radiotelescopio supone una reducción en el tiempo de integración necesario para la detección de las debilísimas señales generadas por las radiofuentes naturales, ahorrando así valioso tiempo de observación. Además, el incremento en el rango de frecuencias permite la detección de nuevas líneas o especies moleculares en dichas radiofuentes. Tras un primer capítulo introductorio, se presenta, en el capítulo segundo, la geometría de estos grandes reflectores y la influencia de los distintos factores que afectan a la calidad de la superficie de los mismos, como la gravedad, el viento y la temperatura, particularizando para el caso del radiotelescopio de 40 metros del Centro Astronómico de Yebes. En el tercer capítulo, se presentan las diferentes técnicas metrológicas empleadas actualmente para abordar la determinación de estos ajustes, mostrándose las ventajas e inconvenientes de cada una de ellas. Actualmente, la técnica metrológica más precisa y rápida para llevar a cabo esta tarea de caracterización de la superficie de un gran reflector, es la radio-holografía de microondas presentada en el capítulo cuarto. A partir de las medidas proporcionadas por esta técnica, realizadas con la ayuda de un transmisor, y mediante transformaciones de campo, se calculan los errores de la superficie del reflector, respecto al paraboloide ideal, y se derivan los ajustes necesarios. En los capítulos quinto y sexto se presentan los resultados de la aplicación de esta técnica a dos radiotelescopios: el de 30 metros de IRAM en Pico de Veleta (Granada) y los prototipos de 12 metros de las antenas del proyecto ALMA. Por su parte, el capítulo séptimo contiene el núcleo fundamental de esta tesis y presenta el desarrollo de la técnica de radio-holografía de microondas para optimizar la superficie del radiotelescopio de 40 metros del Centro Astronómico de Yebes. Para ello, ha sido necesario diseñar, construir e instalar un receptor de doble canal en banda Ku en foco primario, y la instrumentación asociada para hacer las medidas de amplitud y fase del diagrama de radiación. Además, ha sido necesario desarrollar el software para llevar a cabo las transformaciones de campo y derivar los ajustes de los paneles. De las medidas holográficas iniciales resultó un error de la superficie del radiotelescopio de 485 μm WRMS, respecto al paraboloide ideal en dirección normal. Tras varias iteraciones del proceso de medida y ajuste, se consiguió reducir dicho error a 194 μm WRMS. Esta notable mejora de la calidad de la superficie ha supuesto aumentar la eficiencia de apertura desde 2,6% al 38,2% a 86 GHz, para un receptor a esta frecuencia situado en el foco primario que produjese la misma iluminación que el receptor de holografía. In this thesis the problem of large reflector antenna surface optimization is faced. It is well known that large reflectors, which are made of a panelled surface, suffer from deformations due to the impact of wind, temperature gradients and gravity loads coming from the high weigth of the structure. These effects distort the ideal reflector shape, which is a paraboloid in most cases, hence reducing the aperture efficiency of the reflector and limiting the maximum frequency of operation. Therefore, it is necessary to have some techniques to measure the status of large reflector surfaces and to derive the adjustment values to be applied to the screws that connect the surface panels to the reflector back-up structure. In this way, the reflector would recover its optimum shape and the aperture efficiency and frequency range would increase. It has to be stated that an increment in the radiotelescope aperture efficiency would imply a reduction in the integration time needed to detect such weak signals coming from natural radiosources in space and, hence, an important saving in observation time. In addition, the increase in the frequency range of operation would allow the detection of new molecular lines in those radiosources. After the introduction, the second chapter shows the geometry of large reflector antennas and the impact on its surface quality of different factors like gravity, wind and temperature, particularly for the case of the Centro Astronómico de Yebes 40 meter radiotelescope. The third chapter deals with the different metrology techniques used to determine the panel adjustments, including the advantages and drawbacks of each one Currently, the most accurate and fast metrologic technique to carry out the characterization of large reflector surfaces is microwave radio-holography2, which is shown in chapter four. From the measurements provided by microwave radio-holography, performed with the help of a transmitter, and with the use of field transformations, the reflector surface errors are computed and the panel adjustments are derived. Chapters five and six show the results of holographic measurements applied to two first class radiotelescopes: the IRAM 30 meter radiotelescope and the 12 meter prototype antennas for the ALMA project. Chapter seven contains the main work of this thesis. It presents the development of the microwave radio-holography technique for the optimization of the Centro Astronómico de Yebes 40m radiotelescope. The work implied the design, construction and instalation of a prime focus Ku-band dual channel receiver, together with the associated instrumentation to measure the amplitude and phase of the radiotelescope radiation pattern. In addition, the software to carry out field transformations and screw settings computations was developed too. Initial holography measurements came up with an surface error of 485 μmWRMS in normal direction with respect to the best-fit paraboloid. After a few iterations of the measurementadjustment cycle, the surface error was reduced to 194 μm WRMS. This remarkable improvement in surface quality means an increment in aperture efficiency from 2,6% to 38,2% at 86 GHz, assuming a receiver at this frequency in prime focus position which produces the same illumination as the holography receiver.
Resumo:
This paper presents a simple gravity evaluation model for large reflector antennas and the experimental example for a case study of one uplink array of 4x35-m antennas at X and Ka band. This model can be used to evaluate the gain reduction as a function of the maximum gravity distortion, and also to specify this at system designer level. The case study consists of one array of 35-m antennas for deep space missions. Main issues due to the gravity effect have been explored with Monte Carlo based simulation analysis.
Resumo:
A new optical design strategy for rotational aspheres using very few parameters is presented. It consists of using the SMS method to design the aspheres embedded in a system with additional simpler surfaces (such as spheres, parabolas or other conics) and optimizing the free-parameters. Although the SMS surfaces are designed using only meridian rays, skew rays have proven to be well controlled within the optimization. In the end, the SMS surfaces are expanded using Forbes series and then a second optimization process is carried out with these SMS surfaces as a starting point. The method has been applied to a telephoto lens design in the SWIR band, achieving ultra-compact designs with an excellent performance.
Resumo:
El objetivo de la tesis es investigar los beneficios que el atrapamiento de la luz mediante fenómenos difractivos puede suponer para las células solares de silicio cristalino y las de banda intermedia. Ambos tipos de células adolecen de una insuficiente absorción de fotones en alguna región del espectro solar. Las células solares de banda intermedia son teóricamente capaces de alcanzar eficiencias mucho mayores que los dispositivos convencionales (con una sola banda energética prohibida), pero los prototipos actuales se resienten de una absorción muy débil de los fotones con energías menores que la banda prohibida. Del mismo modo, las células solares de silicio cristalino absorben débilmente en el infrarrojo cercano debido al carácter indirecto de su banda prohibida. Se ha prestado mucha atención a este problema durante las últimas décadas, de modo que todas las células solares de silicio cristalino comerciales incorporan alguna forma de atrapamiento de luz. Por razones de economía, en la industria se persigue el uso de obleas cada vez más delgadas, con lo que el atrapamiento de la luz adquiere más importancia. Por tanto aumenta el interés en las estructuras difractivas, ya que podrían suponer una mejora sobre el estado del arte. Se comienza desarrollando un método de cálculo con el que simular células solares equipadas con redes de difracción. En este método, la red de difracción se analiza en el ámbito de la óptica física, mediante análisis riguroso con ondas acopladas (rigorous coupled wave analysis), y el sustrato de la célula solar, ópticamente grueso, se analiza en los términos de la óptica geométrica. El método se ha implementado en ordenador y se ha visto que es eficiente y da resultados en buen acuerdo con métodos diferentes descritos por otros autores. Utilizando el formalismo matricial así derivado, se calcula el límite teórico superior para el aumento de la absorción en células solares mediante el uso de redes de difracción. Este límite se compara con el llamado límite lambertiano del atrapamiento de la luz y con el límite absoluto en sustratos gruesos. Se encuentra que las redes biperiódicas (con geometría hexagonal o rectangular) pueden producir un atrapamiento mucho mejor que las redes uniperiódicas. El límite superior depende mucho del periodo de la red. Para periodos grandes, las redes son en teoría capaces de alcanzar el máximo atrapamiento, pero sólo si las eficiencias de difracción tienen una forma peculiar que parece inalcanzable con las herramientas actuales de diseño. Para periodos similares a la longitud de onda de la luz incidente, las redes de difracción pueden proporcionar atrapamiento por debajo del máximo teórico pero por encima del límite Lambertiano, sin imponer requisitos irrealizables a la forma de las eficiencias de difracción y en un margen de longitudes de onda razonablemente amplio. El método de cálculo desarrollado se usa también para diseñar y optimizar redes de difracción para el atrapamiento de la luz en células solares. La red propuesta consiste en un red hexagonal de pozos cilíndricos excavados en la cara posterior del sustrato absorbente de la célula solar. La red se encapsula en una capa dieléctrica y se cubre con un espejo posterior. Se simula esta estructura para una célula solar de silicio y para una de banda intermedia y puntos cuánticos. Numéricamente, se determinan los valores óptimos del periodo de la red y de la profundidad y las dimensiones laterales de los pozos para ambos tipos de células. Los valores se explican utilizando conceptos físicos sencillos, lo que nos permite extraer conclusiones generales que se pueden aplicar a células de otras tecnologías. Las texturas con redes de difracción se fabrican en sustratos de silicio cristalino mediante litografía por nanoimpresión y ataque con iones reactivos. De los cálculos precedentes, se conoce el periodo óptimo de la red que se toma como una constante de diseño. Los sustratos se procesan para obtener estructuras precursoras de células solares sobre las que se realizan medidas ópticas. Las medidas de reflexión en función de la longitud de onda confirman que las redes cuadradas biperiódicas consiguen mejor atrapamiento que las uniperiódicas. Las estructuras fabricadas se simulan con la herramienta de cálculo descrita en los párrafos precedentes y se obtiene un buen acuerdo entre la medida y los resultados de la simulación. Ésta revela que una fracción significativa de los fotones incidentes son absorbidos en el reflector posterior de aluminio, y por tanto desaprovechados, y que este efecto empeora por la rugosidad del espejo. Se desarrolla un método alternativo para crear la capa dieléctrica que consigue que el reflector se deposite sobre una superficie plana, encontrándose que en las muestras preparadas de esta manera la absorción parásita en el espejo es menor. La siguiente tarea descrita en la tesis es el estudio de la absorción de fotones en puntos cuánticos semiconductores. Con la aproximación de masa efectiva, se calculan los niveles de energía de los estados confinados en puntos cuánticos de InAs/GaAs. Se emplea un método de una y de cuatro bandas para el cálculo de la función de onda de electrones y huecos, respectivamente; en el último caso se utiliza un hamiltoniano empírico. La regla de oro de Fermi permite obtener la intensidad de las transiciones ópticas entre los estados confinados. Se investiga el efecto de las dimensiones del punto cuántico en los niveles de energía y la intensidad de las transiciones y se obtiene que, al disminuir la anchura del punto cuántico respecto a su valor en los prototipos actuales, se puede conseguir una transición más intensa entre el nivel intermedio fundamental y la banda de conducción. Tomando como datos de partida los niveles de energía y las intensidades de las transiciones calculados como se ha explicado, se desarrolla un modelo de equilibrio o balance detallado realista para células solares de puntos cuánticos. Con el modelo se calculan las diferentes corrientes debidas a transiciones ópticas entre los numerosos niveles intermedios y las bandas de conducción y de valencia bajo ciertas condiciones. Se distingue de modelos de equilibrio detallado previos, usados para calcular límites de eficiencia, en que se adoptan suposiciones realistas sobre la absorción de fotones para cada transición. Con este modelo se reproducen datos publicados de eficiencias cuánticas experimentales a diferentes temperaturas con un acuerdo muy bueno. Se muestra que el conocido fenómeno del escape térmico de los puntos cuánticos es de naturaleza fotónica; se debe a los fotones térmicos, que inducen transiciones entre los estados excitados que se encuentran escalonados en energía entre el estado intermedio fundamental y la banda de conducción. En el capítulo final, este modelo realista de equilibrio detallado se combina con el método de simulación de redes de difracción para predecir el efecto que tendría incorporar una red de difracción en una célula solar de banda intermedia y puntos cuánticos. Se ha de optimizar cuidadosamente el periodo de la red para equilibrar el aumento de las diferentes transiciones intermedias, que tienen lugar en serie. Debido a que la absorción en los puntos cuánticos es extremadamente débil, se deduce que el atrapamiento de la luz, por sí solo, no es suficiente para conseguir corrientes apreciables a partir de fotones con energía menor que la banda prohibida en las células con puntos cuánticos. Se requiere una combinación del atrapamiento de la luz con un incremento de la densidad de puntos cuánticos. En el límite radiativo y sin atrapamiento de la luz, se necesitaría que el número de puntos cuánticos de una célula solar se multiplicara por 1000 para superar la eficiencia de una célula de referencia con una sola banda prohibida. En cambio, una célula con red de difracción precisaría un incremento del número de puntos en un factor 10 a 100, dependiendo del nivel de la absorción parásita en el reflector posterior. Abstract The purpose of this thesis is to investigate the benefits that diffractive light trapping can offer to quantum dot intermediate band solar cells and crystalline silicon solar cells. Both solar cell technologies suffer from incomplete photon absorption in some part of the solar spectrum. Quantum dot intermediate band solar cells are theoretically capable of achieving much higher efficiencies than conventional single-gap devices. Present prototypes suffer from extremely weak absorption of subbandgap photons in the quantum dots. This problem has received little attention so far, yet it is a serious barrier to the technology approaching its theoretical efficiency limit. Crystalline silicon solar cells absorb weakly in the near infrared due to their indirect bandgap. This problem has received much attention over recent decades, and all commercial crystalline silicon solar cells employ some form of light trapping. With the industry moving toward thinner and thinner wafers, light trapping is becoming of greater importance and diffractive structures may offer an improvement over the state-of-the-art. We begin by constructing a computational method with which to simulate solar cells equipped with diffraction grating textures. The method employs a wave-optical treatment of the diffraction grating, via rigorous coupled wave analysis, with a geometric-optical treatment of the thick solar cell bulk. These are combined using a steady-state matrix formalism. The method has been implemented computationally, and is found to be efficient and to give results in good agreement with alternative methods from other authors. The theoretical upper limit to absorption enhancement in solar cells using diffractions gratings is calculated using the matrix formalism derived in the previous task. This limit is compared to the so-called Lambertian limit for light trapping with isotropic scatterers, and to the absolute upper limit to light trapping in bulk absorbers. It is found that bi-periodic gratings (square or hexagonal geometry) are capable of offering much better light trapping than uni-periodic line gratings. The upper limit depends strongly on the grating period. For large periods, diffraction gratings are theoretically able to offer light trapping at the absolute upper limit, but only if the scattering efficiencies have a particular form, which is deemed to be beyond present design capabilities. For periods similar to the incident wavelength, diffraction gratings can offer light trapping below the absolute limit but above the Lambertian limit without placing unrealistic demands on the exact form of the scattering efficiencies. This is possible for a reasonably broad wavelength range. The computational method is used to design and optimise diffraction gratings for light trapping in solar cells. The proposed diffraction grating consists of a hexagonal lattice of cylindrical wells etched into the rear of the bulk solar cell absorber. This is encapsulated in a dielectric buffer layer, and capped with a rear reflector. Simulations are made of this grating profile applied to a crystalline silicon solar cell and to a quantum dot intermediate band solar cell. The grating period, well depth, and lateral well dimensions are optimised numerically for both solar cell types. This yields the optimum parameters to be used in fabrication of grating equipped solar cells. The optimum parameters are explained using simple physical concepts, allowing us to make more general statements that can be applied to other solar cell technologies. Diffraction grating textures are fabricated on crystalline silicon substrates using nano-imprint lithography and reactive ion etching. The optimum grating period from the previous task has been used as a design parameter. The substrates have been processed into solar cell precursors for optical measurements. Reflection spectroscopy measurements confirm that bi-periodic square gratings offer better absorption enhancement than uni-periodic line gratings. The fabricated structures have been simulated with the previously developed computation tool, with good agreement between measurement and simulation results. The simulations reveal that a significant amount of the incident photons are absorbed parasitically in the rear reflector, and that this is exacerbated by the non-planarity of the rear reflector. An alternative method of depositing the dielectric buffer layer was developed, which leaves a planar surface onto which the reflector is deposited. It was found that samples prepared in this way suffered less from parasitic reflector absorption. The next task described in the thesis is the study of photon absorption in semiconductor quantum dots. The bound-state energy levels of in InAs/GaAs quantum dots is calculated using the effective mass approximation. A one- and four- band method is applied to the calculation of electron and hole wavefunctions respectively, with an empirical Hamiltonian being employed in the latter case. The strength of optical transitions between the bound states is calculated using the Fermi golden rule. The effect of the quantum dot dimensions on the energy levels and transition strengths is investigated. It is found that a strong direct transition between the ground intermediate state and the conduction band can be promoted by decreasing the quantum dot width from its value in present prototypes. This has the added benefit of reducing the ladder of excited states between the ground state and the conduction band, which may help to reduce thermal escape of electrons from quantum dots: an undesirable phenomenon from the point of view of the open circuit voltage of an intermediate band solar cell. A realistic detailed balance model is developed for quantum dot solar cells, which uses as input the energy levels and transition strengths calculated in the previous task. The model calculates the transition currents between the many intermediate levels and the valence and conduction bands under a given set of conditions. It is distinct from previous idealised detailed balance models, which are used to calculate limiting efficiencies, since it makes realistic assumptions about photon absorption by each transition. The model is used to reproduce published experimental quantum efficiency results at different temperatures, with quite good agreement. The much-studied phenomenon of thermal escape from quantum dots is found to be photonic; it is due to thermal photons, which induce transitions between the ladder of excited states between the ground intermediate state and the conduction band. In the final chapter, the realistic detailed balance model is combined with the diffraction grating simulation method to predict the effect of incorporating a diffraction grating into a quantum dot intermediate band solar cell. Careful optimisation of the grating period is made to balance the enhancement given to the different intermediate transitions, which occur in series. Due to the extremely weak absorption in the quantum dots, it is found that light trapping alone is not sufficient to achieve high subbandgap currents in quantum dot solar cells. Instead, a combination of light trapping and increased quantum dot density is required. Within the radiative limit, a quantum dot solar cell with no light trapping requires a 1000 fold increase in the number of quantum dots to supersede the efficiency of a single-gap reference cell. A quantum dot solar cell equipped with a diffraction grating requires between a 10 and 100 fold increase in the number of quantum dots, depending on the level of parasitic absorption in the rear reflector.
Resumo:
Esta tesis que tiene por título "Contribución a los arrays de antenas activos en banda X", ha sido desarrollada por el estudiante de doctorado Gonzalo Expósito Domínguez, ingeniero de telecomunicación en el Grupo de Radiación del Departamento de Señales, Sistemas y Radiocomunicaciones de la ETSI de Telecomunicación de la Universidad Politécnica de Madrid bajo la dirección de los doctores Manuel Sierra Castañer y José Manuel Fernández González. Esta tesis contiene un profundo estudio del arte en materia de antenas activas en el campo de apuntamiento electrónico. Este estudio comprende desde los fundamentos de este tipo de antenas, problemas de operación y limitaciones hasta los sistemas actuales más avanzados. En ella se identifican las partes críticas en el diseño y posteriormente se llevan a la práctica con el diseño, simulación y construcción de un subarray de una antena integrada en el fuselaje de un avión para comunicaciones multimedia por satélite que funciona en banda X. El prototipo consta de una red de distribución multihaz de banda ancha y una antena planar. El objetivo de esta tesis es el de aplicar nuevas técnicas al diseño de antenas de apuntamiento electrónico. Es por eso que las contribuciones originales son la aplicación de barreras electromagnéticas entre elementos radiantes para reducir los acoplamientos mutuos en arrays de exploración electrónica y el diseño de redes desfasadoras sencillas en las que no son necesarios complejos desfasadores para antenas multihaz. Hasta la fecha, las barreras electromagnéticas, Electronic Band Gap (EBG), se construyen en sustratos de permitividad alta con el fin de aumentar el espacio disponible entre elementos radiantes y reducir el tamaño de estas estructuras. Sin embargo, la utilización de sustratos de alta permitividad aumenta la propagación por ondas de superficie y con ellas el acoplo mutuo. Utilizando sustratos multicapa y colocando la vía de las estructuras en su borde, en vez de en su centro, se consigue reducir el tamaño sin necesidad de usar sustratos de alta permitividad, reducir la eficiencia de radiación de la antena o aumentar la propagación por ondas de superficie. La última parte de la tesis se dedica a las redes conmutadoras y desfasadoras para antenas multihaz. El diseño de las redes de distribución para antenas son una parte crítica ya que se comportan como un atenuador a la entrada de la cadena receptora, modificando en gran medida la figura de ruido del sistema. Las pérdidas de un desfasador digital varían con el desfase introducido, por ese motivo es necesario caracterizar y calibrar los dispositivos correctamente. Los trabajos presentados en este manuscrito constan de un desfasador reflectivo con un conmutador doble serie paralelo para igualar las pérdidas de inserción en los dos estados y también un conmutador de una entrada y dos salidas cuyos puertos están adaptados en todo momento independientemente del camino del conmutador para evitar las reflexiones y fugas entre redes o elementos radiantes. El tomo finaliza con un resumen de las publicaciones en revistas científicas y ponencias en congresos, nacionales e internacionales, el marco de trabajo en el que se ha desarrollado, las colaboraciones que se han realizado y las líneas de investigación futuras. ABSTRACT This thesis was carried out in the Radiation Group of the Signals, Systems and Radiocomunications department of ETSI de Telecomunicación from Technical University of Madrid. Its title is "Contribution to active array antennas at X band" and it is developed by Gonzalo Expósito Domínguez, Electrical Engineer MsC. under the supervision of Prof. Dr. Manuel Sierra Castañer and Dr. José Manuel Fernández González. This thesis is focused on active antennas, specifically multibeam and electronic steering antenas. In the first part of the thesis a thorough description of the state of the art is presented. This study compiles the fundamentals of this antennas, operation problems and limits, up to the breakthrough applications. The critical design problems are described to use them eventually in the design, simulation and prototyping of an airborne steering array antenna for satellite communication at X band. The main objective of this thesis is to apply new techniques to the design of electronically steering antennas. Therefore the new original contributions are the application of Electromagnetic Band Gap materials (EBG) between radiating elements to reduce the mutual coupling when phase shift between elements exist and phase shifting networks where special characteristics are required. So far, the EBG structures have been constructed with high permitivity substrates in order to increase the available space between radiating elements and reduce the size of the structures. However, the surface wave propagation modes are enhanced and therefore the mutual coupling increases when high permitivity substrates are used. By using multilayered substrates and edge location via, the size is reduced meanwhile low permitivity substrates are used without reducing the radiation efficiency or enhancing the surface propagation modes. The last part of the thesis is focused on the phase shifting distribution networks for multibeam antennas. This is a critical part in the antenna design because the insertion loss in the distribution network behaves as an attenuator located in the first place in a receiver chain. The insertion loss will affect directly to the receiver noise figure and the insertion loss in a phase shifter vary with the phase shift. Therefore the devices must be well characterized and calibrated in order to obtain a properly operation. The work developed in this thesis are a reflective phase shifter with a series-shunt switch in order to make symmetrical the insertion loss for the two states and a complex Single Pole Double Through (SPDT) with matched ports in order to reduce the reflections and leakage between feeding networks and radiating elements. The end of this Ph D. dissertation concludes with a summary of the publications in national and international conferences and scientific journals, the collaborations carried out along the thesis and the future research lines.
Resumo:
Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.
Resumo:
High power density is strongly preferable for the on-board battery charger of Plug-in Hybrid Electric Vehicle (PHEV). Wide band gap devices, such as Gallium Nitride HEMTs are being explored to push to higher switching frequency and reduce passive component size. In this case, the bulk DC link capacitor of AC-DC Power Factor Correction (PFC) stage, which is usually necessary to store ripple power of two times the line frequency in a DC current charging system, becomes a major barrier on power density. If low frequency ripple is allowed in the battery, the DC link capacitance can be significantly reduced. This paper focuses on the operation of a battery charging system, which is comprised of one Full Bridge (FB) AC-DC stage and one Dual Active Bridge (DAB) DC-DC stage, with charging current containing low frequency ripple at two times line frequency, designated as sinusoidal charging. DAB operation under sinusoidal charging is investigated. Two types of control schemes are proposed and implemented in an experimental prototype. It is proved that closed loop current control is the better. Full system test including both FB AC-DC stage and DAB DC-DC stage verified the concept of sinusoidal charging, which may lead to potentially very high power density battery charger for PHEV.
Resumo:
Using CMOS transistors for terahertz detection is currently a disruptive technology that offers the direct integration of a terahertz detector with video preamplifiers. The detectors are based on the resistive mixer concept and performance mainly depends on the following parameters: type of antenna, electrical parameters (gate to drain capacitor and channel length of the CMOS device) and foundry. Two different 300 GHz detectors are discussed: a single transistor detector with a broadband antenna and a differential pair driven by a resonant patch antenna.