953 resultados para Energy saving form
Resumo:
La temperatura es una preocupación que juega un papel protagonista en el diseño de circuitos integrados modernos. El importante aumento de las densidades de potencia que conllevan las últimas generaciones tecnológicas ha producido la aparición de gradientes térmicos y puntos calientes durante el funcionamiento normal de los chips. La temperatura tiene un impacto negativo en varios parámetros del circuito integrado como el retardo de las puertas, los gastos de disipación de calor, la fiabilidad, el consumo de energía, etc. Con el fin de luchar contra estos efectos nocivos, la técnicas de gestión dinámica de la temperatura (DTM) adaptan el comportamiento del chip en función en la información que proporciona un sistema de monitorización que mide en tiempo de ejecución la información térmica de la superficie del dado. El campo de la monitorización de la temperatura en el chip ha llamado la atención de la comunidad científica en los últimos años y es el objeto de estudio de esta tesis. Esta tesis aborda la temática de control de la temperatura en el chip desde diferentes perspectivas y niveles, ofreciendo soluciones a algunos de los temas más importantes. Los niveles físico y circuital se cubren con el diseño y la caracterización de dos nuevos sensores de temperatura especialmente diseñados para los propósitos de las técnicas DTM. El primer sensor está basado en un mecanismo que obtiene un pulso de anchura variable dependiente de la relación de las corrientes de fuga con la temperatura. De manera resumida, se carga un nodo del circuito y posteriormente se deja flotando de tal manera que se descarga a través de las corrientes de fugas de un transistor; el tiempo de descarga del nodo es la anchura del pulso. Dado que la anchura del pulso muestra una dependencia exponencial con la temperatura, la conversión a una palabra digital se realiza por medio de un contador logarítmico que realiza tanto la conversión tiempo a digital como la linealización de la salida. La estructura resultante de esta combinación de elementos se implementa en una tecnología de 0,35 _m. El sensor ocupa un área muy reducida, 10.250 nm2, y consume muy poca energía, 1.05-65.5nW a 5 muestras/s, estas cifras superaron todos los trabajos previos en el momento en que se publicó por primera vez y en el momento de la publicación de esta tesis, superan a todas las implementaciones anteriores fabricadas en el mismo nodo tecnológico. En cuanto a la precisión, el sensor ofrece una buena linealidad, incluso sin calibrar; se obtiene un error 3_ de 1,97oC, adecuado para tratar con las aplicaciones de DTM. Como se ha explicado, el sensor es completamente compatible con los procesos de fabricación CMOS, este hecho, junto con sus valores reducidos de área y consumo, lo hacen especialmente adecuado para la integración en un sistema de monitorización de DTM con un conjunto de monitores empotrados distribuidos a través del chip. Las crecientes incertidumbres de proceso asociadas a los últimos nodos tecnológicos comprometen las características de linealidad de nuestra primera propuesta de sensor. Con el objetivo de superar estos problemas, proponemos una nueva técnica para obtener la temperatura. La nueva técnica también está basada en las dependencias térmicas de las corrientes de fuga que se utilizan para descargar un nodo flotante. La novedad es que ahora la medida viene dada por el cociente de dos medidas diferentes, en una de las cuales se altera una característica del transistor de descarga |la tensión de puerta. Este cociente resulta ser muy robusto frente a variaciones de proceso y, además, la linealidad obtenida cumple ampliamente los requisitos impuestos por las políticas DTM |error 3_ de 1,17oC considerando variaciones del proceso y calibrando en dos puntos. La implementación de la parte sensora de esta nueva técnica implica varias consideraciones de diseño, tales como la generación de una referencia de tensión independiente de variaciones de proceso, que se analizan en profundidad en la tesis. Para la conversión tiempo-a-digital, se emplea la misma estructura de digitalización que en el primer sensor. Para la implementación física de la parte de digitalización, se ha construido una biblioteca de células estándar completamente nueva orientada a la reducción de área y consumo. El sensor resultante de la unión de todos los bloques se caracteriza por una energía por muestra ultra baja (48-640 pJ) y un área diminuta de 0,0016 mm2, esta cifra mejora todos los trabajos previos. Para probar esta afirmación, se realiza una comparación exhaustiva con más de 40 propuestas de sensores en la literatura científica. Subiendo el nivel de abstracción al sistema, la tercera contribución se centra en el modelado de un sistema de monitorización que consiste de un conjunto de sensores distribuidos por la superficie del chip. Todos los trabajos anteriores de la literatura tienen como objetivo maximizar la precisión del sistema con el mínimo número de monitores. Como novedad, en nuestra propuesta se introducen nuevos parámetros de calidad aparte del número de sensores, también se considera el consumo de energía, la frecuencia de muestreo, los costes de interconexión y la posibilidad de elegir diferentes tipos de monitores. El modelo se introduce en un algoritmo de recocido simulado que recibe la información térmica de un sistema, sus propiedades físicas, limitaciones de área, potencia e interconexión y una colección de tipos de monitor; el algoritmo proporciona el tipo seleccionado de monitor, el número de monitores, su posición y la velocidad de muestreo _optima. Para probar la validez del algoritmo, se presentan varios casos de estudio para el procesador Alpha 21364 considerando distintas restricciones. En comparación con otros trabajos previos en la literatura, el modelo que aquí se presenta es el más completo. Finalmente, la última contribución se dirige al nivel de red, partiendo de un conjunto de monitores de temperatura de posiciones conocidas, nos concentramos en resolver el problema de la conexión de los sensores de una forma eficiente en área y consumo. Nuestra primera propuesta en este campo es la introducción de un nuevo nivel en la jerarquía de interconexión, el nivel de trillado (o threshing en inglés), entre los monitores y los buses tradicionales de periféricos. En este nuevo nivel se aplica selectividad de datos para reducir la cantidad de información que se envía al controlador central. La idea detrás de este nuevo nivel es que en este tipo de redes la mayoría de los datos es inútil, porque desde el punto de vista del controlador sólo una pequeña cantidad de datos |normalmente sólo los valores extremos| es de interés. Para cubrir el nuevo nivel, proponemos una red de monitorización mono-conexión que se basa en un esquema de señalización en el dominio de tiempo. Este esquema reduce significativamente tanto la actividad de conmutación sobre la conexión como el consumo de energía de la red. Otra ventaja de este esquema es que los datos de los monitores llegan directamente ordenados al controlador. Si este tipo de señalización se aplica a sensores que realizan conversión tiempo-a-digital, se puede obtener compartición de recursos de digitalización tanto en tiempo como en espacio, lo que supone un importante ahorro de área y consumo. Finalmente, se presentan dos prototipos de sistemas de monitorización completos que de manera significativa superan la características de trabajos anteriores en términos de área y, especialmente, consumo de energía. Abstract Temperature is a first class design concern in modern integrated circuits. The important increase in power densities associated to recent technology evolutions has lead to the apparition of thermal gradients and hot spots during run time operation. Temperature impacts several circuit parameters such as speed, cooling budgets, reliability, power consumption, etc. In order to fight against these negative effects, dynamic thermal management (DTM) techniques adapt the behavior of the chip relying on the information of a monitoring system that provides run-time thermal information of the die surface. The field of on-chip temperature monitoring has drawn the attention of the scientific community in the recent years and is the object of study of this thesis. This thesis approaches the matter of on-chip temperature monitoring from different perspectives and levels, providing solutions to some of the most important issues. The physical and circuital levels are covered with the design and characterization of two novel temperature sensors specially tailored for DTM purposes. The first sensor is based upon a mechanism that obtains a pulse with a varying width based on the variations of the leakage currents on the temperature. In a nutshell, a circuit node is charged and subsequently left floating so that it discharges away through the subthreshold currents of a transistor; the time the node takes to discharge is the width of the pulse. Since the width of the pulse displays an exponential dependence on the temperature, the conversion into a digital word is realized by means of a logarithmic counter that performs both the timeto- digital conversion and the linearization of the output. The structure resulting from this combination of elements is implemented in a 0.35_m technology and is characterized by very reduced area, 10250 nm2, and power consumption, 1.05-65.5 nW at 5 samples/s, these figures outperformed all previous works by the time it was first published and still, by the time of the publication of this thesis, they outnumber all previous implementations in the same technology node. Concerning the accuracy, the sensor exhibits good linearity, even without calibration it displays a 3_ error of 1.97oC, appropriate to deal with DTM applications. As explained, the sensor is completely compatible with standard CMOS processes, this fact, along with its tiny area and power overhead, makes it specially suitable for the integration in a DTM monitoring system with a collection of on-chip monitors distributed across the chip. The exacerbated process fluctuations carried along with recent technology nodes jeop-ardize the linearity characteristics of the first sensor. In order to overcome these problems, a new temperature inferring technique is proposed. In this case, we also rely on the thermal dependencies of leakage currents that are used to discharge a floating node, but now, the result comes from the ratio of two different measures, in one of which we alter a characteristic of the discharging transistor |the gate voltage. This ratio proves to be very robust against process variations and displays a more than suficient linearity on the temperature |1.17oC 3_ error considering process variations and performing two-point calibration. The implementation of the sensing part based on this new technique implies several issues, such as the generation of process variations independent voltage reference, that are analyzed in depth in the thesis. In order to perform the time-to-digital conversion, we employ the same digitization structure the former sensor used. A completely new standard cell library targeting low area and power overhead is built from scratch to implement the digitization part. Putting all the pieces together, we achieve a complete sensor system that is characterized by ultra low energy per conversion of 48-640pJ and area of 0.0016mm2, this figure outperforms all previous works. To prove this statement, we perform a thorough comparison with over 40 works from the scientific literature. Moving up to the system level, the third contribution is centered on the modeling of a monitoring system consisting of set of thermal sensors distributed across the chip. All previous works from the literature target maximizing the accuracy of the system with the minimum number of monitors. In contrast, we introduce new metrics of quality apart form just the number of sensors; we consider the power consumption, the sampling frequency, the possibility to consider different types of monitors and the interconnection costs. The model is introduced in a simulated annealing algorithm that receives the thermal information of a system, its physical properties, area, power and interconnection constraints and a collection of monitor types; the algorithm yields the selected type of monitor, the number of monitors, their position and the optimum sampling rate. We test the algorithm with the Alpha 21364 processor under several constraint configurations to prove its validity. When compared to other previous works in the literature, the modeling presented here is the most complete. Finally, the last contribution targets the networking level, given an allocated set of temperature monitors, we focused on solving the problem of connecting them in an efficient way from the area and power perspectives. Our first proposal in this area is the introduction of a new interconnection hierarchy level, the threshing level, in between the monitors and the traditional peripheral buses that applies data selectivity to reduce the amount of information that is sent to the central controller. The idea behind this new level is that in this kind of networks most data are useless because from the controller viewpoint just a small amount of data |normally extreme values| is of interest. To cover the new interconnection level, we propose a single-wire monitoring network based on a time-domain signaling scheme that significantly reduces both the switching activity over the wire and the power consumption of the network. This scheme codes the information in the time domain and allows a straightforward obtention of an ordered list of values from the maximum to the minimum. If the scheme is applied to monitors that employ TDC, digitization resource sharing is achieved, producing an important saving in area and power consumption. Two prototypes of complete monitoring systems are presented, they significantly overcome previous works in terms of area and, specially, power consumption.
Resumo:
La óptica anidólica es una rama de la óptica cuyo desarrollo comenzó a mediados de la década de 1960. Este relativamente nuevo campo de la óptica se centra en la transferencia eficiente de la luz, algo necesario en muchas aplicaciones, entre las que destacamos los concentradores solares y los sistemas de iluminación. Las soluciones de la óptica clásica a los problemas de la transferencia de energía de la luz sólo son adecuadas cuando los rayos de luz son paraxiales. La condición paraxial no se cumple en la mayoría de las aplicaciones para concentración e iluminación. Esta tesis contiene varios diseños free-form (aquellos que no presentan ninguna simetría, ni de rotación ni lineal) cuyas aplicaciones van destinadas a estos dos campos. El término nonimaging viene del hecho de que estos sistemas ópticos no necesitan formar una imagen del objeto, aunque no formar la imagen no es una condición necesaria. Otra palabra que se utiliza a veces en lugar de nonimaging es la palabra anidólico, viene del griego "an+eidolon" y tiene el mismo significado. La mayoría de los sistemas ópticos diseñados para aplicaciones anidólicas no presentan ninguna simetría, es decir, son free-form (anamórficos). Los sistemas ópticos free-form están siendo especialmente relevantes durante los últimos años gracias al desarrollo de las herramientas para su fabricación como máquinas de moldeo por inyección y el mecanizado multieje. Sin embargo, solo recientemente se han desarrollado técnicas de diseño anidólicas capaces de cumplir con estos grados de libertad. En aplicaciones de iluminación el método SMS3D permite diseñar dos superficies free-form para controlar las fuentes de luz extensas. En los casos en que se requiere una elevada asimetría de la fuente, el objeto o las restricciones volumétricos, las superficies free-form permiten obtener soluciones de mayor eficiencia, o disponer de menos elementos en comparación con las soluciones de simetría de rotación, dado que las superficies free-form tienen más grados de libertad y pueden realizar múltiples funciones debido a su naturaleza anamórfica. Los concentradores anidólicos son muy adecuados para la captación de energía solar, ya que el objetivo no es la reproducción de una imagen exacta del sol, sino sencillamente la captura de su energía. En este momento, el campo de la concentración fotovoltaica (CPV) tiende hacia sistemas de alta concentración con el fin de compensar el gasto de las células solares multi-unión (MJ) utilizadas como receptores, reduciendo su área. El interés en el uso de células MJ radica en su alta eficiencia de conversión. Para obtener sistemas competitivos en aplicaciones terrestres se recurre a sistemas fotovoltaicos de alta concentración (HCPV), con factores de concentración geométrica por encima de 500x. Estos sistemas se componen de dos (o más) elementos ópticos (espejos y/o lentes). En los sistemas presentados a lo largo de este trabajo se presentan ejemplos de concentradores HCPV con elementos reflexivos como etapa primaria, así como concentradores con elementos refractivos (lente de Fresnel). Con la necesidad de aumentar la eficiencia de los sistemas HCPV reales y con el fin de proporcionar la división más eficiente del espectro solar, células conteniendo cuatro o más uniones (con un potencial de alcanzar eficiencias de más del 45% a una concentración de cientos de soles) se exploran hoy en día. En esta tesis se presenta una de las posibles arquitecturas de división del espectro (spectrum-splitting en la literatura anglosajona) que utilizan células de concentración comercial. Otro campo de aplicación de la óptica nonimaging es la iluminación, donde es necesario proporcionar un patrón de distribución de la iluminación específico. La iluminación de estado sólido (SSL), basada en la electroluminiscencia de materiales semiconductores, está proporcionando fuentes de luz para aplicaciones de iluminación general. En la última década, los diodos emisores de luz (LED) de alto brillo han comenzado a reemplazar a las fuentes de luz convencionales debido a la superioridad en la calidad de la luz emitida, elevado tiempo de vida, compacidad y ahorro de energía. Los colimadores utilizados con LEDs deben cumplir con requisitos tales como tener una alta eficiencia, un alto control del haz de luz, una mezcla de color espacial y una gran compacidad. Presentamos un colimador de luz free-form con microestructuras capaz de conseguir buena colimación y buena mezcla de colores con una fuente de LED RGGB. Una buena mezcla de luz es importante no sólo para simplificar el diseño óptico de la luminaria sino también para evitar hacer binning de los chips. La mezcla de luz óptica puede reducir los costes al evitar la modulación por ancho de pulso y otras soluciones electrónicas patentadas para regulación y ajuste de color. Esta tesis consta de cuatro capítulos. Los capítulos que contienen la obra original de esta tesis son precedidos por un capítulo introductorio donde se presentan los conceptos y definiciones básicas de la óptica geométrica y en el cual se engloba la óptica nonimaging. Contiene principios de la óptica no formadora de imagen junto con la descripción de sus problemas y métodos de diseño. Asimismo se describe el método de Superficies Múltiples Simultáneas (SMS), que destaca por su versatilidad y capacidad de controlar varios haces de rayos. Adicionalmente también se describe la integración Köhler y sus aplicaciones en el campo de la energía fotovoltaica. La concentración fotovoltaica y la iluminación de estado sólido son introducidas junto con la revisión de su estado actual. El Segundo y Tercer Capítulo contienen diseños ópticos avanzados con aplicación en la concentración solar principalmente, mientras que el Cuarto Capítulo describe el colimador free-form con surcos que presenta buena mezcla de colores para aplicaciones de iluminación. El Segundo Capítulo describe dos concentradores ópticos HCPV diseñados con el método SMS en tres dimensiones (SMS3D) que llevan a cabo integración Köhler en dos direcciones con el fin de proporcionar una distribución de irradiancia uniforme libre de aberraciones cromáticas sobre la célula solar. Uno de los diseños es el concentrador XXR free-form diseñado con el método SMS3D, donde el espejo primario (X) y la lente secundaria (R) se dividen en cuatro sectores simétricos y llevan a cabo la integración Köhler (proporcionando cuatro unidades del array Köhler), mientras que el espejo intermedio (X) presenta simetría rotacional. Otro concentrador HCPV presentado es el Fresnel-RXI (FRXI) con una lente de Fresnel funcionando como elemento primario (POE) y una lente RXI como elemento óptico secundario (SOE), que presenta configuración 4-fold con el fin de realizar la integración Köhler. Las lentes RXI son dispositivos nonimaging conocidos, pero su aplicación como elemento secundario es novedosa. Los concentradores XXR y FRXI Köhler son ejemplos académicos de muy alta concentración (más de 2,000x, mientras que los sistemas convencionales hoy en día no suelen llegar a 1,000x) preparados para las células solares N-unión (con N>3), que probablemente requerirán una mayor concentración y alta uniformidad espectral de irradiancia con el fin de obtener sistemas CPV terrestres eficientes y rentables. Ambos concentradores están diseñados maximizando funciones de mérito como la eficiencia óptica, el producto concentración-aceptancia (CAP) y la uniformidad de irradiancia sobre la célula libre de la aberración cromática (integración Köhler). El Tercer Capítulo presenta una arquitectura para la división del espectro solar basada en un módulo HCPV con alta concentración (500x) y ángulo de aceptancia alto (>1º) que tiene por objeto reducir ambas fuentes de pérdidas de las células triple unión (3J) comerciales: el uso eficiente del espectro solar y la luz reflejada de los contactos metálicos y de la superficie de semiconductor. El módulo para la división del espectro utiliza el espectro solar más eficiente debido a la combinación de una alta eficiencia de una célula de concentración 3J (GaInP/GaInAs/Ge) y una de contacto posterior (BPC) de concentración de silicio (Si), así como la técnica de confinamiento externo para la recuperación de la luz reflejada por la célula 3J con el fin de ser reabsorbida por la célula. En la arquitectura propuesta, la célula 3J opera con su ganancia de corriente optimizada (concentración geométrica de 500x), mientras que la célula de silicio trabaja cerca de su óptimo también (135x). El módulo de spectrum-splitting consta de una lente de Fresnel plana como POE y un concentrador RXI free-form como SOE con un filtro paso-banda integrado en él. Tanto POE como SOE realizan la integración Köhler para producir homogeneización de luz sobre la célula. El filtro paso banda envía los fotones IR en la banda 900-1,150nm a la célula de silicio. Hay varios aspectos prácticos de la arquitectura del módulo presentado que ayudan a reducir la complejidad de los sistemas spectrum-splitting (el filtro y el secundario forman una sola pieza sólida, ambas células son coplanarias simplificándose el cableado y la disipación de calor, etc.). Prototipos prueba-de-concepto han sido ensamblados y probados a fin de demostrar la fabricabilidad del filtro y su rendimiento cuando se combina con la técnica de reciclaje de luz externa. Los resultados obtenidos se ajustan bastante bien a los modelos y a las simulaciones e invitan al desarrollo de una versión más compleja de este prototipo en el futuro. Dos colimadores sólidos con surcos free-form se presentan en el Cuarto Capítulo. Ambos diseños ópticos están diseñados originalmente usando el método SMS3D. La segunda superficie ópticamente activa está diseñada a posteriori como una superficie con surcos. El diseño inicial de dos espejos (XX) está diseñado como prueba de concepto. En segundo lugar, el diseño RXI free-form es comparable con los colimadores RXI existentes. Se trata de un diseño muy compacto y eficiente que proporciona una muy buena mezcla de colores cuando funciona con LEDs RGB fuera del eje óptico como en los RGB LEDs convencionales. Estos dos diseños son dispositivos free-form diseñados con la intención de mejorar las propiedades de mezcla de colores de los dispositivos no aplanáticos RXI con simetría de revolución y la eficiencia de los aplanáticos, logrando una buena colimación y una buena mezcla de colores. La capacidad de mezcla de colores del dispositivo no-aplanático mejora añadiendo características de un aplanático a su homólogo simétrico sin pérdida de eficiencia. En el caso del diseño basado en RXI, su gran ventaja consiste en su menor coste de fabricación ya que el proceso de metalización puede evitarse. Aunque algunos de los componentes presentan formas muy complejas, los costes de fabricación son relativamente insensibles a la complejidad del molde, especialmente en el caso de la producción en masa (tales como inyección de plástico), ya que el coste del molde se reparte entre todas las piezas fabricadas. Por último, las últimas dos secciones son las conclusiones y futuras líneas de investigación. ABSTRACT Nonimaging optics is a branch of optics whose development began in the mid-1960s. This rather new field of optics focuses on the efficient light transfer necessary in many applications, among which we highlight solar concentrators and illumination systems. The classical optics solutions to the problems of light energy transfer are only appropriate when the light rays are paraxial. The paraxial condition is not met in most applications for the concentration and illumination. This thesis explores several free-form designs (with neither rotational nor linear symmetry) whose applications are intended to cover the above mentioned areas and more. The term nonimaging comes from the fact that these optical systems do not need to form an image of the object, although it is not a necessary condition not to form an image. Another word sometimes used instead of nonimaging is anidolic, and it comes from the Greek “an+eidolon” and has the same meaning. Most of the optical systems designed for nonimaging applications are without any symmetry, i.e. free-form. Free-form optical systems become especially relevant lately with the evolution of free-form tooling (injection molding machines, multi-axis machining techniques, etc.). Nevertheless, only recently there are nonimaging design techniques that are able to meet these degrees of freedom. In illumination applications, the SMS3D method allows designing two free-form surfaces to control very well extended sources. In cases when source, target or volumetric constrains have very asymmetric requirements free-form surfaces are offering solutions with higher efficiency or with fewer elements in comparison with rotationally symmetric solutions, as free-forms have more degrees of freedom and they can perform multiple functions due to their free-form nature. Anidolic concentrators are well suited for the collection of solar energy, because the goal is not the reproduction of an exact image of the sun, but instead the collection of its energy. At this time, Concentration Photovoltaics (CPV) field is turning to high concentration systems in order to compensate the expense of multi-junction (MJ) solar cells used as receivers by reducing its area. Interest in the use of MJ cells lies in their very high conversion efficiency. High Concentration Photovoltaic systems (HCPV) with geometric concentration of more than 500x are required in order to have competitive systems in terrestrial applications. These systems comprise two (or more) optical elements, mirrors and/or lenses. Systems presented in this thesis encompass both main types of HCPV architectures: concentrators with primary reflective element and concentrators with primary refractive element (Fresnel lens). Demand for the efficiency increase of the actual HCPV systems as well as feasible more efficient partitioning of the solar spectrum, leads to exploration of four or more junction solar cells or submodules. They have a potential of reaching over 45% efficiency at concentration of hundreds of suns. One possible architectures of spectrum splitting module using commercial concentration cells is presented in this thesis. Another field of application of nonimaging optics is illumination, where a specific illuminance distribution pattern is required. The Solid State Lighting (SSL) based on semiconductor electroluminescence provides light sources for general illumination applications. In the last decade high-brightness Light Emitting Diodes (LEDs) started replacing conventional light sources due to their superior output light quality, unsurpassed lifetime, compactness and energy savings. Collimators used with LEDs have to meet requirements like high efficiency, high beam control, color and position mixing, as well as a high compactness. We present a free-form collimator with microstructures that performs good collimation and good color mixing with RGGB LED source. Good light mixing is important not only for simplifying luminaire optical design but also for avoiding die binning. Optical light mixing may reduce costs by avoiding pulse-width modulation and other patented electronic solutions for dimming and color tuning. This thesis comprises four chapters. Chapters containing the original work of this thesis are preceded by the introductory chapter that addresses basic concepts and definitions of geometrical optics on which nonimaging is developed. It contains fundamentals of nonimaging optics together with the description of its design problems, principles and methods, and with the Simultaneous Multiple Surface (SMS) method standing out for its versatility and ability to control several bundles of rays. Köhler integration and its applications in the field of photovoltaics are described as well. CPV and SSL fields are introduced together with the review on their background and their current status. Chapter 2 and Chapter 3 contain advanced optical designs with primarily application in solar concentration; meanwhile Chapter 4 portrays the free-form V-groove collimator with good color mixing property for illumination application. Chapter 2 describes two HCPV optical concentrators designed with the SMS method in three dimensions (SMS3D). Both concentrators represent Köhler integrator arrays that provide uniform irradiance distribution free from chromatic aberrations on the solar cell. One of the systems is the XXR free-form concentrator designed with the SMS3D method. The primary mirror (X) of this concentrator and secondary lens (R) are divided in four symmetric sectors (folds) that perform Köhler integration; meanwhile the intermediate mirror (X) is rotationally symmetric. Second HCPV concentrator is the Fresnel-RXI (FRXI) with flat Fresnel lens as the Primary Optical Element (POE) and an RXI lens as the Secondary Optical Element (SOE). This architecture manifests 4-fold configuration for performing Köhler integration (4 array units), as well. The RXI lenses are well-known nonimaging devices, but their application as SOE is novel. Both XXR and FRXI Köhler HCPV concentrators are academic examples of very high concentration (more than 2,000x meanwhile conventional systems nowadays have up to 1,000x) prepared for the near future N-junction (N>3) solar cells. In order to have efficient and cost-effective terrestrial CPV systems, those cells will probably require higher concentrations and high spectral irradiance uniformity. Both concentrators are designed by maximizing merit functions: the optical efficiency, concentration-acceptance angle (CAP) and cell-irradiance uniformity free from chromatic aberrations (Köhler integration). Chapter 3 presents the spectrum splitting architecture based on a HCPV module with high concentration (500x) and high acceptance angle (>1º). This module aims to reduce both sources of losses of the actual commercial triple-junction (3J) solar cells with more efficient use of the solar spectrum and with recovering the light reflected from the 3J cells’ grid lines and semiconductor surface. The solar spectrum is used more efficiently due to the combination of a high efficiency 3J concentration cell (GaInP/GaInAs/Ge) and external Back-Point-Contact (BPC) concentration silicon (Si) cell. By employing external confinement techniques, the 3J cell’s reflections are recovered in order to be re-absorbed by the cell. In the proposed concentrator architecture, the 3J cell operates at its optimized current gain (at geometrical concentration of 500x), while the Si cell works near its optimum, as well (135x). The spectrum splitting module consists of a flat Fresnel lens (as the POE), and a free-form RXI-type concentrator with a band-pass filter embedded in it (as the SOE), both POE and SOE performing Köhler integration to produce light homogenization. The band-pass filter sends the IR photons in the 900-1,150nm band to the Si cell. There are several practical aspects of presented module architecture that help reducing the added complexity of the beam splitting systems: the filter and secondary are forming a single solid piece, both cells are coplanar so the heat management and wiring is simplified, etc. Two proof-of-concept prototypes are assembled and tested in order to prove filter manufacturability and performance, as well as the potential of external light recycling technique. Obtained measurement results agree quite well with models and simulations, and show an opened path to manufacturing of the Fresnel RXI-type secondary concentrator with spectrum splitting strategy. Two free-form solid V-groove collimators are presented in Chapter 4. Both free-form collimators are originally designed with the SMS3D method. The second mirrored optically active surface is converted in a grooved surface a posteriori. Initial two mirror (XX) design is presented as a proof-of-concept. Second, RXI free-form design is comparable with existing RXI collimators as it is a highly compact and a highly efficient design. It performs very good color mixing of the RGGB LED sources placed off-axis like in conventional RGB LEDs. Collimators described here improve color mixing property of the prior art rotationally symmetric no-aplanatic RXI devices, and the efficiency of the aplanatic ones, accomplishing both good collimation and good color mixing. Free-form V-groove collimators enhance the no-aplanatic device's blending capabilities by adding aplanatic features to its symmetric counterpart with no loss in efficiency. Big advantage of the RXI design is its potentially lower manufacturing cost, since the process of metallization may be avoided. Although some components are very complicated for shaping, the manufacturing costs are relatively insensitive to the complexity of the mold especially in the case of mass production (such as plastic injection), as the cost of the mold is spread in many parts. Finally, last two sections are conclusions and future lines of investigation.
Resumo:
The influence of CP content and ingredient complexity, feed form, and duration of feeding of the Phase I diets on growth performance and total tract apparent digestibility -TTAD- of energy and nutrients was studied in Iberian pigs weaned at 28 d of age. There were 12 dietary treatments with 2 type of feeds -high-quality, HQ; and low-quality, LQ-, 2 feed forms -pellets vs. mash-, and 3 durations -7, 14, and 21 d- of supply of the Phase I diets.
Resumo:
For the decades to come can be foreseen that electricity and water will keep be playing a key role in the countries development, both can be considered the most important energy vectors and its control can be crucial for governments, companies and leaders in general. Energy is essential for all human activities and its availability is critical to economic and social development. In particular, electricity, a form of energy, is required to produce goods, to provide medical assistance and basic civic services in education, to assure availability of clean water, to create conducive environment for prosperity and improvement, and to keep an acceptable quality of life. The way in which electricity is generated from different resources varies through the different countries. Nuclear energy controlled within reactors to steam production, gas, fuel-oil and coal fired in power stations, water, solar and wind energy among others are employed, sometimes not very efficiently, to produce electricity. The so call energy mix of an individual country is formed up by the contribution of each resource or form of energy to the electricity generation market of the so country. During the last decade the establishment of proper energy mixes for countries has gained much importance, and energy drivers should enforce long term plans and policies. Hints, reports and guides giving tracks on energy resources contribution are been developed by noticeable organisations like the IEA (International Energy Agency) or the IAEA (International Atomic Energy Agency) and the WEC (World Energy Council). This paper evaluates energy issues the market and countries are facing today regarding energy mix scheduling and panorama. This paper revises and seeks to improve methodology available that are applicable on energy mix plan definition. Key Factors are identified, established and assessed through this paper for the common implementation, the themes driving the future energy mix methodology proposal. Those have a clear influence and are closely related to future environmental policies. Key Factors take into consideration sustainability, energy security, social and economic growth, climate change, air quality and social stability. The strength of the Key Factors application on energy system planning to different countries is contingent on country resources, location, electricity demand and electricity generation industry, technology available, economic situation and prospects, energy policy and regulation
Resumo:
En los últimos años, las sociedades industrializadas han tomado una mayor conciencia sobre el problema que suponen las emisiones indiscriminadas de gases de efecto invernadero a la atmósfera. El hormigón, cuyo principal componente es el cemento, es probablemente el material más utilizado en construcción. En la actualidad, las emisiones globales de CO2 debidas a la combustión del CaCO3 del cemento Pórtland representan entre el 5% y el 10% respecto del total. Estos valores son de gran interés si se considera que el compromiso aceptado al firmar el Protocolo de Kioto es de una reducción del 5% antes del año 2020, sobre el total de gases producidos. El principal objetivo del presente trabajo es el estudio microestructural y de los procesos de hidratación de los cementos con adiciones. Para ello se propone contribuir a la investigación sobre nuevos productos cementicios basados en micropartículas esféricas vítreas que pueden adicionarse al cemento antes del proceso de amasado. Los resultados obtenidos se han contrastado con las adiciones convencionales de más uso en la actualidad. El nuevo material basa su composición en la química del aluminio y el silicio. Al disminuir la cantidad de CaCO3, se contribuye al desarrollo sostenible y a la reducción de emisiones de CO2. La patente creada por el Grupo Cementos Pórtland Valderrivas (GCPV), describe el proceso de producción de las cemesferas (WO 2009/007470, 2010). Los productos que forman la materia prima para la elaboración de las cemesferas son arcillas, calizas, margas o productos o subproductos industriales, que tras su molienda, son fundidos mediante un fluido gaseoso a elevada temperatura (entre 1250ºC y 1600ºC). Este proceso permite obtener un producto final en forma esférica maciza o microesfera, que tras estabilizarse mediante un enfriamiento rápido, consigue una alta vitrificación idónea para su reactividad química, con una mínima superficie específica en relación a su masa. El producto final obtenido presenta prácticamente la finura requerida y no precisa ser molido, lo que reduce las emisiones de CO2 por el ahorro de combustible durante el proceso de molienda. El proceso descrito permite obtener un amplio abanico de materiales cementantes que, no solo pueden dar respuesta a los problemas generados por las emisiones de CO2, sino también a la disponibilidad de materiales en países donde hasta el momento no se puede fabricar cemento debido a la falta de calizas. Complementariamente se ha optimizado el método de cálculo del grado de hidratación a partir de los resultados del ensayo de ATD-TG en base a los modelos de cálculo de Bhatty y Pane. El método propuesto permite interpretar el comportamiento futuro del material a partir de la interpolación numérica de la cantidad de agua químicamente enlazada. La evolución del grado de hidratación tiene una relación directa con el desarrollo de la resistencia mecánica del material. Con el fin de caracterizar los materiales de base cemento, se ha llevado a cabo una amplia campaña experimental en pasta de cemento, mortero y hormigón. La investigación abarca tres niveles: caracterización microestructural, macroestructural y caracterización del comportamiento a largo plazo, fundamentalmente durabilidad. En total se han evaluado ocho adiciones diferentes: cuatro adiciones convencionales y cuatro tipos de cemesferas con diferente composición química. Los ensayos a escala microscópica comprenden la caracterización química, granulométrica y de la superficie específica BET de los materiales anhidros, análisis térmico diferencial y termogravimétrico en pasta de cemento y mortero, resonancia magnética de silicio en pasta de cemento, difracción de rayos X de los materiales anhidros y de las probetas de pasta, microscopía electrónica de barrido con analizador de energía dispersiva por rayos X en pasta y mortero, y porosimetría por intrusión de mercurio en mortero. La caracterización macroscópica del material comprende ensayos de determinación del agua de consistencia normal y de los tiempos de inicio y fin de fraguado en pasta de cemento, ensayos de resistencia mecánica a flexión y compresión en probetas prismáticas de mortero, y ensayos de resistencia a compresión en probetas de hormigón. Para caracterizar la durabilidad se han desarrollado ensayos de determinación del coeficiente de migración de cloruros y ensayos de resistividad eléctrica en probetas de mortero. Todos los ensayos enumerados permiten clarificar el comportamiento de las cemesferas y compararlo con las distintas adiciones de uso convencional. Los resultados reflejan un buen comportamiento resistente y durable de los materiales con adición de cemesferas. La caracterización microscópica refleja su relación con las propiedades mesoscópicas y permite comprender mejor la evolución en los procesos de hidratación de las cemesferas. In recent years industrialised societies have become increasingly aware of the problem posed by indiscriminate emission of greenhouse gases into the atmosphere. Concrete, with a main component being cement, is arguably the most widely used construction material. At present, global emissions of CO2 due to the combustion of CaCO3 from Portland cement represent between 5% and 10% of the total. If the requirement of the Kyoto Protocol of a reduction of 5% of the total gas produced before 2020 is considered, then such values are of significant interest. The main objective of this work is the assessment of the microstructure and the hydration processes of cements with additions. Such an examination proposes research into new cementitious products based on vitreous spherical microparticles that may be added to the cement before the mixing process. The results are compared with the most commonly used conventional additions. The new material bases its composition on the chemistry of aluminium and silicates. By decreasing the amount of CaCO3, it is possible both to contribute to sustainable development and reduce CO2 emissions. The patent created by Grupo Cementos Portland Valderrivas (GCPV) describes the production process of microspheres (WO 2009/007470, 2010). The products that form the raw material for manufacture are clays, lime-stone, marl and industrial products or by-products that melt after being ground and fed into a gaseous fluid at high temperatures (1250°C and 1600°C). This process allows the obtaining of a product with a solid-spherical or micro-spherical shape and which, after being stabilised in a solid state by rapid cooling, obtains a high vitrification suitable for chemical reactivity, having a minimal surface in relation to its mass. Given that the final product has the fineness required, it prevents grinding that reduces CO2 emissions by saving fuel during this process. The process, which allows a wide range of cementitious materials to be obtained, not only addresses the problems caused by CO2 emissions but also enhances the availability of materials in countries that until the time of writing have not produced cement due to a lack of limestone. In addition, the calculation of the degree of hydration from the test results of DTA-TG is optimised and based on Bhatty and Pane calculation models. The proposed method allows prediction of the performance of the material from numerical interpolation of the amount of chemically bound water. The degree of hydration has a direct relationship with the development of material mechanical strength. In order to characterise the cement-based materials, an extensive experimental campaign in cement paste, concrete and mortar is conducted. The research comprises three levels: micro-structural characterisation, macro-structural and long-term behaviour (mainly durability). In total, eight additions are assessed: four conventional additions and four types of microspheres with different chemical compositions. The micro-scale tests include characterisation of chemical composition, particle size distribution and the BET specific surface area of anhydrous material, differential thermal and thermogravimetric analysis in cement paste and mortar, silicon-29 nuclear magnetic resonance in cement paste, X-ray diffraction of the anhydrous materials and paste specimens, scanning of electron microscopy with energy dispersive X-ray analyser in cement paste and mortar, and mercury intrusion porosimetry in mortar. The macroscopic material characterisation entails determination of water demand for normal consistency, and initial and final setting times of cement paste, flexural and compressive mechanical strength tests in prismatic mortar specimens, and compressive strength tests in concrete specimens. Tests for determining the chloride migration coefficient are performed to characterise durability, together with electrical resistivity tests in mortar specimens. All the tests listed allow clarification of the behaviour of the microspheres and comparison with the various additions of conventional use. The results show good resistance and durable behaviour of materials with a microsphere addition. Microscopic characterisation reflects their relationship with mesoscopic properties and provides insights into the hydration processes of the microspheres.
Resumo:
La energía es ya un tema arquitectónico, pero su incorporación al proyecto ha sido hasta ahora fundamentalmente técnica, dando pie a una especie de funcionalismo ecológico cuyo destino es acaso repetir los errores de los viejos funcionalismos en su confianza de encontrar modos ‘objetivos’ de transmutar la energía en forma construida, pero sin que en tal proceso parezca haber hueco para mediaciones de tipo estético. Sin embargo, son precisamente tales mediaciones las que necesitan analizarse para que la adopción de los temas energéticos resulte fructífera en la arquitectura, y asimismo para dar cuenta de otras perspectivas complementarias —filosóficas, científicas, artísticas— que hoy forman el complejo campo semántico de la energía. Partiendo de la fecha de 1750 —que da comienzo simbólicamente al proceso de contaminaciones ‘modernas’ entre la arquitectura y otras disciplinas—, esta tesis analiza los diferentes modos con los que proyectos y edificios han expresado literal y analógicamente ciertos temas o ideales energéticos, demostrando la existencia de una ‘estética de la energía’ en la arquitectura y también de una tradición proyectual e intelectual sostenida en ella. Con este fin, se han seleccionados siete metáforas que vinculan tanto técnica como ideológicamente a la arquitectura con la energía: la metáfora de la máquina, asociada al ideal de movimiento y la autorregulación; las metáforas del arabesco, del cristal y del organismo, afines entre sí en su modo de dar cuenta del principio de la morfogénesis o energía creadora de la naturaleza; la metáfora de la actividad interna de los materiales; la metáfora del gradiente, que expresa la condición térmica y climática de la arquitectura, y, finalmente, la de la atmósfera que, recogiendo los sentidos anteriores, los actualiza en el contexto de la estética contemporánea. La selección de estas siete metáforas se ha llevado a cabo después de un barrido exhaustivo de la bibliografía precedente, y ha estructurado un relato cuyo método combina la perspectiva general —que permite cartografiar las continuidades históricas— con la cercana —que atiende a las problemas específicos de cada tema o metáfora—, complementándolas con una aproximación de sesgo iconográfico cuyo propósito es incidir en los vínculos que se dan entre lo ideológico y lo morfológico. El análisis ha puesto de manifiesto cómo detrás de cada una de estas metáforas se oculta un principio ideológico común —la justificación de la arquitectura desde planteamientos externos procedentes de la ciencia, la filosofía y el arte—, y cómo en cada uno de los casos estudiados las asimilaciones más fructíferas de la energía se han producido según mecanismos de mímesis analógica que inciden más en los procesos que en las formas que estos generan, y que en último término son de índole estética, lo cual constituye un indicio de los métodos de la arquitectura por venir. ABSTRACT Although it is already an architectural theme, the matter of incorporating energy into projects has up to now been mainly technical, giving rise to a kind of ecological functionalism which may be bound to old funcionalist mistakes in hopes of finding “objective” ways of transmuting energy into built forms without aesthetic considerations. However, it is precisely such considerations that need to be analyzed if the adoption of energy issues in architecture is to bear fruit and also to account for other complementary perspectives – philosophical, scientific, artistic – which today form the complex fabric of the energy semantic field. Beginning in 1750 – symbolic start of ‘modern’ contaminations between architecture and other disciplines –, this thesis analyzes the different ways in which projects and buildings have literally and analogically expressed certain subjects or ideals on energy, and demonstrates the existence of an “aesthetics of energy” in architecture, as well as of an intellectual and design tradition based on such aesthetics. For this purpose, seven metaphors are selected to link energy to architecture both technically and ideologically: the machine’s metaphor, associated with the ideal of mouvement and self-regulation; the arabesque, glass and the organism’s metaphors, which account for the morphogenesis principle, i.e. creative energy of nature; the metaphor linked to matter and the ideal of internal activity; the gradient’s metaphor, which expressed the thermal and climatic condition of architecture, and, finally, that of the atmosphere which, collecting the above meanings, updates them in the context of contemporary aesthetics. The selection of these seven metaphors was carried out after a thorough scan of the preceding literature, and has structured a reasoning that combines the overview method – which accounts for historical continuities – with the nearby one – which meets the specifics problems of each theme or metaphor –, both supplemented with an iconographic bias, the purpose of which is to visually express the links existing between the ideological and the morphological. So presented, the analysis shows how, behind each of these metaphors, lies a common ideological principle – the justification of architecture from scientific, philosophical and artistic “external” angles –, and how in each of the studied cases the most successful assimilation of energy were those produced by aesthetic mechanisms of analogical mimesis not focused in forms but in processes that generate them: an indication of the methods of architecture to come.
Resumo:
Biomass has always been associated with the development of the population in the Canary Islands as the first source of elemental energy that was in the archipelago and the main cause of deforestation of forests, which over the years has been replaced by forest fossil fuels. The Canary Islands store a large amount of energy in the form of biomass. This may be important on a small scale for the design of small power plants with similar fuels from agricultural activities, and these plants could supply rural areas that could have self-sufficiency energy. The problem with the Canary Islands for a boost in this achievement is to ensure the supply to the consumer centers or power plants for greater efficiency that must operate continuously, allowing them to have a resource with regularity, quality and at an acceptable cost. In the Canary Islands converge also a unique topography with a very rugged terrain that makes it greater difficult to use and significantly more expensive. In this work all these aspects are studied, giving conclusions, action paths and theoretical potentials.
Resumo:
This paper introduces a road map for ICTs (Information and communication technologies) supporting planning, operation and management of energy systems in smart cities. The road map summarises different elements that form energy systems in cities and proposes research and technical development (RTD) and innovation activities for the development and innovation of ICTs for holistic design, planning and operation of energy systems. In addition, synergies with other ICT systems for smart cities are considered. There are four main target groups for the road map: 1) citizen; 2) building sector; 3) energy sector; and 4) municipality level. As an example for enabling active participation of citizens, the road map proposes how ICT can enable citizens? involvement among others into building design. The building sector roadmap proposes how ICTs can support the planning of buildings and renovations in the future, as well as how to manage building energy systems. The energy sector road map focuses on city?s energy systems and their planning and management, including e.g. demand side management, management of different district level energy systems, energy performance validation and management, energy data models, and smarter use of open energy data. Moreover, the municipality level road map proposes among others ICTs for better integration of city systems and city planning enabling maximised energy efficiency. In addition, one road map section suggests development needs related to open energy data, including among others the use of energy data and the development and harmonisation of energy data models. The road map has been assembled in the READY4SmartCities project (funded by EU 7th Framework Programme), which focuses on the energy system at the city level, consisting of centralised energy systems and connections to the national level energy grids, as well as interconnections to the neighbourhood and building level energy systems.
Resumo:
Resource analysis aims at inferring the cost of executing programs for any possible input, in terms of a given resource, such as the traditional execution steps, time ormemory, and, more recently energy consumption or user defined resources (e.g., number of bits sent over a socket, number of database accesses, number of calls to particular procedures, etc.). This is performed statically, i.e., without actually running the programs. Resource usage information is useful for a variety of optimization and verification applications, as well as for guiding software design. For example, programmers can use such information to choose different algorithmic solutions to a problem; program transformation systems can use cost information to choose between alternative transformations; parallelizing compilers can use cost estimates for granularity control, which tries to balance the overheads of task creation and manipulation against the benefits of parallelization. In this thesis we have significatively improved an existing prototype implementation for resource usage analysis based on abstract interpretation, addressing a number of relevant challenges and overcoming many limitations it presented. The goal of that prototype was to show the viability of casting the resource analysis as an abstract domain, and howit could overcome important limitations of the state-of-the-art resource usage analysis tools. For this purpose, it was implemented as an abstract domain in the abstract interpretation framework of the CiaoPP system, PLAI.We have improved both the design and implementation of the prototype, for eventually allowing an evolution of the tool to the industrial application level. The abstract operations of such tool heavily depend on the setting up and finding closed-form solutions of recurrence relations representing the resource usage behavior of program components and the whole program as well. While there exist many tools, such as Computer Algebra Systems (CAS) and libraries able to find closed-form solutions for some types of recurrences, none of them alone is able to handle all the types of recurrences arising during program analysis. In addition, there are some types of recurrences that cannot be solved by any existing tool. This clearly constitutes a bottleneck for this kind of resource usage analysis. Thus, one of the major challenges we have addressed in this thesis is the design and development of a novel modular framework for solving recurrence relations, able to combine and take advantage of the results of existing solvers. Additionally, we have developed and integrated into our novel solver a technique for finding upper-bound closed-form solutions of a special class of recurrence relations that arise during the analysis of programs with accumulating parameters. Finally, we have integrated the improved resource analysis into the CiaoPP general framework for resource usage verification, and specialized the framework for verifying energy consumption specifications of embedded imperative programs in a real application, showing the usefulness and practicality of the resulting tool.---ABSTRACT---El Análisis de recursos tiene como objetivo inferir el coste de la ejecución de programas para cualquier entrada posible, en términos de algún recurso determinado, como pasos de ejecución, tiempo o memoria, y, más recientemente, el consumo de energía o recursos definidos por el usuario (por ejemplo, número de bits enviados a través de un socket, el número de accesos a una base de datos, cantidad de llamadas a determinados procedimientos, etc.). Ello se realiza estáticamente, es decir, sin necesidad de ejecutar los programas. La información sobre el uso de recursos resulta muy útil para una gran variedad de aplicaciones de optimización y verificación de programas, así como para asistir en el diseño de los mismos. Por ejemplo, los programadores pueden utilizar dicha información para elegir diferentes soluciones algorítmicas a un problema; los sistemas de transformación de programas pueden utilizar la información de coste para elegir entre transformaciones alternativas; los compiladores paralelizantes pueden utilizar las estimaciones de coste para realizar control de granularidad, el cual trata de equilibrar el coste debido a la creación y gestión de tareas, con los beneficios de la paralelización. En esta tesis hemos mejorado de manera significativa la implementación de un prototipo existente para el análisis del uso de recursos basado en interpretación abstracta, abordando diversos desafíos relevantes y superando numerosas limitaciones que éste presentaba. El objetivo de dicho prototipo era mostrar la viabilidad de definir el análisis de recursos como un dominio abstracto, y cómo se podían superar las limitaciones de otras herramientas similares que constituyen el estado del arte. Para ello, se implementó como un dominio abstracto en el marco de interpretación abstracta presente en el sistema CiaoPP, PLAI. Hemos mejorado tanto el diseño como la implementación del mencionado prototipo para posibilitar su evolución hacia una herramienta utilizable en el ámbito industrial. Las operaciones abstractas de dicha herramienta dependen en gran medida de la generación, y posterior búsqueda de soluciones en forma cerrada, de relaciones recurrentes, las cuales modelizan el comportamiento, respecto al consumo de recursos, de los componentes del programa y del programa completo. Si bien existen actualmente muchas herramientas capaces de encontrar soluciones en forma cerrada para ciertos tipos de recurrencias, tales como Sistemas de Computación Algebraicos (CAS) y librerías de programación, ninguna de dichas herramientas es capaz de tratar, por sí sola, todos los tipos de recurrencias que surgen durante el análisis de recursos. Existen incluso recurrencias que no las puede resolver ninguna herramienta actual. Esto constituye claramente un cuello de botella para este tipo de análisis del uso de recursos. Por lo tanto, uno de los principales desafíos que hemos abordado en esta tesis es el diseño y desarrollo de un novedoso marco modular para la resolución de relaciones recurrentes, combinando y aprovechando los resultados de resolutores existentes. Además de ello, hemos desarrollado e integrado en nuestro nuevo resolutor una técnica para la obtención de cotas superiores en forma cerrada de una clase característica de relaciones recurrentes que surgen durante el análisis de programas lógicos con parámetros de acumulación. Finalmente, hemos integrado el nuevo análisis de recursos con el marco general para verificación de recursos de CiaoPP, y hemos instanciado dicho marco para la verificación de especificaciones sobre el consumo de energía de programas imperativas embarcados, mostrando la viabilidad y utilidad de la herramienta resultante en una aplicación real.
Resumo:
El presente trabajo, trata del ahorro de energía en la edificación y en el urbanismo. Las premisas en este caso, son un contexto normativo europeo y nacional muy exigentes y encaminados de manera decidida hacia edificios cada vez más eficientes y económicos. Se centra el estudio en las decisiones iniciales que se adoptan sobre las condiciones de ocupación de la parcela urbana, las tipologías edificatorias más adecuadas, su morfología y escala y las consecuencias que tienen para el comportamiento energético final, tanto en términos objetivos como normativos. Se trata de cuantificar que suponen estas decisiones en términos de ahorro energético. Todo el análisis se realiza para un contexto climático concreto, el de la ciudad de Madrid. Para los análisis de las diferentes condiciones de implantación objeto del estudio, se han empleado unas herramientas informáticas singulares. Se trata de los programas de evaluación de la demanda y certificación energética de edificios, que el gobierno español pone a disposición de los usuarios de manera gratuita. Estas, son aplicaciones pensadas para la escala del edificio y/o parte de él, pero que con la metodología y simplificaciones que en el trabajo se detallan, pueden ser empleadas en la escala media de intervención urbana, tanto en nueva implantación como en rehabilitación. Hay que tener en cuenta que son estas aplicaciones las que se utilizarán en la mayoría de los casos como instrumento de evaluación y calificación del comportamiento energético de cada una de las unidades. Las tipologías objeto del estudio son: - Vivienda unifamiliar: aislada, pareada y adosada en hilera. - Bloque abierto - Bloque en H - Bloque en cruz - Torre - Manzana cerrada El contenido principal del trabajo se centra en el análisis individual de cada tipología y de su agrupación teórica sobre lo que podíamos llamar "unidad urbana", una manzana tipo de 10.000 m2, 1 ha. Se opta por esta unidad por tratarse de una superficie urbana lo suficientemente amplia para caracterizar la agrupación de las diferentes tipologías estudiadas y por adaptarse a las capacidades de las herramientas informáticas que se han utilizado. Se han analizado diferentes opciones tipológicas de ocupación, manteniendo constantes en todas las soluciones estudiadas, los siguientes parámetros: • el clima (Madrid), • la edificabilidad (en todas menos una en la que el modelo no permite alcanzar la edificabilidad de referencia), • la pureza formal del modelo, evitando los juegos compositivos de retranqueos y salientes de la envolvente que distorsionen el comportamiento de la volumetría primaria, • las soluciones constructivas de la envolvente y particiones interiores de los edificios, • las proporciones de huecos en la envolvente, • las soluciones de sus carpinterías y vidrios • y todas las condiciones operacionales que aplica el programa de simulación. Esta tesis, es un estudio analítico y evaluado, del comportamiento de cada uno de los tipos, su forma y posicionamiento en el espacio. Cada uno de los modelos se simula de manera individual y agrupados, con el fin de conseguir colmatar la edificabilidad de referencia sobre la parcela urbana de 1 ha. Todos los resultados se estudian de forma independiente y los resultados se expresan en diferentes tablas y un resumen en fichas individuales por tipos. La conclusión principal del trabajo es que la tipología elegida como contenedor residencial urbano determina en su elección acertada la primera medida de ahorro energético y reducción de emisiones cuantificables en más del 50% entre las tipologías más favorables y las más desfavorables. Una segunda parte del trabajo de investigación, consiste en la aplicación de esta metodología de simulación y empleando las mismas herramientas, en el estudio de casos reales en la comunidad de Madrid (principalmente en la ciudad de Madrid). El objetivo es validar el procedimiento y dichas herramientas, también para el caso de evaluación de tejidos urbanos consolidados. Como caso singular de estudio de rehabilitación urbana, se analizan las intervenciones de rehabilitación partiendo de criterios acústicos y las oportunidades que plantearía la inclusión de criterios térmicos aprovechando la sinergia entre ambas demandas, la de confort acústico y térmico. ABSTRACT This PhD work is about saving energy in buildings and urban planning. The premises in this case are a very demanding European and national policy, aimed decisively towards efficient and economic buildings. The study focuses on the initial decisions taken on the conditions of occupation of urban land, the most suitable building types, their morphology and scale and the implications for the final energy performance, always considering policy objectives. This essay tries to quantify how important this decisions are in energy savings terms. All analysis are performed for a particular climatic context, the city of Madrid. For the analysis of different implantation conditions under study, we have used a unique software tool. This software, a free tool available online, quantifies demand assessment and energy certification of buildings. It is designed for building scale and / or part of it. With the methodology and simplifications detailed in this paper, the software can be used in medium scale urban intervention. There are different types under study such as, isolated house, semi-detached, terraces row, open block, h block, cross block, tower, etc. The main content of the work focuses on the individual analysis of each type and its theoretical group, named urban unit group. This unit is chosen because it is an urban area large enough to characterize the grouping of the different types studied. It is also possible to simulate with the software tools. Different options of typological occupation have been analyzed taking in consideration the next parameters: climate, floor area, model formal purity, building envelope solutions and interior partitions of buildings, the proportions of voids in the facades. This thesis is an analytical and evaluated study of the behavior of each types, form and position in space. Each of the models is simulated individually and grouped, in order to get the reference buildable urban plot of 1 ha. All results are studied independently and the results are expressed in different tables and a summary in individual files by type. The main conclusion of the study is that the type chosen as urban residential container you choose determines the first step in successful energy savings and quantifiable reduction of emissions by more than 50% in the most favorable and the most unfavorable types. A second part of the research, is the application of this methodology and simulation using the same tools in the study of real cases in the community of Madrid (mainly in the city of Madrid). The aim is to validate the procedure and such tools, also for the case of evaluation of consolidated urban fabric. As a unique case study of urban renewal, rehabilitation interventions based on acoustic criteria and opportunities arise thermal criteria including leveraging the synergy between the two demands, acoustic and thermal comfort are analyzed.
Resumo:
A conceptual energy storage system design that utilizes ultra high temperature phase change materials is presented. In this system, the energy is stored in the form of latent heat and converted to electricity upon demand by TPV (thermophotovoltaic) cells. Silicon is considered in this study as PCM (phase change material) due to its extremely high latent heat (1800 J/g or 500 Wh/kg), melting point (1410 C), thermal conductivity (~25 W/mK), low cost (less than $2/kg or $4/kWh) and abundance on earth. The proposed system enables an enormous thermal energy storage density of ~1 MWh/m3, which is 10e20 times higher than that of lead-acid batteries, 2e6 times than that of Li-ion batteries and 5e10 times than that of the current state of the art LHTES systems utilized in CSP (concentrated solar power) applications. The discharge efficiency of the system is ultimately determined by the TPV converter, which theoretically can exceed 50%. However, realistic discharge efficiencies utilizing single junction TPV cells are in the range of 20e45%, depending on the semiconductor bandgap and quality, and the photon recycling efficiency. This concept has the potential to achieve output electric energy densities in the range of 200-450 kWhe/m3, which is comparable to the best performing state of the art Lithium-ion batteries.
Resumo:
The use of molecular genetics for introducing fluorescent molecules enables the use of donor–donor energy migration to determine intramolecular distances in a variety of proteins. This approach can be applied to examine the overall molecular dimensions of proteins and to investigate structural changes upon interactions with specific target molecules. In this report, the donor–donor energy migration method is demonstrated by experiments with the latent form of plasminogen activator inhibitor type 1. Based on the known x-ray structure of plasminogen activator inhibitor type 1, three positions forming the corners of a triangle were chosen. Double Cys substitution mutants (V106C-H185C, H185C-M266C, and M266C-V106C) and corresponding single substitution mutants (V106C, H185C, and M266C) were created and labeled with a sulfhydryl specific derivative of BODIPY (=the D molecule). The side lengths of this triangle were obtained from analyses of the experimental data. The analyses account for the local anisotropic order and rotational motions of the D molecules, as well as for the influence of a partial DD-labeling. The distances, as determined from x-ray diffraction, between the Cα-atoms of the positions V106C–H185C, H185C–M266C, and M266C–V106C were 60.9, 30.8, and 55.1 Å, respectively. These are in good agreement with the distances of 54 ± 4, 38 ± 3, and 55 ± 3 Å, as determined between the BODIPY groups attached via linkers to the same residues. Although the positions of the D-molecules and the Cα-atoms physically cannot coincide, there is a reasonable agreement between the methods.
Resumo:
The contribution of several individual ribozyme⋅substrate base pairs to binding and catalysis has been investigated using hammerhead ribozyme substrates that were truncated at their 3′ or 5′ ends. The base pairs at positions 1.1–2.1 and 15.2–16.2, which flank the conserved core, each contribute 104-fold in the chemical step, without affecting substrate binding. In contrast, base pairs distal to the core contribute to substrate binding but have no effect on the chemical step. These results suggest a “fraying model” in which each ribozyme⋅substrate helix can exist in either an unpaired (“open”) state or a helical (“closed”) state, with the closed state required for catalysis. The base pairs directly adjacent to the conserved core contribute to catalysis by allowing the closed state to form. Once the number of base pairs is sufficient to ensure that the closed helical state predominates, additional residues provide stabilization of the helix, and therefore increase binding, but have no further effect on the chemical step. Remarkably, the >5 kcal/mol free energy contribution to catalysis from each of the internal base pairs is considerably greater than the free energy expected for formation of a base pair. It is suggested that this unusually large energetic contribution arises because free energy that is typically lost in constraining residues within a base pair is expressed in the transition state, where it is used for positioning. This extends the concept of “intrinsic binding energy” from protein to RNA enzymes, suggesting that intrinsic binding energy is a fundamental feature of biological catalysis.
Resumo:
The multidimensional free energy surface for a small fast folding helical protein is explored based on first-principle calculations. The model represents the 46-residue segment from fragment B of staphylococcal protein A. The relationship between collapse and tertiary structure formation, and the order of collapse and secondary structure formation, are investigated. We find that the initial collapse process gives rise to a transition state with about 30% of the native tertiary structure and 50–70% of the native helix content. We also observe two distinct distributions of native helix in this collapsed state (Rg ≈ 12 Å), one with about 20% of the native helical hydrogen bonds, the other with near 70%. The former corresponds to a local minimum. The barrier from this metastable state to the native state is about 2 kBT. In the latter case, folding is essentially a downhill process involving topological assembly. In addition, the order of formation of secondary structure among the three helices is examined. We observe cooperative formation of the secondary structure in helix I and helix II. Secondary structure in helix III starts to form following the formation of certain secondary structure in both helix I and helix II. Comparisons of our results with those from theory and experiment are made.
Resumo:
A protein fluorescence probe system, coupling excited-state intermolecular Förster energy transfer and intramolecular proton transfer (PT), is presented. As an energy donor for this system, we used tryptophan, which transfers its excitation energy to 3-hydroxyflavone (3-HF) as a flavonol prototype, an acceptor exhibiting excited-state intramolecular PT. We demonstrate such a coupling in human serum albumin–3-HF complexes, excited via the single intrinsic tryptophan (Trp-214). Besides the PT tautomer fluorescence (λmax = 526 nm), these protein–probe complexes exhibit a 3-HF anion emission (λmax = 500 nm). Analysis of spectroscopic data leads to the conclusion that two binding sites are involved in the human serum albumin–3-HF interaction. The 3-HF molecule bound in the higher affinity binding site, located in the IIIA subdomain, has the association constant (k1) of 7.2 × 105 M−1 and predominantly exists as an anion. The lower affinity site (k2 = 2.5 × 105 M−1), situated in the IIA subdomain, is occupied by the neutral form of 3-HF (normal tautomer). Since Trp-214 is situated in the immediate vicinity of the 3-HF normal tautomer bound in the IIA subdomain, the intermolecular energy transfer for this donor/acceptor pair has a 100% efficiency and is followed by the PT tautomer fluorescence. Intermolecular energy transfer from the Trp-214 to the 3-HF anion bound in the IIIA subdomain is less efficient and has the rate of 1.61 × 108 s−1, thus giving for the donor/acceptor distance a value of 25.5 Å.