22 resultados para CANCER CURRENT STATUS
em Universidad Politécnica de Madrid
Resumo:
Pressure management (PM) is commonly used in water distribution systems (WDSs). In the last decade, a strategic objective in the field has been the development of new scientific and technical methods for its implementation. However, due to a lack of systematic analysis of the results obtained in practical cases, progress has not always been reflected in practical actions. To address this problem, this paper provides a comprehensive analysis of the most innovative issues related to PM. The methodology proposed is based on a case-study comparison of qualitative concepts that involves published work from 140 sources. The results include a qualitative analysis covering four aspects: (1) the objectives yielded by PM; (2) types of regulation, including advanced control systems through electronic controllers; (3) new methods for designing districts; and (4) development of optimization models associated with PM. The evolution of the aforementioned four aspects is examined and discussed. Conclusions regarding the current status of each factor are drawn and proposals for future research outlined
Resumo:
1) Introduction 2) The Quasi-mono, pseudo-mono, mono-like ERA. 3) Manufacturing mono-cast ingots: COST (seed recycling) 4) Summary and findings 5) Current status at DCWafers
Resumo:
We describe the current status of and provide performance results for a prototype compiler of Prolog to C, ciaocc. ciaocc is novel in that it is designed to accept different kinds of high-level information, typically obtained via an automatic analysis of the initial Prolog program and expressed in a standardized language of assertions. This information is used to optimize the resulting C code, which is then processed by an off-the-shelf C compiler. The basic translation process essentially mimics the unfolding of a bytecode emulator with respect to the particular bytecode corresponding to the Prolog program. This is facilitated by a flexible design of the instructions and their lower-level components. This approach allows reusing a sizable amount of the machinery of the bytecode emulator: predicates already written in C, data definitions, memory management routines and áreas, etc., as well as mixing emulated bytecode with native code in a relatively straightforward way. We report on the performance of programs compiled by the current versión of the system, both with and without analysis information.
Improving the compilation of prolog to C using type and determinism information: Preliminary results
Resumo:
We describe the current status of and provide preliminary performance results for a compiler of Prolog to C. The compiler is novel in that it is designed to accept different kinds of high-level information (typically obtained via an analysis of the initial Prolog program and expressed in a standardized language of assertions) and use this information to optimize the resulting C code, which is then further processed by an off-the-shelf C compiler. The basic translation process used essentially mimics an unfolding of a C-coded bytecode emúlator with respect to the particular bytecode corresponding to the Prolog program. Optimizations are then applied to this unfolded program. This is facilitated by a more flexible design of the bytecode instructions and their lower-level components. This approach allows reusing a sizable amount of the machinery of the bytecode emulator: ancillary pieces of C code, data definitions, memory management routines and áreas, etc., as well as mixing bytecode emulated code with natively compiled code in a relatively straightforward way We report on the performance of programs compiled by the current versión of the system, both with and without analysis information.
Resumo:
El capital financiero es muy volátil y si el inversor no obtiene una remuneración adecuada al riesgo que asume puede plantearse el retirar su capital del patrimonio de la empresa y, en consecuencia, producir un cambio estructural en cualquier sector de la economía. El objetivo principal es el estudio de los coeficientes de regresión (coeficiente beta) de los modelos de valoración de activos empleados en Economía Financiera, esto es, el estudio de la variación de la rentabilidad de los activos en función de los cambios que suceden en los mercados. La elección de los modelos utilizados se justifica por la amplia utilización teórica y empírica de los mismos a lo largo de la historia de la Economía Financiera. Se han aplicado el modelo de valoración de activos de mercado (capital asset pricing model, CAPM), el modelo basado en la teoría de precios de arbitraje (arbitrage pricing theory, APT) y el modelo de tres factores de Fama y French (FF). Estos modelos se han aplicado a los rendimientos mensuales de 27 empresas del sector minero que cotizan en la bolsa de Nueva York (New York Stock Exchange, NYSE) o en la de Londres (London Stock Exchange, LSE), con datos del período que comprende desde Enero de 2006 a Diciembre de 2010. Los resultados de series de tiempo y sección cruzada tanto para CAPM, como para APT y FF producen varios errores, lo que sugiere que muchas empresas del sector no han podido obtener el coste de capital. También los resultados muestran que las empresas de mayor riesgo tienden a tener una menor rentabilidad. Estas conclusiones hacen poco probable que se mantenga en el largo plazo el equilibrio actual y puede que sea uno de los principales factores que impulsen un cambio estructural en el sector minero en forma de concentraciones de empresas. ABSTRACT Financial capital is highly volatile and if the investor does not get adequate compensation for the risk faced he may consider withdrawing his capital assets from the company and consequently produce a structural change in any sector of the economy. The main purpose is the study of the regression coefficients (beta) of asset pricing models used in financial economics, that is, the study of variation in profitability of assets in terms of the changes that occur in the markets. The choice of models used is justified by the extensive theoretical and empirical use of them throughout the history of financial economics. Have been used the capital asset pricing model, CAPM, the model XII based on the arbitrage pricing theory (APT) and the three-factor model of Fama and French (FF). These models have been applied to the monthly returns of 27 mining companies listed on the NYSE (New York Stock Exchange) or LSE(London Stock Exchange), using data from the period covered from January 2006 to December 2010. The results of time series and cross sectional regressions for CAPM, APT and FF produce some errors, suggesting that many companies have failed to obtain the cost of capital. Also the results show that higher risk firms tend to have lower profitability. These findings make it unlikely to be mainteined over the long term the current status and could drive structural change in the mining sector in the form of mergers.
Resumo:
This paper shows the main contributions of the 1st Symposium on Improvement Process Models and Software Quality of Public Administrations. The obtained results expose the need to promote the implementation of Software Maturity Models and show possible advantages of its application in software processes of Public Administrations. Specifically, it was analyzed the current status in two process areas: Requirements Management and Subcontracting Management.
Resumo:
In this article, the authors examine the current status of different elements that integrate the landscape of the municipality of Olias del Rey in Toledo (Spain). A methodology for the study of rural roads, activity farming and local hunting management. We used Geographic Information Technologies (GIT) in order to optimize spatial information including the design of a Geographic Information System (GIS). In the acquisition of field data we have used vehicle "mobile mapping" instrumentation equipped with GNSS, LiDAR, digital cameras and odometer. The main objective is the integration of geoinformation and geovisualization of the information to provide a fundamental tool for rural planning and management.
Resumo:
El estado Bolívar con una superficie de 238.000 Km2 se encuentra ubicado al SE de Venezuela y su capital es Ciudad Bolívar. Ocupa el 26,24% de la superficie del territorio nacional. Ciudad Guayana es la principal región del desarrollo económico del estado siendo sede de las empresas básicas de los sectores siderúrgicos y del aluminio que se encargan de la extracción, procesamiento y transformación del mineral de hierro y de la transformación de la bauxita en aluminio primario. Además, cuenta con un gran potencial hidroeléctrico, garantizando el suministro de energía eléctrica para el funcionamiento de las empresas básicas, para el parque industrial de la región, así como para el desarrollo industrial, económico y social de la nación. Con relación al sector de la industria del mineral de hierro y del aluminio, las empresas destinan más del 60 por ciento de su producción al mercado internacional. A pesar de que el sector de las Pequeñas y Medianas Industrias (PYMIS) del estado Bolívar cuenta con un mercado cercano y seguro, no se le ha propiciado un desarrollo integral en términos de orientar sus esfuerzos en innovar en nuevos productos o mejoras de procesos. Debido a la falta del personal de investigación calificado, la escasa vinculación con centros de investigación, la baja inversión en investigación, desarrollo tecnológico e innovación (I+D+i), la ausencia de la aplicación de una política pública de I+D+i y la desarticulación de los miembros del Sistema Regional de Innovación (SRI), constituyen los principales obstáculos para generar bienes y servicios con un alto valor agregado. Esta situación desequilibra y hace ineficiente el funcionamiento del SRI. La baja capacidad de las PYMIS del estado Bolívar en I+D+i, es una situación que impide generar por si sola nuevos productos o procesos para satisfacer las demandas del mercado regional. Por lo tanto, se requiere de la intervención y participación activa de la institución gubernamental responsable del diseño y aplicación de una política pública de I+D+i para dinamizar la capacidad de innovación en las PYMIS, en su articulación y vinculación con los miembros del SRI. xiii El presente proyecto se planteó como objetivo diseñar una metodología de política pública de I+D+i para liderar, coordinar y direccionar el SRI del estado Bolívar, para el desarrollo de la capacidad de innovación en el sector industrial y específicamente en las PYMIS. La presente tesis representa una investigación no experimental de tipo proyectivo que analiza la situación actual del Sistema Regional de Innovación del estado Bolívar. El análisis de los resultados se ha dividido en tres fases. En la primera se realizan diagnósticos por medio de encuestas de las PYMIS en materia de I+D+i, de los centros y laboratorios de investigación pertenecientes a las universidades de la región en el área de Materiales y de los sectores financieros público y privado. En dichas encuestas se evalúa el nivel de integración con los entes gubernamentales que definen y administran la política pública de I+D+i. En la segunda fase, con el diagnóstico y procesamiento de los resultados de la primera fase, se procede a desarrollar un análisis de las fortalezas, oportunidades, debilidades y amenazas (FODA) del Sistema Regional de Innovación, permitiendo comprender la situación actual de la relación y vinculación de las PYMIS con los centros de investigación, instituciones financieras y entes gubernamentales. Con la problemática detectada, resultó necesario el diseño de estrategias y un modelo de gestión de política pública de I+D+i para la articulación de los miembros del SRI, para el apoyo de las PYMIS. En la tercera fase se diseña la metodología de política pública de I+D+i para fortalecer la innovación en las PYMIS. La metodología se representa a través de un modelo propuesto que se relaciona con las teorías de los procesos de innovación, con los modelos de sistemas de innovación y con las reflexiones y recomendaciones hechas por diferentes investigadores e instituciones de cooperación internacional referentes a la aplicación de políticas públicas de I+D+i para dinamizar la capacidad de innovación en el sector industrial. La metodología diseñada es comparada con diferentes modelos de aplicación de política pública de I+D+i. Cada modelo se representa en una figura y se analiza su xiv situación presente y la función que desempeña el ente gubernamental en la aplicación del enfoque de política pública de I+D+i. El diseño de la metodología de política pública de I+D+i propuesta aportará nuevos conocimientos y podrá ser aplicado para apoyar el progreso de la I+D+i en las PYMIS de la región, como caso de estudio, con el fin de impulsar una economía más competitiva y reducir el grado de dependencia tecnológica. La metodología una vez evaluada podrá ser empleada en el contexto de la gran industria y en otras regiones de Venezuela y además, puede aplicarse en otros países con características similares en su tejido industrial. En la tesis doctoral se concluye que el desarrollo de la capacidad de innovación en las PYMIS depende del diseño y aplicación de la política pública de I+D+i como elemento dinamizador y articulador del SRI del estado Bolívar. xv ABSTRACT The Bolivar state with an area of 238,000 km2 is located in the SE of Venezuela and its capital is Ciudad Bolivar. It occupies a surface which is 26.24% of the national territory. Ciudad Guayana is the main area of the state's economic development and the location of the corporate headquarters of the basic steel and aluminum sectors that are responsible for the extraction, processing and transformation of iron ore and bauxite processing for primary aluminum. It also has a great hydroelectric potential, ensuring the supply of electricity for the operation of enterprises, for the regional industrial park as well as for the industrial, economic and social development of the nation. With regard to the iron ore and aluminum industry, companies allocate more than 60 percent of their production to the international market. Although the sector of Small and Medium Industries (SMIs) of the Bolivar state has a secure market, it has not been led to an integral development in terms of targeting its efforts on innovating new products or improving processes. Due to the lack of qualified research staff, poor links with research centers, low investment in research, technological development and innovation (R & D & I), the absence of the implementation of a public policy for R & D & I and the dismantling of the members of the Regional Innovation System (RIS), are the main obstacles to generate goods and services with high added value. This situation makes the RIS unbalanced and inefficient. The low capacity of Bolivar state’s SMIs in R & D & I, is a situation that cannot generate by itself new products or processes to meet regional market demands. Therefore, it requires the active involvement and participation of the government institution responsible for the design and implementation of R & D & I public policy to boost the innovation capacity in SMIs, through the connection and integration with members of the RIS. This project is intended to design a methodology aimed at public policy for R & D & I to lead, coordinate and direct the RIS of Bolivar state, for the development of innovation capacity in the industrial sector and specifically in the SMIs. xvi This thesis is an experimental investigation of projective type which analyzes the current situation of the Regional Innovation System of the Bolivar state. The analysis of the results is divided into three phases. In the first one, a diagnosis is performed through surveys of SMIs in R & D & I centers and research laboratories belonging to the universities of the region in the area of materials and public and private financial sectors. In such surveys the level of integration with government agencies that define and manage the public policy of R & D & I is assessed. In the second phase, with the diagnosis and processing of the results of the first phase, we proceed to develop an analysis of the strengths, weaknesses, opportunities and threats (SWOT) of the Regional Innovation System, allowing the comprehension of the current status of the relationship of SMIs with research centers, financial institutions and government agencies. With the problems identified it was necessary to design strategies and a model of public policy management of R & D & I for the articulation of the members of the RIS, to support the SMIs. In the third phase a public policy methodology for R & D & I is designed in order to strengthen innovation in SMIs. The methodology is shown through a proposed model that relates to the theories of the innovation process, with models of innovation systems and with the discussions and recommendations made by different researchers and institutions of international cooperation concerning the implementation of policies public for R & D & I to boost innovation capacity in the industrial sector. The methodology designed is compared with different models of public policy implementation for R & D & I. Each model is represented in a figure and its current situation and the role of the government agency in the implementation of the public policy approach to R & D & I is analyzed. The design of the proposed public policy methodology for R & D & I will provide new knowledge and can be applied to support the progress of R & D & I in the region’s SMIs, as a case study, in order to boost a more competitive economy and reduce the degree of technological dependence. After being evaluated the methodology can be used in the context of big industry and in other regions of Venezuela and can also be applied in other countries with similar characteristics in their industrial structure. xvii The thesis concludes that the development of the innovation capacity in SMIs depends on the design and implementation of the public policy for R & D & I as a catalyst and coordination mechanism of the Regional Innovation System of the Bolivar state.
Resumo:
Este proyecto está desarrollado sobre la seguridad de redes, y más concretamente en la seguridad perimetral. Para mostrar esto se hará una definición teórico-práctica de un sistema de seguridad perimetral. Para ello se ha desglosado el contenido en dos partes fundamentales, la primera incide en la base teórica relativa a la seguridad perimetral y los elementos más importantes que intervienen en ella, y la segunda parte, que es la implantación de un sistema de seguridad perimetral habitual en un entorno empresarial. En la primera parte se exponen los elementos más importantes de la seguridad perimetral, incidiendo en elementos como pueden ser cortafuegos, IDS/IPS, antivirus, proxies, radius, gestores de ancho de banda, etc. Sobre cada uno de ellos se explica su funcionamiento y posible configuración. La segunda parte y más extensa a la vez que práctica, comprende todo el diseño, implantación y gestión de un sistema de seguridad perimetral típico, es decir, el que sería de aplicación para la mayoría de las empresas actuales. En esta segunda parte se encontrarán primeramente las necesidades del cliente y situación actual en lo que a seguridad se refiere, con los cuales se diseñará la arquitectura de red. Para comenzar será necesario definir formalmente unos requisitos previos, para satisfacer estos requisitos se diseñará el mapa de red con los elementos específicos seleccionados. La elección de estos elementos se hará en base a un estudio de mercado para escoger las mejores soluciones de cada fabricante y que más se adecúen a los requisitos del cliente. Una vez ejecutada la implementación, se diseñará un plan de pruebas, realizando las pruebas de casos de uso de los diferentes elementos de seguridad para asegurar su correcto funcionamiento. El siguiente paso, una vez verificado que todos los elementos funcionan de forma correcta, será diseñar un plan de gestión de la plataforma, en el que se detallan las rutinas a seguir en cada elemento para conseguir que su funcionamiento sea óptimo y eficiente. A continuación se diseña una metodología de gestión, en las que se indican los procedimientos de actuación frente a determinadas incidencias de seguridad, como pueden ser fallos en elementos de red, detección de vulnerabilidades, detección de ataques, cambios en políticas de seguridad, etc. Finalmente se detallarán las conclusiones que se obtienen de la realización del presente proyecto. ABSTRACT. This project is based on network security, specifically on security perimeter. To show this, a theoretical and practical definition of a perimeter security system will be done. This content has been broken down into two main parts. The first part is about the theoretical basis on perimeter security and the most important elements that it involves, and the second part is the implementation of a common perimeter security system in a business environment. The first part presents the most important elements of perimeter security, focusing on elements such as firewalls, IDS / IPS, antivirus, proxies, radius, bandwidth managers, etc... The operation and possible configuration of each one will be explained. The second part is larger and more practical. It includes all the design, implementation and management of a typical perimeter security system which could be applied in most businesses nowadays. The current status as far as security is concerned, and the customer needs will be found in this second part. With this information the network architecture will be designed. In the first place, it would be necessary to define formally a prerequisite. To satisfy these requirements the network map will be designed with the specific elements selected. The selection of these elements will be based on a market research to choose the best solutions for each manufacturer and are most suited to customer requirements. After running the implementation, a test plan will be designed by testing each one of the different uses of all the security elements to ensure the correct operation. In the next phase, once the proper work of all the elements has been verified, a management plan platform will be designed. It will contain the details of the routines to follow in each item to make them work optimally and efficiently. Then, a management methodology will be designed, which provides the procedures for action against certain security issues, such as network elements failures, exploit detection, attack detection, security policy changes, etc.. Finally, the conclusions obtained from the implementation of this project will be detailed.
Resumo:
La óptica anidólica es una rama de la óptica cuyo desarrollo comenzó a mediados de la década de 1960. Este relativamente nuevo campo de la óptica se centra en la transferencia eficiente de la luz, algo necesario en muchas aplicaciones, entre las que destacamos los concentradores solares y los sistemas de iluminación. Las soluciones de la óptica clásica a los problemas de la transferencia de energía de la luz sólo son adecuadas cuando los rayos de luz son paraxiales. La condición paraxial no se cumple en la mayoría de las aplicaciones para concentración e iluminación. Esta tesis contiene varios diseños free-form (aquellos que no presentan ninguna simetría, ni de rotación ni lineal) cuyas aplicaciones van destinadas a estos dos campos. El término nonimaging viene del hecho de que estos sistemas ópticos no necesitan formar una imagen del objeto, aunque no formar la imagen no es una condición necesaria. Otra palabra que se utiliza a veces en lugar de nonimaging es la palabra anidólico, viene del griego "an+eidolon" y tiene el mismo significado. La mayoría de los sistemas ópticos diseñados para aplicaciones anidólicas no presentan ninguna simetría, es decir, son free-form (anamórficos). Los sistemas ópticos free-form están siendo especialmente relevantes durante los últimos años gracias al desarrollo de las herramientas para su fabricación como máquinas de moldeo por inyección y el mecanizado multieje. Sin embargo, solo recientemente se han desarrollado técnicas de diseño anidólicas capaces de cumplir con estos grados de libertad. En aplicaciones de iluminación el método SMS3D permite diseñar dos superficies free-form para controlar las fuentes de luz extensas. En los casos en que se requiere una elevada asimetría de la fuente, el objeto o las restricciones volumétricos, las superficies free-form permiten obtener soluciones de mayor eficiencia, o disponer de menos elementos en comparación con las soluciones de simetría de rotación, dado que las superficies free-form tienen más grados de libertad y pueden realizar múltiples funciones debido a su naturaleza anamórfica. Los concentradores anidólicos son muy adecuados para la captación de energía solar, ya que el objetivo no es la reproducción de una imagen exacta del sol, sino sencillamente la captura de su energía. En este momento, el campo de la concentración fotovoltaica (CPV) tiende hacia sistemas de alta concentración con el fin de compensar el gasto de las células solares multi-unión (MJ) utilizadas como receptores, reduciendo su área. El interés en el uso de células MJ radica en su alta eficiencia de conversión. Para obtener sistemas competitivos en aplicaciones terrestres se recurre a sistemas fotovoltaicos de alta concentración (HCPV), con factores de concentración geométrica por encima de 500x. Estos sistemas se componen de dos (o más) elementos ópticos (espejos y/o lentes). En los sistemas presentados a lo largo de este trabajo se presentan ejemplos de concentradores HCPV con elementos reflexivos como etapa primaria, así como concentradores con elementos refractivos (lente de Fresnel). Con la necesidad de aumentar la eficiencia de los sistemas HCPV reales y con el fin de proporcionar la división más eficiente del espectro solar, células conteniendo cuatro o más uniones (con un potencial de alcanzar eficiencias de más del 45% a una concentración de cientos de soles) se exploran hoy en día. En esta tesis se presenta una de las posibles arquitecturas de división del espectro (spectrum-splitting en la literatura anglosajona) que utilizan células de concentración comercial. Otro campo de aplicación de la óptica nonimaging es la iluminación, donde es necesario proporcionar un patrón de distribución de la iluminación específico. La iluminación de estado sólido (SSL), basada en la electroluminiscencia de materiales semiconductores, está proporcionando fuentes de luz para aplicaciones de iluminación general. En la última década, los diodos emisores de luz (LED) de alto brillo han comenzado a reemplazar a las fuentes de luz convencionales debido a la superioridad en la calidad de la luz emitida, elevado tiempo de vida, compacidad y ahorro de energía. Los colimadores utilizados con LEDs deben cumplir con requisitos tales como tener una alta eficiencia, un alto control del haz de luz, una mezcla de color espacial y una gran compacidad. Presentamos un colimador de luz free-form con microestructuras capaz de conseguir buena colimación y buena mezcla de colores con una fuente de LED RGGB. Una buena mezcla de luz es importante no sólo para simplificar el diseño óptico de la luminaria sino también para evitar hacer binning de los chips. La mezcla de luz óptica puede reducir los costes al evitar la modulación por ancho de pulso y otras soluciones electrónicas patentadas para regulación y ajuste de color. Esta tesis consta de cuatro capítulos. Los capítulos que contienen la obra original de esta tesis son precedidos por un capítulo introductorio donde se presentan los conceptos y definiciones básicas de la óptica geométrica y en el cual se engloba la óptica nonimaging. Contiene principios de la óptica no formadora de imagen junto con la descripción de sus problemas y métodos de diseño. Asimismo se describe el método de Superficies Múltiples Simultáneas (SMS), que destaca por su versatilidad y capacidad de controlar varios haces de rayos. Adicionalmente también se describe la integración Köhler y sus aplicaciones en el campo de la energía fotovoltaica. La concentración fotovoltaica y la iluminación de estado sólido son introducidas junto con la revisión de su estado actual. El Segundo y Tercer Capítulo contienen diseños ópticos avanzados con aplicación en la concentración solar principalmente, mientras que el Cuarto Capítulo describe el colimador free-form con surcos que presenta buena mezcla de colores para aplicaciones de iluminación. El Segundo Capítulo describe dos concentradores ópticos HCPV diseñados con el método SMS en tres dimensiones (SMS3D) que llevan a cabo integración Köhler en dos direcciones con el fin de proporcionar una distribución de irradiancia uniforme libre de aberraciones cromáticas sobre la célula solar. Uno de los diseños es el concentrador XXR free-form diseñado con el método SMS3D, donde el espejo primario (X) y la lente secundaria (R) se dividen en cuatro sectores simétricos y llevan a cabo la integración Köhler (proporcionando cuatro unidades del array Köhler), mientras que el espejo intermedio (X) presenta simetría rotacional. Otro concentrador HCPV presentado es el Fresnel-RXI (FRXI) con una lente de Fresnel funcionando como elemento primario (POE) y una lente RXI como elemento óptico secundario (SOE), que presenta configuración 4-fold con el fin de realizar la integración Köhler. Las lentes RXI son dispositivos nonimaging conocidos, pero su aplicación como elemento secundario es novedosa. Los concentradores XXR y FRXI Köhler son ejemplos académicos de muy alta concentración (más de 2,000x, mientras que los sistemas convencionales hoy en día no suelen llegar a 1,000x) preparados para las células solares N-unión (con N>3), que probablemente requerirán una mayor concentración y alta uniformidad espectral de irradiancia con el fin de obtener sistemas CPV terrestres eficientes y rentables. Ambos concentradores están diseñados maximizando funciones de mérito como la eficiencia óptica, el producto concentración-aceptancia (CAP) y la uniformidad de irradiancia sobre la célula libre de la aberración cromática (integración Köhler). El Tercer Capítulo presenta una arquitectura para la división del espectro solar basada en un módulo HCPV con alta concentración (500x) y ángulo de aceptancia alto (>1º) que tiene por objeto reducir ambas fuentes de pérdidas de las células triple unión (3J) comerciales: el uso eficiente del espectro solar y la luz reflejada de los contactos metálicos y de la superficie de semiconductor. El módulo para la división del espectro utiliza el espectro solar más eficiente debido a la combinación de una alta eficiencia de una célula de concentración 3J (GaInP/GaInAs/Ge) y una de contacto posterior (BPC) de concentración de silicio (Si), así como la técnica de confinamiento externo para la recuperación de la luz reflejada por la célula 3J con el fin de ser reabsorbida por la célula. En la arquitectura propuesta, la célula 3J opera con su ganancia de corriente optimizada (concentración geométrica de 500x), mientras que la célula de silicio trabaja cerca de su óptimo también (135x). El módulo de spectrum-splitting consta de una lente de Fresnel plana como POE y un concentrador RXI free-form como SOE con un filtro paso-banda integrado en él. Tanto POE como SOE realizan la integración Köhler para producir homogeneización de luz sobre la célula. El filtro paso banda envía los fotones IR en la banda 900-1,150nm a la célula de silicio. Hay varios aspectos prácticos de la arquitectura del módulo presentado que ayudan a reducir la complejidad de los sistemas spectrum-splitting (el filtro y el secundario forman una sola pieza sólida, ambas células son coplanarias simplificándose el cableado y la disipación de calor, etc.). Prototipos prueba-de-concepto han sido ensamblados y probados a fin de demostrar la fabricabilidad del filtro y su rendimiento cuando se combina con la técnica de reciclaje de luz externa. Los resultados obtenidos se ajustan bastante bien a los modelos y a las simulaciones e invitan al desarrollo de una versión más compleja de este prototipo en el futuro. Dos colimadores sólidos con surcos free-form se presentan en el Cuarto Capítulo. Ambos diseños ópticos están diseñados originalmente usando el método SMS3D. La segunda superficie ópticamente activa está diseñada a posteriori como una superficie con surcos. El diseño inicial de dos espejos (XX) está diseñado como prueba de concepto. En segundo lugar, el diseño RXI free-form es comparable con los colimadores RXI existentes. Se trata de un diseño muy compacto y eficiente que proporciona una muy buena mezcla de colores cuando funciona con LEDs RGB fuera del eje óptico como en los RGB LEDs convencionales. Estos dos diseños son dispositivos free-form diseñados con la intención de mejorar las propiedades de mezcla de colores de los dispositivos no aplanáticos RXI con simetría de revolución y la eficiencia de los aplanáticos, logrando una buena colimación y una buena mezcla de colores. La capacidad de mezcla de colores del dispositivo no-aplanático mejora añadiendo características de un aplanático a su homólogo simétrico sin pérdida de eficiencia. En el caso del diseño basado en RXI, su gran ventaja consiste en su menor coste de fabricación ya que el proceso de metalización puede evitarse. Aunque algunos de los componentes presentan formas muy complejas, los costes de fabricación son relativamente insensibles a la complejidad del molde, especialmente en el caso de la producción en masa (tales como inyección de plástico), ya que el coste del molde se reparte entre todas las piezas fabricadas. Por último, las últimas dos secciones son las conclusiones y futuras líneas de investigación. ABSTRACT Nonimaging optics is a branch of optics whose development began in the mid-1960s. This rather new field of optics focuses on the efficient light transfer necessary in many applications, among which we highlight solar concentrators and illumination systems. The classical optics solutions to the problems of light energy transfer are only appropriate when the light rays are paraxial. The paraxial condition is not met in most applications for the concentration and illumination. This thesis explores several free-form designs (with neither rotational nor linear symmetry) whose applications are intended to cover the above mentioned areas and more. The term nonimaging comes from the fact that these optical systems do not need to form an image of the object, although it is not a necessary condition not to form an image. Another word sometimes used instead of nonimaging is anidolic, and it comes from the Greek “an+eidolon” and has the same meaning. Most of the optical systems designed for nonimaging applications are without any symmetry, i.e. free-form. Free-form optical systems become especially relevant lately with the evolution of free-form tooling (injection molding machines, multi-axis machining techniques, etc.). Nevertheless, only recently there are nonimaging design techniques that are able to meet these degrees of freedom. In illumination applications, the SMS3D method allows designing two free-form surfaces to control very well extended sources. In cases when source, target or volumetric constrains have very asymmetric requirements free-form surfaces are offering solutions with higher efficiency or with fewer elements in comparison with rotationally symmetric solutions, as free-forms have more degrees of freedom and they can perform multiple functions due to their free-form nature. Anidolic concentrators are well suited for the collection of solar energy, because the goal is not the reproduction of an exact image of the sun, but instead the collection of its energy. At this time, Concentration Photovoltaics (CPV) field is turning to high concentration systems in order to compensate the expense of multi-junction (MJ) solar cells used as receivers by reducing its area. Interest in the use of MJ cells lies in their very high conversion efficiency. High Concentration Photovoltaic systems (HCPV) with geometric concentration of more than 500x are required in order to have competitive systems in terrestrial applications. These systems comprise two (or more) optical elements, mirrors and/or lenses. Systems presented in this thesis encompass both main types of HCPV architectures: concentrators with primary reflective element and concentrators with primary refractive element (Fresnel lens). Demand for the efficiency increase of the actual HCPV systems as well as feasible more efficient partitioning of the solar spectrum, leads to exploration of four or more junction solar cells or submodules. They have a potential of reaching over 45% efficiency at concentration of hundreds of suns. One possible architectures of spectrum splitting module using commercial concentration cells is presented in this thesis. Another field of application of nonimaging optics is illumination, where a specific illuminance distribution pattern is required. The Solid State Lighting (SSL) based on semiconductor electroluminescence provides light sources for general illumination applications. In the last decade high-brightness Light Emitting Diodes (LEDs) started replacing conventional light sources due to their superior output light quality, unsurpassed lifetime, compactness and energy savings. Collimators used with LEDs have to meet requirements like high efficiency, high beam control, color and position mixing, as well as a high compactness. We present a free-form collimator with microstructures that performs good collimation and good color mixing with RGGB LED source. Good light mixing is important not only for simplifying luminaire optical design but also for avoiding die binning. Optical light mixing may reduce costs by avoiding pulse-width modulation and other patented electronic solutions for dimming and color tuning. This thesis comprises four chapters. Chapters containing the original work of this thesis are preceded by the introductory chapter that addresses basic concepts and definitions of geometrical optics on which nonimaging is developed. It contains fundamentals of nonimaging optics together with the description of its design problems, principles and methods, and with the Simultaneous Multiple Surface (SMS) method standing out for its versatility and ability to control several bundles of rays. Köhler integration and its applications in the field of photovoltaics are described as well. CPV and SSL fields are introduced together with the review on their background and their current status. Chapter 2 and Chapter 3 contain advanced optical designs with primarily application in solar concentration; meanwhile Chapter 4 portrays the free-form V-groove collimator with good color mixing property for illumination application. Chapter 2 describes two HCPV optical concentrators designed with the SMS method in three dimensions (SMS3D). Both concentrators represent Köhler integrator arrays that provide uniform irradiance distribution free from chromatic aberrations on the solar cell. One of the systems is the XXR free-form concentrator designed with the SMS3D method. The primary mirror (X) of this concentrator and secondary lens (R) are divided in four symmetric sectors (folds) that perform Köhler integration; meanwhile the intermediate mirror (X) is rotationally symmetric. Second HCPV concentrator is the Fresnel-RXI (FRXI) with flat Fresnel lens as the Primary Optical Element (POE) and an RXI lens as the Secondary Optical Element (SOE). This architecture manifests 4-fold configuration for performing Köhler integration (4 array units), as well. The RXI lenses are well-known nonimaging devices, but their application as SOE is novel. Both XXR and FRXI Köhler HCPV concentrators are academic examples of very high concentration (more than 2,000x meanwhile conventional systems nowadays have up to 1,000x) prepared for the near future N-junction (N>3) solar cells. In order to have efficient and cost-effective terrestrial CPV systems, those cells will probably require higher concentrations and high spectral irradiance uniformity. Both concentrators are designed by maximizing merit functions: the optical efficiency, concentration-acceptance angle (CAP) and cell-irradiance uniformity free from chromatic aberrations (Köhler integration). Chapter 3 presents the spectrum splitting architecture based on a HCPV module with high concentration (500x) and high acceptance angle (>1º). This module aims to reduce both sources of losses of the actual commercial triple-junction (3J) solar cells with more efficient use of the solar spectrum and with recovering the light reflected from the 3J cells’ grid lines and semiconductor surface. The solar spectrum is used more efficiently due to the combination of a high efficiency 3J concentration cell (GaInP/GaInAs/Ge) and external Back-Point-Contact (BPC) concentration silicon (Si) cell. By employing external confinement techniques, the 3J cell’s reflections are recovered in order to be re-absorbed by the cell. In the proposed concentrator architecture, the 3J cell operates at its optimized current gain (at geometrical concentration of 500x), while the Si cell works near its optimum, as well (135x). The spectrum splitting module consists of a flat Fresnel lens (as the POE), and a free-form RXI-type concentrator with a band-pass filter embedded in it (as the SOE), both POE and SOE performing Köhler integration to produce light homogenization. The band-pass filter sends the IR photons in the 900-1,150nm band to the Si cell. There are several practical aspects of presented module architecture that help reducing the added complexity of the beam splitting systems: the filter and secondary are forming a single solid piece, both cells are coplanar so the heat management and wiring is simplified, etc. Two proof-of-concept prototypes are assembled and tested in order to prove filter manufacturability and performance, as well as the potential of external light recycling technique. Obtained measurement results agree quite well with models and simulations, and show an opened path to manufacturing of the Fresnel RXI-type secondary concentrator with spectrum splitting strategy. Two free-form solid V-groove collimators are presented in Chapter 4. Both free-form collimators are originally designed with the SMS3D method. The second mirrored optically active surface is converted in a grooved surface a posteriori. Initial two mirror (XX) design is presented as a proof-of-concept. Second, RXI free-form design is comparable with existing RXI collimators as it is a highly compact and a highly efficient design. It performs very good color mixing of the RGGB LED sources placed off-axis like in conventional RGB LEDs. Collimators described here improve color mixing property of the prior art rotationally symmetric no-aplanatic RXI devices, and the efficiency of the aplanatic ones, accomplishing both good collimation and good color mixing. Free-form V-groove collimators enhance the no-aplanatic device's blending capabilities by adding aplanatic features to its symmetric counterpart with no loss in efficiency. Big advantage of the RXI design is its potentially lower manufacturing cost, since the process of metallization may be avoided. Although some components are very complicated for shaping, the manufacturing costs are relatively insensitive to the complexity of the mold especially in the case of mass production (such as plastic injection), as the cost of the mold is spread in many parts. Finally, last two sections are conclusions and future lines of investigation.
Resumo:
A review of the experimental data for natC(n,c) and 12C(n,c) was made to identify the origin of the natC capture cross sections included in evaluated data libraries and to clarify differences observed in neutronic calculations for graphite moderated reactors using different libraries. The performance of the JEFF-3.1.2 and ENDF/B-VII.1 libraries was verified by comparing results of criticality calculations with experimental results obtained for the BR1 reactor. This reactor is an air-cooled reactor with graphite as moderator and is located at the Belgian Nuclear Research Centre SCK-CEN in Mol (Belgium). The results of this study confirm conclusions drawn from neutronic calculations of the High Temperature Engineering Test Reactor (HTTR) in Japan. Furthermore, both BR1 and HTTR calculations support the capture cross section of 12C at thermal energy which is recommended by Firestone and Révay. Additional criticality calculations were carried out in order to illustrate that the natC thermal capture cross section is important for systems with a large amount of graphite. The present study shows that only the evaluation carried out for JENDL-4.0 reflects the current status of the experimental data.
Resumo:
Current studies about nitrous oxide (N2O) emissions from legume crops have raised considerable doubt, observing a high variability between sites (0.03-7.09 kg N2O–N ha−1 y -1) [1]. This high variability has been associated to climate and soil conditions, legume species and soil management practices (e.g. conservation or conventional tillage). Conservation tillage (i.e. no tillage (NT) and minimum tillage (MT)) has spread during the last decades because promotes several positive effects (increase of soil organic content, reduction of soil erosion and enhancement of carbon (C) sequestration). However, these benefits could be partly counterbalanced by negative effects on the release of N2O emissions. Among processes responsible for N2O production and consumption in soils, denitrification plays an importantrole both in tilled and no-tilled ropping systems [2]. Recently, amplification of functional bacterial genes involved in denitrification is being used to examine denitrifiers abundance and evaluate their influence on N2O emissions. NirK and nirS are functional genes encoding the cytochrome cd1 and copper nitrite reductase, which is the key enzyme regulating the denitrification process.
Resumo:
The recent continuous development of Cooperative ITS has resulted in several initiatives which focus on different parts of the Cooperative environment landscape. The FOTsis project focuses on the infrastructure side of the Cooperative environment and will deploy and test 7 services designed to maximise the benefits of the integration of the road operator and infrastructure-based information providers into the ITS environment. This integration can take place in any of the stages of data collection, processing and actuations of the services, but also support and trigger external tasks such as operations of the emergency response entities, etc. This paper describes the current status of the project and focuses on the specification of the supporting architecture to the services tested: references, a brief outline of the requirements’ definition, and the FOTsis architecture proposal, with some conclusions about the architecture tests conducted. The outlook on the project’s next steps is given in the last section of the paper.
Resumo:
Una apropiada evaluación de los márgenes de seguridad de una instalación nuclear, por ejemplo, una central nuclear, tiene en cuenta todas las incertidumbres que afectan a los cálculos de diseño, funcionanmiento y respuesta ante accidentes de dicha instalación. Una fuente de incertidumbre son los datos nucleares, que afectan a los cálculos neutrónicos, de quemado de combustible o activación de materiales. Estos cálculos permiten la evaluación de las funciones respuesta esenciales para el funcionamiento correcto durante operación, y también durante accidente. Ejemplos de esas respuestas son el factor de multiplicación neutrónica o el calor residual después del disparo del reactor. Por tanto, es necesario evaluar el impacto de dichas incertidumbres en estos cálculos. Para poder realizar los cálculos de propagación de incertidumbres, es necesario implementar metodologías que sean capaces de evaluar el impacto de las incertidumbres de estos datos nucleares. Pero también es necesario conocer los datos de incertidumbres disponibles para ser capaces de manejarlos. Actualmente, se están invirtiendo grandes esfuerzos en mejorar la capacidad de analizar, manejar y producir datos de incertidumbres, en especial para isótopos importantes en reactores avanzados. A su vez, nuevos programas/códigos están siendo desarrollados e implementados para poder usar dichos datos y analizar su impacto. Todos estos puntos son parte de los objetivos del proyecto europeo ANDES, el cual ha dado el marco de trabajo para el desarrollo de esta tesis doctoral. Por tanto, primero se ha llevado a cabo una revisión del estado del arte de los datos nucleares y sus incertidumbres, centrándose en los tres tipos de datos: de decaimiento, de rendimientos de fisión y de secciones eficaces. A su vez, se ha realizado una revisión del estado del arte de las metodologías para la propagación de incertidumbre de estos datos nucleares. Dentro del Departamento de Ingeniería Nuclear (DIN) se propuso una metodología para la propagación de incertidumbres en cálculos de evolución isotópica, el Método Híbrido. Esta metodología se ha tomado como punto de partida para esta tesis, implementando y desarrollando dicha metodología, así como extendiendo sus capacidades. Se han analizado sus ventajas, inconvenientes y limitaciones. El Método Híbrido se utiliza en conjunto con el código de evolución isotópica ACAB, y se basa en el muestreo por Monte Carlo de los datos nucleares con incertidumbre. En esta metodología, se presentan diferentes aproximaciones según la estructura de grupos de energía de las secciones eficaces: en un grupo, en un grupo con muestreo correlacionado y en multigrupos. Se han desarrollado diferentes secuencias para usar distintas librerías de datos nucleares almacenadas en diferentes formatos: ENDF-6 (para las librerías evaluadas), COVERX (para las librerías en multigrupos de SCALE) y EAF (para las librerías de activación). Gracias a la revisión del estado del arte de los datos nucleares de los rendimientos de fisión se ha identificado la falta de una información sobre sus incertidumbres, en concreto, de matrices de covarianza completas. Además, visto el renovado interés por parte de la comunidad internacional, a través del grupo de trabajo internacional de cooperación para evaluación de datos nucleares (WPEC) dedicado a la evaluación de las necesidades de mejora de datos nucleares mediante el subgrupo 37 (SG37), se ha llevado a cabo una revisión de las metodologías para generar datos de covarianza. Se ha seleccionando la actualización Bayesiana/GLS para su implementación, y de esta forma, dar una respuesta a dicha falta de matrices completas para rendimientos de fisión. Una vez que el Método Híbrido ha sido implementado, desarrollado y extendido, junto con la capacidad de generar matrices de covarianza completas para los rendimientos de fisión, se han estudiado diferentes aplicaciones nucleares. Primero, se estudia el calor residual tras un pulso de fisión, debido a su importancia para cualquier evento después de la parada/disparo del reactor. Además, se trata de un ejercicio claro para ver la importancia de las incertidumbres de datos de decaimiento y de rendimientos de fisión junto con las nuevas matrices completas de covarianza. Se han estudiado dos ciclos de combustible de reactores avanzados: el de la instalación europea para transmutación industrial (EFIT) y el del reactor rápido de sodio europeo (ESFR), en los cuales se han analizado el impacto de las incertidumbres de los datos nucleares en la composición isotópica, calor residual y radiotoxicidad. Se han utilizado diferentes librerías de datos nucleares en los estudios antreriores, comparando de esta forma el impacto de sus incertidumbres. A su vez, mediante dichos estudios, se han comparando las distintas aproximaciones del Método Híbrido y otras metodologías para la porpagación de incertidumbres de datos nucleares: Total Monte Carlo (TMC), desarrollada en NRG por A.J. Koning y D. Rochman, y NUDUNA, desarrollada en AREVA GmbH por O. Buss y A. Hoefer. Estas comparaciones demostrarán las ventajas del Método Híbrido, además de revelar sus limitaciones y su rango de aplicación. ABSTRACT For an adequate assessment of safety margins of nuclear facilities, e.g. nuclear power plants, it is necessary to consider all possible uncertainties that affect their design, performance and possible accidents. Nuclear data are a source of uncertainty that are involved in neutronics, fuel depletion and activation calculations. These calculations can predict critical response functions during operation and in the event of accident, such as decay heat and neutron multiplication factor. Thus, the impact of nuclear data uncertainties on these response functions needs to be addressed for a proper evaluation of the safety margins. Methodologies for performing uncertainty propagation calculations need to be implemented in order to analyse the impact of nuclear data uncertainties. Nevertheless, it is necessary to understand the current status of nuclear data and their uncertainties, in order to be able to handle this type of data. Great eórts are underway to enhance the European capability to analyse/process/produce covariance data, especially for isotopes which are of importance for advanced reactors. At the same time, new methodologies/codes are being developed and implemented for using and evaluating the impact of uncertainty data. These were the objectives of the European ANDES (Accurate Nuclear Data for nuclear Energy Sustainability) project, which provided a framework for the development of this PhD Thesis. Accordingly, first a review of the state-of-the-art of nuclear data and their uncertainties is conducted, focusing on the three kinds of data: decay, fission yields and cross sections. A review of the current methodologies for propagating nuclear data uncertainties is also performed. The Nuclear Engineering Department of UPM has proposed a methodology for propagating uncertainties in depletion calculations, the Hybrid Method, which has been taken as the starting point of this thesis. This methodology has been implemented, developed and extended, and its advantages, drawbacks and limitations have been analysed. It is used in conjunction with the ACAB depletion code, and is based on Monte Carlo sampling of variables with uncertainties. Different approaches are presented depending on cross section energy-structure: one-group, one-group with correlated sampling and multi-group. Differences and applicability criteria are presented. Sequences have been developed for using different nuclear data libraries in different storing-formats: ENDF-6 (for evaluated libraries) and COVERX (for multi-group libraries of SCALE), as well as EAF format (for activation libraries). A revision of the state-of-the-art of fission yield data shows inconsistencies in uncertainty data, specifically with regard to complete covariance matrices. Furthermore, the international community has expressed a renewed interest in the issue through the Working Party on International Nuclear Data Evaluation Co-operation (WPEC) with the Subgroup (SG37), which is dedicated to assessing the need to have complete nuclear data. This gives rise to this review of the state-of-the-art of methodologies for generating covariance data for fission yields. Bayesian/generalised least square (GLS) updating sequence has been selected and implemented to answer to this need. Once the Hybrid Method has been implemented, developed and extended, along with fission yield covariance generation capability, different applications are studied. The Fission Pulse Decay Heat problem is tackled first because of its importance during events after shutdown and because it is a clean exercise for showing the impact and importance of decay and fission yield data uncertainties in conjunction with the new covariance data. Two fuel cycles of advanced reactors are studied: the European Facility for Industrial Transmutation (EFIT) and the European Sodium Fast Reactor (ESFR), and response function uncertainties such as isotopic composition, decay heat and radiotoxicity are addressed. Different nuclear data libraries are used and compared. These applications serve as frameworks for comparing the different approaches of the Hybrid Method, and also for comparing with other methodologies: Total Monte Carlo (TMC), developed at NRG by A.J. Koning and D. Rochman, and NUDUNA, developed at AREVA GmbH by O. Buss and A. Hoefer. These comparisons reveal the advantages, limitations and the range of application of the Hybrid Method.
Resumo:
El estudio de los ciclos del combustible nuclear requieren de herramientas computacionales o "códigos" versátiles para dar respuestas al problema multicriterio de evaluar los actuales ciclos o las capacidades de las diferentes estrategias y escenarios con potencial de desarrollo en a nivel nacional, regional o mundial. Por otra parte, la introducción de nuevas tecnologías para reactores y procesos industriales hace que los códigos existentes requieran nuevas capacidades para evaluar la transición del estado actual del ciclo del combustible hacia otros más avanzados y sostenibles. Brevemente, esta tesis se centra en dar respuesta a las principales preguntas, en términos económicos y de recursos, al análisis de escenarios de ciclos de combustible, en particular, para el análisis de los diferentes escenarios del ciclo del combustible de relativa importancia para España y Europa. Para alcanzar este objetivo ha sido necesaria la actualización y el desarrollo de nuevas capacidades del código TR_EVOL (Transition Evolution code). Este trabajo ha sido desarrollado en el Programa de Innovación Nuclear del CIEMAT desde el año 2010. Esta tesis se divide en 6 capítulos. El primer capítulo ofrece una visión general del ciclo de combustible nuclear, sus principales etapas y los diferentes tipos utilizados en la actualidad o en desarrollo para el futuro. Además, se describen las fuentes de material nuclear que podrían ser utilizadas como combustible (uranio y otros). También se puntualizan brevemente una serie de herramientas desarrolladas para el estudio de estos ciclos de combustible nuclear. El capítulo 2 está dirigido a dar una idea básica acerca de los costes involucrados en la generación de electricidad mediante energía nuclear. Aquí se presentan una clasificación de estos costos y sus estimaciones, obtenidas en la bibliografía, y que han sido evaluadas y utilizadas en esta tesis. Se ha incluido también una breve descripción del principal indicador económico utilizado en esta tesis, el “coste nivelado de la electricidad”. El capítulo 3 se centra en la descripción del código de simulación desarrollado para el estudio del ciclo del combustible nuclear, TR_EVOL, que ha sido diseñado para evaluar diferentes opciones de ciclos de combustibles. En particular, pueden ser evaluados las diversos reactores con, posiblemente, diferentes tipos de combustibles y sus instalaciones del ciclo asociadas. El módulo de evaluaciones económica de TR_EVOL ofrece el coste nivelado de la electricidad haciendo uso de las cuatro fuentes principales de información económica y de la salida del balance de masas obtenido de la simulación del ciclo en TR_EVOL. Por otra parte, la estimación de las incertidumbres en los costes también puede ser efectuada por el código. Se ha efectuado un proceso de comprobación cruzada de las funcionalidades del código y se descrine en el Capítulo 4. El proceso se ha aplicado en cuatro etapas de acuerdo con las características más importantes de TR_EVOL, balance de masas, composición isotópica y análisis económico. Así, la primera etapa ha consistido en el balance masas del ciclo de combustible nuclear actual de España. La segunda etapa se ha centrado en la comprobación de la composición isotópica del flujo de masas mediante el la simulación del ciclo del combustible definido en el proyecto CP-ESFR UE. Las dos últimas etapas han tenido como objetivo validar el módulo económico. De este modo, en la tercera etapa han sido evaluados los tres principales costes (financieros, operación y mantenimiento y de combustible) y comparados con los obtenidos por el proyecto ARCAS, omitiendo los costes del fin del ciclo o Back-end, los que han sido evaluado solo en la cuarta etapa, haciendo uso de costes unitarios y parámetros obtenidos a partir de la bibliografía. En el capítulo 5 se analizan dos grupos de opciones del ciclo del combustible nuclear de relevante importancia, en términos económicos y de recursos, para España y Europa. Para el caso español, se han simulado dos grupos de escenarios del ciclo del combustible, incluyendo estrategias de reproceso y extensión de vida de los reactores. Este análisis se ha centrado en explorar las ventajas y desventajas de reprocesado de combustible irradiado en un país con una “relativa” pequeña cantidad de reactores nucleares. Para el grupo de Europa se han tratado cuatro escenarios, incluyendo opciones de transmutación. Los escenarios incluyen los reactores actuales utilizando la tecnología reactor de agua ligera y ciclo abierto, un reemplazo total de los reactores actuales con reactores rápidos que queman combustible U-Pu MOX y dos escenarios del ciclo del combustible con transmutación de actínidos minoritarios en una parte de los reactores rápidos o en sistemas impulsados por aceleradores dedicados a transmutación. Finalmente, el capítulo 6 da las principales conclusiones obtenidas de esta tesis y los trabajos futuros previstos en el campo del análisis de ciclos de combustible nuclear. ABSTRACT The study of the nuclear fuel cycle requires versatile computational tools or “codes” to provide answers to the multicriteria problem of assessing current nuclear fuel cycles or the capabilities of different strategies and scenarios with potential development in a country, region or at world level. Moreover, the introduction of new technologies for reactors and industrial processes makes the existing codes to require new capabilities to assess the transition from current status of the fuel cycle to the more advanced and sustainable ones. Briefly, this thesis is focused in providing answers to the main questions about resources and economics in fuel cycle scenario analyses, in particular for the analysis of different fuel cycle scenarios with relative importance for Spain and Europe. The upgrade and development of new capabilities of the TR_EVOL code (Transition Evolution code) has been necessary to achieve this goal. This work has been developed in the Nuclear Innovation Program at CIEMAT since year 2010. This thesis is divided in 6 chapters. The first one gives an overview of the nuclear fuel cycle, its main stages and types currently used or in development for the future. Besides the sources of nuclear material that could be used as fuel (uranium and others) are also viewed here. A number of tools developed for the study of these nuclear fuel cycles are also briefly described in this chapter. Chapter 2 is aimed to give a basic idea about the cost involved in the electricity generation by means of the nuclear energy. The main classification of these costs and their estimations given by bibliography, which have been evaluated in this thesis, are presented. A brief description of the Levelized Cost of Electricity, the principal economic indicator used in this thesis, has been also included. Chapter 3 is focused on the description of the simulation tool TR_EVOL developed for the study of the nuclear fuel cycle. TR_EVOL has been designed to evaluate different options for the fuel cycle scenario. In particular, diverse nuclear power plants, having possibly different types of fuels and the associated fuel cycle facilities can be assessed. The TR_EVOL module for economic assessments provides the Levelized Cost of Electricity making use of the TR_EVOL mass balance output and four main sources of economic information. Furthermore, uncertainties assessment can be also carried out by the code. A cross checking process of the performance of the code has been accomplished and it is shown in Chapter 4. The process has been applied in four stages according to the most important features of TR_EVOL. Thus, the first stage has involved the mass balance of the current Spanish nuclear fuel cycle. The second stage has been focused in the isotopic composition of the mass flow using the fuel cycle defined in the EU project CP-ESFR. The last two stages have been aimed to validate the economic module. In the third stage, the main three generation costs (financial cost, O&M and fuel cost) have been assessed and compared to those obtained by ARCAS project, omitting the back-end costs. This last cost has been evaluated alone in the fourth stage, making use of some unit cost and parameters obtained from the bibliography. In Chapter 5 two groups of nuclear fuel cycle options with relevant importance for Spain and Europe are analyzed in economic and resources terms. For the Spanish case, two groups of fuel cycle scenarios have been simulated including reprocessing strategies and life extension of the current reactor fleet. This analysis has been focused on exploring the advantages and disadvantages of spent fuel reprocessing in a country with relatively small amount of nuclear power plants. For the European group, four fuel cycle scenarios involving transmutation options have been addressed. Scenarios include the current fleet using Light Water Reactor technology and open fuel cycle, a full replacement of the initial fleet with Fast Reactors burning U-Pu MOX fuel and two fuel cycle scenarios with Minor Actinide transmutation in a fraction of the FR fleet or in dedicated Accelerator Driven Systems. Finally, Chapter 6 gives the main conclusions obtained from this thesis and the future work foreseen in the field of nuclear fuel cycle analysis.