7 resultados para Osso homólogo ultracongelado
em Universidad Politécnica de Madrid
Resumo:
El Real Decreto 1627/97 sobre disposiciones mínimas en materia de seguridad y salud en las obras de construcción, dictado en aplicación de la Directiva europea 92/57/CEE, establece la obligación de contar, tanto en la fase de redacción de proyecto como en la de ejecución de obra, con un coordinador en materia de seguridad y salud, esto es, un “técnico competente”1 que, desde el lado de la propiedad, desempeñe funciones de control sobre la actuación preventiva de los proyectistas y empresas constructoras participantes en ambos procesos. Dicha labor de control, tal y como veremos más adelante, no se limita a una mera tarea de supervisión de la práctica preventiva de empresas y proyectistas, sino que, yendo más allá, exige la participación activa del coordinador en la validación expresa de los procedimientos organizativos de carácter preventivo que vayan adoptando dichos agentes a lo largo de sus respectivas actuaciones. Si bien la presencia real del coordinador en fase de proyecto ha quedado, de manera poco justificada, relegada a aquellos casos singulares que demandan la participación de diversos especialistas, su homólogo en fase de ejecución es, actualmente, una figura habitual en la práctica totalidad de las obras de construcción sobre cuya capacitación y cometidos persisten, aún hoy, interpretaciones muy diversas que conviene analizar de manera detallada.
Resumo:
The general objective of this work is to analyze the regulatory processes underlying flowering transition and inflorescence and flower development in grapevine. Most of these crucial developmental events take place within buds growing during two seasons in two consecutive years. During the first season, the shoot apical meristem within the bud differentiates all the basic elements of the shoot including flowering transition in lateral primordia and development of inflorescence primordia. These events practically end with bud dormancy. The second season, buds resume shoot growth associated to flower formation and development. In grapevine, the lateral meristems can give rise either to tendril or inflorescence primordia that are homologous organs. With this purpose, we performed global transcriptome analyses along the bud annual cycle and during inflorescence and tendril development. In addition, we approach the genomic analysis of the MIKC type MADS-box gene family in grapevine to identify all its members and assign them putative biological functions. Regarding buds developmental cycle, the results indicate that the main factors explaining the global gene expression differences were the processes of bud dormancy and active growth as well as stress responses. Non dormant buds exhibited up-regulation in functional categories typical of actively proliferating and growing cells (photosynthesis, cell cycle regulation, chromatin assembly) whereas in dormant ones the main functional categories up-regulated were associated to stress response pathways together with transcripts related to starch catabolism. Major transcriptional changes during the dormancy period were associated to the para/endodormancy, endo/ecodormancy and ecodormancy/bud break transitions. Global transcriptional analyses along tendril and inflorescence development suggested that these two homologous organs share a common transcriptional program related to cell proliferation functions. Both structures showed a progressive decrease in the expression of categories such as cell-cycle, auxin metabolism/signaling, DNA metabolism, chromatin assembly and a cluster of five transcripts belonging to the GROWTH-REGULATING FACTOR (GRF) transcription factor family, that are known to control cell proliferation in other species and determine the size of lateral organs. However, they also showed organ specific transcriptional programs that can be related to their differential organ structure and function. Tendrils showed higher transcription of genes related to photosynthesis, hormone signaling and secondary metabolism than inflorescences, while inflorescences have higher transcriptional activity for genes encoding transcription factors (especially those belonging to the MADS-box gene family). Further analysis along inflorescence development evidenced the relevance of additional functions likely related to processes of flower development such as fatty acid and lipid metabolism, jasmonate signaling and oxylipin biosynthesis. The transcriptional analyses performed highlighted the relevance of several groups of transcriptional regulators in the developmental processes studied. The expression profiles along bud development revealed significant differences for some MADS-box subfamilies in relation to other plant species, like the members of the FLC and SVP subfamilies suggesting new roles for these groups in grapevine. In this way, it was found that VvFLC2 and VvAGL15.1 could participate, together with some members of the SPL-L family, in dormancy regulation, as was shown for some of them in other woody plants. Similarly, the expression patterns of the VvFLC1, VvFUL, VvSOC1.1 (together with VvFT, VvMFT1 and VFL) genes could indicate that they play a role in flowering transition in grapevine, in parallel to their roles in other plant systems. The expression levels of VFL, the grapevine LEAFY homolog, could be crucial to specify the development of inflorescence and flower meristems instead of tendril meristems. MADS-box genes VvAP3.1 and 2, VvPI, VvAG1 and 3, VvSEP1-4, as well as VvBS1 and 2 are likely associated with the events of flower meristems and flower organs differentiation, while VvAP1 and VvFUL-L (together with VvSOC1.1, VvAGL6.2) could be involved on tendril development given their expression patterns. In addition, the biological function ofVvAP1 and VvTFL1A was analyzed using a gene silencing approach in transgenic grapevine plants. Our preliminary results suggested a possible role for both genes in the initiation and differentiation of tendrils. Finally, the genomic analysis of the MADS-box gene family in grapevine revealed differential features regarding number and expression pattern of genes putatively involved in the flowering transition process as compared to those involved in the specification of flower and fruit organ identity. Altogether, the results obtained allow identifying putative candidate genes and pathways regulating grapevine reproductive developmental processes paving the way to future experiments demonstrating specific gene biological functions. RESUMEN El objetivo general de este trabajo es analizar los procesos regulatorios subyacentes a la inducción floral así como al desarrollo de la inflorescencia y la flor en la vid. La mayor parte de estos eventos cruciales tienen lugar en las yemas a lo largo de dos estaciones de crecimiento consecutivas. Durante la primera estación, el meristemo apical contenido en la yema diferencia los elementos básicos del pámpano, lo cual incluye la inducción de la floración en los meristemos laterales y el subsiguiente desarrollo de primordios de inflorescencia. Estos procesos prácticamente cesan con la entrada en dormición de la yema. En la segunda estación, se reanuda el crecimiento del pámpano acompañado por la formación y desarrollo de las flores. En la vid, los meristemos laterales pueden dar lugar a primordios de inflorescencia o de zarcillo que son considerados órganos homólogos. Con este objetivo llevamos a cabo un estudio a nivel del transcriptoma de la yema a lo largo de su ciclo anual, así como a lo largo del desarrollo de la inflorescencia y del zarcillo. Además realizamos un análisis genómico de la familia MADS de factores transcripcionales (concretamente aquellos del tipo MIKC) para identificar todos sus miembros y tratar de asignarles posibles funciones biológicas. En cuanto al ciclo de desarrollo de la yema, los resultados indican que los principales factores que explican las diferencias globales en la expresión génica fueron los procesos de dormición de la yema y el crecimiento activo junto con las respuestas a diversos tipos de estrés. Las yemas no durmientes mostraron un incremento en la expresión de genes contenidos en categorías funcionales típicas de células en proliferación y crecimiento activo (como fotosíntesis, regulación del ciclo celular, ensamblaje de cromatina), mientras que en las yemas durmientes, las principales categorías funcionales activadas estaban asociadas a respuestas a estrés, así como con el catabolismo de almidón. Los mayores cambios observados a nivel de transcriptoma en la yema coincidieron con las transiciones de para/endodormición, endo/ecodormición y ecodormición/brotación. Los análisis transcripcionales globales a lo largo del desarrollo del zarcillo y de la inflorescencia sugirieron que estos dos órganos homólogos comparten un programa transcripcional común, relacionado con funciones de proliferación celular. Ambas estructuras mostraron un descenso progresivo en la expresión de genes pertenecientes a categorías funcionales como regulación del ciclo celular, metabolismo/señalización por auxinas, metabolismo de ADN, ensamblaje de cromatina y un grupo de cinco tránscritos pertenecientes a la familia de factores transcripcionales GROWTH-REGULATING FACTOR (GRF), que han sido asociados con el control de la proliferación celular y en determinar el tamaño de los órganos laterales en otras especies. Sin embargo, también pusieron de manifiesto programas transcripcionales que podrían estar relacionados con la diferente estructura y función de dichos órganos. Los zarcillos mostraron mayor actividad transcripcional de genes relacionados con fotosíntesis, señalización hormonal y metabolismo secundario que las inflorescencias, mientras que éstas presentaron mayor actividad transcripcional de genes codificantes de factores de transcripción (especialmente los pertenecientes a la familia MADS-box). Análisis adicionales a lo largo del desarrollo de la inflorescencia evidenciaron la relevancia de otras funciones posiblemente relacionadas con el desarrollo floral, como el metabolismo de lípidos y ácidos grasos, la señalización mediada por jasmonato y la biosíntesis de oxilipinas. Los análisis transcripcionales llevados a cabo pusieron de manifiesto la relevancia de varios grupos de factores transcripcionales en los procesos estudiados. Los perfiles de expresión estudiados a lo largo del desarrollo de la yema mostraron diferencias significativas en algunas de las subfamilias de genes MADS con respecto a otras especies vegetales, como las observadas en los miembros de las subfamilias FLC y SVP, lo cual sugiere que podrían desempeñar nuevas funciones en la vid. En este sentido, se encontró que los genes VvFLC2 y VvAGL15.1 podrían participar, junto con algunos miembros de la familia SPL-L, en la regulación de la dormición. De un modo similar, los patrones de expresión de los genes VvFLC1, VvFUL, VvSOC1.1 (junto con VvFT, VvMFT1 y VFL) podría indicar que desempeñan un papel en la regulación de la inducción de la floración en la vid, como se ha observado en otros sistemas vegetales. Los niveles de expresión de VFL, el homólogo en vid del gen LEAFY de A. thaliana podrían ser cruciales para la especificación del desarrollo de meristemos de inflorescencia y flor en lugar de meristemos de zarcillo. Los genes VvAP3.1 y 2, VvPI, VvAG1 y 3, VvSEP1-4, así como VvBS1 y 2 parecen estar asociados con los eventos de diferenciación de meristemos y órganos florales, mientras que VvAP1 y VvFUL-L (junto con VvSOC1.1 y VvAGL6.2) podrían estar implicados en el desarrollo del zarcillo dados sus patrones de expresión. Adicionalmente, se analizó la función biológica de los genes VvAP1 y VvTFL1A por medio de una estrategia de silenciamiento génico. Los datos preliminares sugieren un posible papel para ambos genes en la iniciación y diferenciación de los zarcillos. Finalmente, el análisis genómico de la familia MADS en vid evidenció diferencias con respecto a otras especies vegetales en cuanto a número de miembros y patrón de expresión en genes supuestamente implicados en la inducción de la floración, en comparación con aquellos relacionados con la especificación de identidad de órganos florales y desarrollo del fruto. En conjunto, los resultados obtenidos han permitido identificar posibles rutas y genes candidatos a participar en la regulación de los procesos de desarrollo reproductivo de la vid, sentando las bases de futuros experimentos encaminados a conocer la funciones biológicas de genes específicos.
Resumo:
La óptica anidólica es una rama de la óptica cuyo desarrollo comenzó a mediados de la década de 1960. Este relativamente nuevo campo de la óptica se centra en la transferencia eficiente de la luz, algo necesario en muchas aplicaciones, entre las que destacamos los concentradores solares y los sistemas de iluminación. Las soluciones de la óptica clásica a los problemas de la transferencia de energía de la luz sólo son adecuadas cuando los rayos de luz son paraxiales. La condición paraxial no se cumple en la mayoría de las aplicaciones para concentración e iluminación. Esta tesis contiene varios diseños free-form (aquellos que no presentan ninguna simetría, ni de rotación ni lineal) cuyas aplicaciones van destinadas a estos dos campos. El término nonimaging viene del hecho de que estos sistemas ópticos no necesitan formar una imagen del objeto, aunque no formar la imagen no es una condición necesaria. Otra palabra que se utiliza a veces en lugar de nonimaging es la palabra anidólico, viene del griego "an+eidolon" y tiene el mismo significado. La mayoría de los sistemas ópticos diseñados para aplicaciones anidólicas no presentan ninguna simetría, es decir, son free-form (anamórficos). Los sistemas ópticos free-form están siendo especialmente relevantes durante los últimos años gracias al desarrollo de las herramientas para su fabricación como máquinas de moldeo por inyección y el mecanizado multieje. Sin embargo, solo recientemente se han desarrollado técnicas de diseño anidólicas capaces de cumplir con estos grados de libertad. En aplicaciones de iluminación el método SMS3D permite diseñar dos superficies free-form para controlar las fuentes de luz extensas. En los casos en que se requiere una elevada asimetría de la fuente, el objeto o las restricciones volumétricos, las superficies free-form permiten obtener soluciones de mayor eficiencia, o disponer de menos elementos en comparación con las soluciones de simetría de rotación, dado que las superficies free-form tienen más grados de libertad y pueden realizar múltiples funciones debido a su naturaleza anamórfica. Los concentradores anidólicos son muy adecuados para la captación de energía solar, ya que el objetivo no es la reproducción de una imagen exacta del sol, sino sencillamente la captura de su energía. En este momento, el campo de la concentración fotovoltaica (CPV) tiende hacia sistemas de alta concentración con el fin de compensar el gasto de las células solares multi-unión (MJ) utilizadas como receptores, reduciendo su área. El interés en el uso de células MJ radica en su alta eficiencia de conversión. Para obtener sistemas competitivos en aplicaciones terrestres se recurre a sistemas fotovoltaicos de alta concentración (HCPV), con factores de concentración geométrica por encima de 500x. Estos sistemas se componen de dos (o más) elementos ópticos (espejos y/o lentes). En los sistemas presentados a lo largo de este trabajo se presentan ejemplos de concentradores HCPV con elementos reflexivos como etapa primaria, así como concentradores con elementos refractivos (lente de Fresnel). Con la necesidad de aumentar la eficiencia de los sistemas HCPV reales y con el fin de proporcionar la división más eficiente del espectro solar, células conteniendo cuatro o más uniones (con un potencial de alcanzar eficiencias de más del 45% a una concentración de cientos de soles) se exploran hoy en día. En esta tesis se presenta una de las posibles arquitecturas de división del espectro (spectrum-splitting en la literatura anglosajona) que utilizan células de concentración comercial. Otro campo de aplicación de la óptica nonimaging es la iluminación, donde es necesario proporcionar un patrón de distribución de la iluminación específico. La iluminación de estado sólido (SSL), basada en la electroluminiscencia de materiales semiconductores, está proporcionando fuentes de luz para aplicaciones de iluminación general. En la última década, los diodos emisores de luz (LED) de alto brillo han comenzado a reemplazar a las fuentes de luz convencionales debido a la superioridad en la calidad de la luz emitida, elevado tiempo de vida, compacidad y ahorro de energía. Los colimadores utilizados con LEDs deben cumplir con requisitos tales como tener una alta eficiencia, un alto control del haz de luz, una mezcla de color espacial y una gran compacidad. Presentamos un colimador de luz free-form con microestructuras capaz de conseguir buena colimación y buena mezcla de colores con una fuente de LED RGGB. Una buena mezcla de luz es importante no sólo para simplificar el diseño óptico de la luminaria sino también para evitar hacer binning de los chips. La mezcla de luz óptica puede reducir los costes al evitar la modulación por ancho de pulso y otras soluciones electrónicas patentadas para regulación y ajuste de color. Esta tesis consta de cuatro capítulos. Los capítulos que contienen la obra original de esta tesis son precedidos por un capítulo introductorio donde se presentan los conceptos y definiciones básicas de la óptica geométrica y en el cual se engloba la óptica nonimaging. Contiene principios de la óptica no formadora de imagen junto con la descripción de sus problemas y métodos de diseño. Asimismo se describe el método de Superficies Múltiples Simultáneas (SMS), que destaca por su versatilidad y capacidad de controlar varios haces de rayos. Adicionalmente también se describe la integración Köhler y sus aplicaciones en el campo de la energía fotovoltaica. La concentración fotovoltaica y la iluminación de estado sólido son introducidas junto con la revisión de su estado actual. El Segundo y Tercer Capítulo contienen diseños ópticos avanzados con aplicación en la concentración solar principalmente, mientras que el Cuarto Capítulo describe el colimador free-form con surcos que presenta buena mezcla de colores para aplicaciones de iluminación. El Segundo Capítulo describe dos concentradores ópticos HCPV diseñados con el método SMS en tres dimensiones (SMS3D) que llevan a cabo integración Köhler en dos direcciones con el fin de proporcionar una distribución de irradiancia uniforme libre de aberraciones cromáticas sobre la célula solar. Uno de los diseños es el concentrador XXR free-form diseñado con el método SMS3D, donde el espejo primario (X) y la lente secundaria (R) se dividen en cuatro sectores simétricos y llevan a cabo la integración Köhler (proporcionando cuatro unidades del array Köhler), mientras que el espejo intermedio (X) presenta simetría rotacional. Otro concentrador HCPV presentado es el Fresnel-RXI (FRXI) con una lente de Fresnel funcionando como elemento primario (POE) y una lente RXI como elemento óptico secundario (SOE), que presenta configuración 4-fold con el fin de realizar la integración Köhler. Las lentes RXI son dispositivos nonimaging conocidos, pero su aplicación como elemento secundario es novedosa. Los concentradores XXR y FRXI Köhler son ejemplos académicos de muy alta concentración (más de 2,000x, mientras que los sistemas convencionales hoy en día no suelen llegar a 1,000x) preparados para las células solares N-unión (con N>3), que probablemente requerirán una mayor concentración y alta uniformidad espectral de irradiancia con el fin de obtener sistemas CPV terrestres eficientes y rentables. Ambos concentradores están diseñados maximizando funciones de mérito como la eficiencia óptica, el producto concentración-aceptancia (CAP) y la uniformidad de irradiancia sobre la célula libre de la aberración cromática (integración Köhler). El Tercer Capítulo presenta una arquitectura para la división del espectro solar basada en un módulo HCPV con alta concentración (500x) y ángulo de aceptancia alto (>1º) que tiene por objeto reducir ambas fuentes de pérdidas de las células triple unión (3J) comerciales: el uso eficiente del espectro solar y la luz reflejada de los contactos metálicos y de la superficie de semiconductor. El módulo para la división del espectro utiliza el espectro solar más eficiente debido a la combinación de una alta eficiencia de una célula de concentración 3J (GaInP/GaInAs/Ge) y una de contacto posterior (BPC) de concentración de silicio (Si), así como la técnica de confinamiento externo para la recuperación de la luz reflejada por la célula 3J con el fin de ser reabsorbida por la célula. En la arquitectura propuesta, la célula 3J opera con su ganancia de corriente optimizada (concentración geométrica de 500x), mientras que la célula de silicio trabaja cerca de su óptimo también (135x). El módulo de spectrum-splitting consta de una lente de Fresnel plana como POE y un concentrador RXI free-form como SOE con un filtro paso-banda integrado en él. Tanto POE como SOE realizan la integración Köhler para producir homogeneización de luz sobre la célula. El filtro paso banda envía los fotones IR en la banda 900-1,150nm a la célula de silicio. Hay varios aspectos prácticos de la arquitectura del módulo presentado que ayudan a reducir la complejidad de los sistemas spectrum-splitting (el filtro y el secundario forman una sola pieza sólida, ambas células son coplanarias simplificándose el cableado y la disipación de calor, etc.). Prototipos prueba-de-concepto han sido ensamblados y probados a fin de demostrar la fabricabilidad del filtro y su rendimiento cuando se combina con la técnica de reciclaje de luz externa. Los resultados obtenidos se ajustan bastante bien a los modelos y a las simulaciones e invitan al desarrollo de una versión más compleja de este prototipo en el futuro. Dos colimadores sólidos con surcos free-form se presentan en el Cuarto Capítulo. Ambos diseños ópticos están diseñados originalmente usando el método SMS3D. La segunda superficie ópticamente activa está diseñada a posteriori como una superficie con surcos. El diseño inicial de dos espejos (XX) está diseñado como prueba de concepto. En segundo lugar, el diseño RXI free-form es comparable con los colimadores RXI existentes. Se trata de un diseño muy compacto y eficiente que proporciona una muy buena mezcla de colores cuando funciona con LEDs RGB fuera del eje óptico como en los RGB LEDs convencionales. Estos dos diseños son dispositivos free-form diseñados con la intención de mejorar las propiedades de mezcla de colores de los dispositivos no aplanáticos RXI con simetría de revolución y la eficiencia de los aplanáticos, logrando una buena colimación y una buena mezcla de colores. La capacidad de mezcla de colores del dispositivo no-aplanático mejora añadiendo características de un aplanático a su homólogo simétrico sin pérdida de eficiencia. En el caso del diseño basado en RXI, su gran ventaja consiste en su menor coste de fabricación ya que el proceso de metalización puede evitarse. Aunque algunos de los componentes presentan formas muy complejas, los costes de fabricación son relativamente insensibles a la complejidad del molde, especialmente en el caso de la producción en masa (tales como inyección de plástico), ya que el coste del molde se reparte entre todas las piezas fabricadas. Por último, las últimas dos secciones son las conclusiones y futuras líneas de investigación. ABSTRACT Nonimaging optics is a branch of optics whose development began in the mid-1960s. This rather new field of optics focuses on the efficient light transfer necessary in many applications, among which we highlight solar concentrators and illumination systems. The classical optics solutions to the problems of light energy transfer are only appropriate when the light rays are paraxial. The paraxial condition is not met in most applications for the concentration and illumination. This thesis explores several free-form designs (with neither rotational nor linear symmetry) whose applications are intended to cover the above mentioned areas and more. The term nonimaging comes from the fact that these optical systems do not need to form an image of the object, although it is not a necessary condition not to form an image. Another word sometimes used instead of nonimaging is anidolic, and it comes from the Greek “an+eidolon” and has the same meaning. Most of the optical systems designed for nonimaging applications are without any symmetry, i.e. free-form. Free-form optical systems become especially relevant lately with the evolution of free-form tooling (injection molding machines, multi-axis machining techniques, etc.). Nevertheless, only recently there are nonimaging design techniques that are able to meet these degrees of freedom. In illumination applications, the SMS3D method allows designing two free-form surfaces to control very well extended sources. In cases when source, target or volumetric constrains have very asymmetric requirements free-form surfaces are offering solutions with higher efficiency or with fewer elements in comparison with rotationally symmetric solutions, as free-forms have more degrees of freedom and they can perform multiple functions due to their free-form nature. Anidolic concentrators are well suited for the collection of solar energy, because the goal is not the reproduction of an exact image of the sun, but instead the collection of its energy. At this time, Concentration Photovoltaics (CPV) field is turning to high concentration systems in order to compensate the expense of multi-junction (MJ) solar cells used as receivers by reducing its area. Interest in the use of MJ cells lies in their very high conversion efficiency. High Concentration Photovoltaic systems (HCPV) with geometric concentration of more than 500x are required in order to have competitive systems in terrestrial applications. These systems comprise two (or more) optical elements, mirrors and/or lenses. Systems presented in this thesis encompass both main types of HCPV architectures: concentrators with primary reflective element and concentrators with primary refractive element (Fresnel lens). Demand for the efficiency increase of the actual HCPV systems as well as feasible more efficient partitioning of the solar spectrum, leads to exploration of four or more junction solar cells or submodules. They have a potential of reaching over 45% efficiency at concentration of hundreds of suns. One possible architectures of spectrum splitting module using commercial concentration cells is presented in this thesis. Another field of application of nonimaging optics is illumination, where a specific illuminance distribution pattern is required. The Solid State Lighting (SSL) based on semiconductor electroluminescence provides light sources for general illumination applications. In the last decade high-brightness Light Emitting Diodes (LEDs) started replacing conventional light sources due to their superior output light quality, unsurpassed lifetime, compactness and energy savings. Collimators used with LEDs have to meet requirements like high efficiency, high beam control, color and position mixing, as well as a high compactness. We present a free-form collimator with microstructures that performs good collimation and good color mixing with RGGB LED source. Good light mixing is important not only for simplifying luminaire optical design but also for avoiding die binning. Optical light mixing may reduce costs by avoiding pulse-width modulation and other patented electronic solutions for dimming and color tuning. This thesis comprises four chapters. Chapters containing the original work of this thesis are preceded by the introductory chapter that addresses basic concepts and definitions of geometrical optics on which nonimaging is developed. It contains fundamentals of nonimaging optics together with the description of its design problems, principles and methods, and with the Simultaneous Multiple Surface (SMS) method standing out for its versatility and ability to control several bundles of rays. Köhler integration and its applications in the field of photovoltaics are described as well. CPV and SSL fields are introduced together with the review on their background and their current status. Chapter 2 and Chapter 3 contain advanced optical designs with primarily application in solar concentration; meanwhile Chapter 4 portrays the free-form V-groove collimator with good color mixing property for illumination application. Chapter 2 describes two HCPV optical concentrators designed with the SMS method in three dimensions (SMS3D). Both concentrators represent Köhler integrator arrays that provide uniform irradiance distribution free from chromatic aberrations on the solar cell. One of the systems is the XXR free-form concentrator designed with the SMS3D method. The primary mirror (X) of this concentrator and secondary lens (R) are divided in four symmetric sectors (folds) that perform Köhler integration; meanwhile the intermediate mirror (X) is rotationally symmetric. Second HCPV concentrator is the Fresnel-RXI (FRXI) with flat Fresnel lens as the Primary Optical Element (POE) and an RXI lens as the Secondary Optical Element (SOE). This architecture manifests 4-fold configuration for performing Köhler integration (4 array units), as well. The RXI lenses are well-known nonimaging devices, but their application as SOE is novel. Both XXR and FRXI Köhler HCPV concentrators are academic examples of very high concentration (more than 2,000x meanwhile conventional systems nowadays have up to 1,000x) prepared for the near future N-junction (N>3) solar cells. In order to have efficient and cost-effective terrestrial CPV systems, those cells will probably require higher concentrations and high spectral irradiance uniformity. Both concentrators are designed by maximizing merit functions: the optical efficiency, concentration-acceptance angle (CAP) and cell-irradiance uniformity free from chromatic aberrations (Köhler integration). Chapter 3 presents the spectrum splitting architecture based on a HCPV module with high concentration (500x) and high acceptance angle (>1º). This module aims to reduce both sources of losses of the actual commercial triple-junction (3J) solar cells with more efficient use of the solar spectrum and with recovering the light reflected from the 3J cells’ grid lines and semiconductor surface. The solar spectrum is used more efficiently due to the combination of a high efficiency 3J concentration cell (GaInP/GaInAs/Ge) and external Back-Point-Contact (BPC) concentration silicon (Si) cell. By employing external confinement techniques, the 3J cell’s reflections are recovered in order to be re-absorbed by the cell. In the proposed concentrator architecture, the 3J cell operates at its optimized current gain (at geometrical concentration of 500x), while the Si cell works near its optimum, as well (135x). The spectrum splitting module consists of a flat Fresnel lens (as the POE), and a free-form RXI-type concentrator with a band-pass filter embedded in it (as the SOE), both POE and SOE performing Köhler integration to produce light homogenization. The band-pass filter sends the IR photons in the 900-1,150nm band to the Si cell. There are several practical aspects of presented module architecture that help reducing the added complexity of the beam splitting systems: the filter and secondary are forming a single solid piece, both cells are coplanar so the heat management and wiring is simplified, etc. Two proof-of-concept prototypes are assembled and tested in order to prove filter manufacturability and performance, as well as the potential of external light recycling technique. Obtained measurement results agree quite well with models and simulations, and show an opened path to manufacturing of the Fresnel RXI-type secondary concentrator with spectrum splitting strategy. Two free-form solid V-groove collimators are presented in Chapter 4. Both free-form collimators are originally designed with the SMS3D method. The second mirrored optically active surface is converted in a grooved surface a posteriori. Initial two mirror (XX) design is presented as a proof-of-concept. Second, RXI free-form design is comparable with existing RXI collimators as it is a highly compact and a highly efficient design. It performs very good color mixing of the RGGB LED sources placed off-axis like in conventional RGB LEDs. Collimators described here improve color mixing property of the prior art rotationally symmetric no-aplanatic RXI devices, and the efficiency of the aplanatic ones, accomplishing both good collimation and good color mixing. Free-form V-groove collimators enhance the no-aplanatic device's blending capabilities by adding aplanatic features to its symmetric counterpart with no loss in efficiency. Big advantage of the RXI design is its potentially lower manufacturing cost, since the process of metallization may be avoided. Although some components are very complicated for shaping, the manufacturing costs are relatively insensitive to the complexity of the mold especially in the case of mass production (such as plastic injection), as the cost of the mold is spread in many parts. Finally, last two sections are conclusions and future lines of investigation.
Resumo:
El pasado mes de Diciembre tuvimos el privilegio de ser invitados por el RVO holandés (organismo homólogo al Instituto de Comercio Exterior –ICEX- español) a participar en un recorrido de una semana por los Países Bajos bajo el lema “El sector lácteo holandés: Presente y futuro”. En este recorrido, magníficamente organizado por Peter Stoel, de la Netherlands Enterprise Agency, participamos 25 personas, de 19 países diferentes, vinculadas a distintos medios de prensa y televisión relacionados con el sector agrario. Ello dio pie a un intenso intercambio de experiencias y conocimientos, pues la procedencia de los participantes fue realmente diversa; Argentina, Bélgica, Brasil, China, Corea, Croacia, España, Estonia, India, Kenia, Letonia, Lituania, México, Pakistán, Polonia, Rumanía, Serbia, Sri Lanka, Sudáfrica y Turquía.
Resumo:
Lupinus mariae-josephae (Lmj) es una especie de lupino endémica de una pequeña y específica área de Comunidad Valenciana (Este de España), donde prospera en suelos alcalinoscalcáreos, un hábitat singular para los altramuces, que crecen preferentemente en suelos ácidos o neutros. Esto hace de Lmj una especie de lupino única. Cuando se inició este trabajo, la extensión conocida de este endemismo abarcaba unos 700 kilómetros cuadrados, confinados en la provincia de Valencia. En esta área, Lmj prospera en pequeñas poblaciones aisladas que contienen un número reducido de plantas por lo que se la consideró una especie en peligro de extinción. Todos los esfuerzos, utilizando estrategias clásicas dirigidas a ampliar el área de crecimiento de Lmj y garantizar su conservación, han tenido un éxito limitado. El trabajo que se presenta está dirigido a mejorar el conocimiento de la ecología de Lmj, en particular la interacción simbiótica que establece con bacterias del suelo denominadas rizobios y se centra en la caracterización fenotípica, filogenética y genómica de esos rizobios. También se investiga la posible contribución de la simbiosis en mejorar la conservación de Lmj. Para este fin, se han estudiado diferentes aspectos que se describen a continuación. El primero objetivo se centró en aislar y estudiar de la diversidad genética de las bacterias endosimbióticas de Lmj. . Se realizó un análisis filogenético de genes esenciales que mostró que las cepas de Lmj pertenecen al género Bradyrhizobium y que presentan una gran diversidad con características fenotípicas y simbióticas diferentes de cepas de Bradyrhizobium que nodulan otras especies de lupinos nativos de España (cepas ISLU). Las cepas estudiadas se dividieron en dos grupos (Clado I y Clado II). El Clado I, incluye a las cepas Lmj, definiendo un nuevo linaje, filogenéticamente relacionado con otras especies de Bradyrhizobium, como B. jicamae y B. elkanii. El Clado II contiene cepas ISLU relacionadas con cepas de B. canariense y B. japonicum que establecen simbiosis con lupinos de suelos ácidos. Otro análisis filogenético basado en genes simbióticos, distribuyó las cepas de Lmj en sólo dos grupos diferentes. La singularidad y gran diversidad de estas cepas en una pequeña área geográfica, hacen de este, un atractivo sistema para el estudio de la evolución y adaptación de las bacterias simbióticas a su respectiva planta huésped. Adicionalmente, se estudio la presencia de bacterias capaces de nodular Lmj en suelos básicos de Chiapas, México. Sorprendentemente, estos suelos contienen bacterias capaces establecer interacciones simbióticas eficientes con Lmj en ensayos de invernadero. A continuación se investigó la taxonomía de los endosimbiontes de Lmj analizando la secuencia de cuatro genes esenciales (16S rRNA, recA, glnII y atpD) y el promedio de identidad de nucleótidos de genomas completos de algunas cepas representativas de la diversidad (ANIm). Se identificaron nuevas especies de Bradyrhizobium dentro del Clado I y se definió una de ellas: 'Bradyrhizobium valentinum' sp. nov (cepa tipo LmjM3T = CECT 8364T, LMG 2761T). También se abordó cómo conservar Lmj en su hábitat natural mediante inoculación con alguna de las cepas aisladas. Se demostró la ausencia de bacterias capaces de nodular Lmj en suelos rojos alcalinos o ‘‘terra rossa’’ de la Península Ibérica y Baleares. Dos cepas, altamente eficientes en cuanto a la fijación de nitrógeno, LmjC y LmjM3T, fueron seleccionadas para ser empleadas como inoculantes. Dos experimentos de campo llevados a cabo en años consecutivos en áreas con características edafoclimáticas similares a las que presentan las poblaciones de Lmj, lograron la reproducción exitosa de la planta. Se concluyó que un ciclo reproductivo exitoso de Lmj es absolutamente dependiente de la inoculación con sus simbiontes naturales y que la simbiosis debe ser considerada un factor esencial en estrategias de conservación de leguminosas en peligro. La obtención de varias secuencias genómicas de cepas aisladas de Lmj y de otras cepas de Bradyrhizobium reveló una alta similitud entre los genomas de las cepas del Clado I, y permitió la identificación de cinco posibles nuevas especies. Además, se estudiaron tres agrupaciones de genes relacionados con la simbiosis (nod, nif y fix) definiendo un nuevo linaje para las cepas de Lmj, diferente del symbiovar “genistearum” de B. canariense y B. japonicum. La baja diversidad encontrada en el análisis filogenético de los genes simbióticos contrasta con la gran diversidad asociada a genes esenciales. La presencia de plásmidos en cepas del género Bradyrhizobium ha sido descrita en muy pocas ocasiones, sin embargo el análisis de la secuencia genómica de la cepa ISLU101, aislada de Lupinus angustifolius, reveló la presencia de un origen de replicación extracromosómico homólogo al operón repABC, presente en el plásmido de Bradyrhizobium sp BTAi1. Gracias a esta secuencia se identificaron genes homólogos en 19 de 72 cepas ISLU. Filogenéticamente, las secuencias de repABC se agruparon en un grupo monofilético con las de pBTAi1 y separadas de los rizobios de crecimiento rápido. Finalmente, se identificaron sistemas de secreción de proteínas de tipo III (T3SS) en nueve genomas de cepas de Lmj. Los T3SS pueden inyectar proteínas efectoras al interior de células vegetales. Su presencia en rizobios se ha relacionado con la gama de hospedador que pueden nodular y puede tener un efecto beneficioso, neutro o perjudicial en la simbiosis. Los T3SS de las cepas de Lmj codifican para una proteína efectora similar a NopE, un efector dependiente de T3SS descrito en B. diazoefficiens USDA 110T. La proteína NopE de la cepa LmjC se ha caracterizado bioquímicamente. ABSTRACT Lupinus mariae-josephae (Lmj) is a lupine species endemic of a unique small area in Valencia region (Eastern Spain) where the lupine plants thrive in alkaline-limed soils, which preferentially grow in acid or neutral soils. This is the type of soils native lupines of Spain. When this work was initiated, the extension of the endemic area of Lmj was of about 700 squared kilometers confined to the Valencia province. In this area, Lmj thrives in small, isolated patches containing a reduced number of plants, and points to an endemism that can easily became endangered or extinct. Consequently, the Valencia Community authorities gave a ‘‘microreserve” status for conservation of the species. All efforts, using classical strategies directed to extend the area of Lmj growth and ensure its conservation have been so far unsuccessful. The work presented here is directed to improve our knowledge of Lmj ecology and it is centered in the characterization of the rhizobial symbiosis by phenotypic, phylogenetic and genomic analysis as well as in investigate the potential contribution of the symbiosis to improve its conservation. To this end, five different topics have been studied, and results are briefly described here. Extensive details can be followed en the attached, published articles. The first topic deals with the indigenous rhizobial symbionts of the Lmj endemism, and its genetic diversity was investigated. The Lmj root symbionts belong to the Bradyrhizobium genus, and phylogenetic analysis based on core genes identified a large diversity of Bradyrhizobium strains with phenotypic and symbiotic characteristics different from rhizobia nodulating other Lupinus spp. native of Spain. The strains were split in two clades. Clade II contained strains close to classical B. canariense and B. japonicum lineages that establish symbioses with lupines in acid soils of the Mediterranean area. Clade I included Lmj strains that define a new lineage, close to other Bradyrhizobium species as B. jicamae and B. elkanii. The phylogenetic analysis based on symbiotic genes identified only two distinct clusters. The singularity and large diversity of these strains in such a small geographical area makes this an attractive system for studying the evolution and adaptation of the rhizobial symbiont to the plant host. Additionally, the presence of bacteria able to nodulate Lmj in basic soils from Chiapas, Mexico was investigated. Surprisingly, these soils contain bacteria able to effectively nodulate and fix nitrogen with Lmj plants in greenhouse assays. In the second topic, the taxonomic status of the endosymbiotic bacteria of Lmj from Valencia endemism and Chiapas was investigated. Results from phylogenetic analysis of core genes and Average Nucleotide Identity (ANIm) using draft genomic sequences identified new Bradyrhizobium species within strains of Clade I of Lmj endosymbiotic bacteria. Only one of these potentially new species has been defined, meanwhile the others are under process of characterization. The name ‘Bradyrhizobium valentinum’ sp. nov. was proposed for the defined species (type strain LmjM3T= CECT 8364T, LMG 2761T). The third topic was directed to conservation of endangered Lmj in its natural habitat. The relevant conclusion of this experimentation is that the symbiosis should be considered as a relevant factor in the conservation strategies for endangered legumes. First, we showed absence of bacteria able to nodulate Lmj in all the inspected ‘‘terra rossa’’ or alkaline red soils of the Iberian Peninsula and Balearic Islands. Then, two efficient nitrogen fixing strains with Lmj plants, LmjC and LmjM3T, were selected as inoculum for seed coating. Two planting experiments were carried out in consecutive years under natural conditions in areas with edapho-climatic characteristics identical to those sustaining natural Lmj populations, and successful reproduction of the plant was achieved. The relevant conclusion from these assays was that the successful reproductive cycle was absolutely dependent on seedling inoculation with effective bradyrhizobia The forth topic deep into the analysis of the genomic of Lmj representative strains. To this end, draft genomic sequences of selected Lmj strains and type strains of Bradyrhizobium spp. were assembled. The comparison analysis of the draft genomic sequences of Lmj strains and related Bradyrhizobium species grouped in Clade I, revealed a high genomic homology among them, and allowed the definition of five potentially new species of Lmj nodulating bacteria. Also, based on the available draft genomic sequences, only three clusters of nod, fix and nif genes from Lmj strains were identified and showed to define a new symbiotic lineage, distant from that of B. canariense and B. japonicum bv. genistearum. The low diversity exhibited by the phylogenetic analysis of symbiotic genes contrast with the large diversity of strains as regards the housekeeping genes analyzed. Besides, the genomic analysis of a Lupinus angustifolius strain ISLU101, revealed the presence of an extrachromosomal replication origin homologous to repABC cluster from plasmid present in Bradyrhizobium spp BTAi1. This repABC cluster gene sequence allowed the identification of extrachromosomic replication origin in 19 out of 72 Bradyrhizobium strains from Lupinus spp., a highly significant result since the absence of plasmids in the Bradyrhizobium genus was traditionally assumed. The repABC gene sequences of these strains grouped them in a unique monophyletic group, related to B. sp. BTAi1 plasmid, but differentiated from the repABC gene cluster of plasmids in fast growing rhizobium strains. The last topic was focused on characterization of type III secreted effectors present in Lmj endosymbiotic bacteria. Type III secretion systems (T3SS) are specialized protein export machineries which can deliver effector proteins into plant cells. The presence of T3SS in rhizobia has frequently been related to the symbiotic nodulation host-range and may have a beneficial or detrimental effect on the symbiosis with legumes. In this context, the presence of T3SS in genomes of nine Lmj strains was investigated, and it was shown the presence of clusters encoding NopE type III-secreted protein similar to the NopE1 and NopE2 of B. diazoefficiens USDA 110T. The putative NopE protein of LmjC strain is at present being characterized regarding its structure and function.
Resumo:
Describimos una iniciativa de enseñanza en equipo, basada en la metodología CLIL y aplicada recientemente en la Escuela Técnica Superior de Ingenieros Agrónomos de la Universidad Politécnica de Madrid. Dos profesoras—una ingeniera agrónoma y una lingüista, junto con cerca de 20 estudiantes de máster, analizamos una patente contrastándola con un artículo de investigación homólogo, escrito por los mismos autores sobre el mismo objeto tecnológico, y examinando sus diferentes contextos y consecuencias sociales. Con una duración de siete horas y media y un carácter eminentemente práctico, el seminario impartido no sólo se ha diseñado para proporcionar contenidos disciplinarios (agronómicos) y procedimentales (las estrategias propias de la escritura de patentes), sino también para suscitar sensibilidad hacia el lector y fomentar competencias transversales
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.