14 resultados para Rider licensing

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Rights expression languages declare the permitted and prohibited actions to be performed on a resource. Along this work, six rights expression languages are compared, abstracting their commonalities and outlining their underlying pattern. Linked Data, which can be object of protection by the intellectual property laws or its access be restricted by an access control system, can be the asset in rights expressions. The requirements for a pattern for licensing Linked Data resources are listed.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Linked Data assets (RDF triples, graphs, datasets, mappings...) can be object of protection by the intellectual property law, the database law or its access or publication be restricted by other legal reasons (personal data pro- tection, security reasons, etc.). Publishing a rights expression along with the digital asset, allows the rightsholder waiving some or all of the IP and database rights (leaving the work in the public domain), permitting some operations if certain conditions are satisfied (like giving attribution to the author) or simply reminding the audience that some rights are reserved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The prediction of the tritium production is required for handling procedures of samples, safety&maintenance and licensing of the International Fusion Materials Irradiation Facility (IFMIF).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the last decade, complex networks have widely been applied to the study of many natural and man-made systems, and to the extraction of meaningful information from the interaction structures created by genes and proteins. Nevertheless, less attention has been devoted to metabonomics, due to the lack of a natural network representation of spectral data. Here we define a technique for reconstructing networks from spectral data sets, where nodes represent spectral bins, and pairs of them are connected when their intensities follow a pattern associated with a disease. The structural analysis of the resulting network can then be used to feed standard data-mining algorithms, for instance for the classification of new (unlabeled) subjects. Furthermore, we show how the structure of the network is resilient to the presence of external additive noise, and how it can be used to extract relevant knowledge about the development of the disease.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto se analizan las características y el ciclo de diseño asociado al entorno de CAD IspLEVER, de Lattice Semiconductor, con la finalidad de evaluar su adecuación a la docencia relacionada con la ingeniería de sistemas digitales cableados. En base a este estudio se realiza una guía del manejo de las diferentes herramientas que se integran en el entorno. Además, se realiza la caracterización de una serie de familias de dispositivos del fabricante Lattice Semiconductor que pudiera servir de apoyo a la hora de elegir un dispositivo de este fabricante para la realización de un determinado diseño. Para dar comienzo a la realización del estudio del entorno y de las herramientas que integra IspLEVER, se procedió a la familiarización con el marco de trabajo. Esta familiarización se realizó, en un principio, a través de la lectura de la documentación ofrecida por el fabricante en su página web, http://www.latticesemi.com. Tras esta lectura, que sirvió para tener una primera visión de las características de la herramienta, se procedió a la descarga del paquete de instalación; el fabricante ofrece una versión de evaluación que expira a los 12 meses. Una vez descargado, se instaló y para terminar con los preparativos, se pasó el procedimiento de obtención de la licencia. Con ello se consiguió tener el software preparado para su utilización. A continuación se emplearon horas de trabajo para, sin documentación alguna, tratar de crear diseños; con este trabajo se pretendía detectar lo intuitivo que resulta el entorno cuando se tienen conocimientos de herramientas de CAD electrónico. Tras esta primera toma de contacto con el entorno real, se procedió al estudio de las diferentes opciones que ofrece para la realización de diseños, ya sean lógicos o físicos. Además del estudio de todas las posibilidades que ofrece el entorno, el trabajo se focalizó en la detección y comparación de las distintas opciones que ofrece para realizar una misma tarea, como ocurre con la asignación de pines o con la revisión de los resultados de una simulación, entre otras. Entrelazado con el estudio de las opciones que ofrece el entorno, se realizó el estudio de las distintas herramientas de trabajo integradas en el mismo. Una vez estudiado el entorno y las herramientas, se procedió a la realización del tutorial. Se capturaron todas las imágenes que se consideraron apropiadas para que al alumno le resultase cómodo y fácil seguir todas las indicaciones que el tutorial ofrece, para la realización de un ciclo de diseño lógico completo. Tras la realización del tutorial, se procedió a revisar la amplia documentación que el fabricante ofrece de cada una de las distintas familias de dispositivos que fabrica. El fin de esta revisión no fue otro que realizar una caracterización de las distintas familias, que pudiera servir de apoyo a la hora de elegir un dispositivo de este fabricante para la realización de un determinado diseño. Este estudio de las familias de dispositivos del fabricante, también se realizó para detectar qué familia de dispositivos era la más idónea para incluir uno de sus miembros en una hipotética placa de prototipado, para la realización de prácticas de laboratorio. ABSTRACT. This project consists in the analysis of the characteristics and the design cycle associated with the IspLEVER environment of CAD, by Lattice Semiconductor. The objective of that analysis is to evaluate their suitability for teaching engineering related to wired digital systems. Based on this analysis a guide was made for managing the different tools that are integrated into the environment. In addition, the characterization of several families by the manufacturer Lattice Semiconductor was made, with the objective that it could be used to support the choice of a Lattice’s device to perform a certain design. To start the IspLEVER environment and tools study, I began with a familiarization with the environment. This familiarization consisted in a study of the manufacturer documentation offered in their web page, http://www.latticesemi.com. After that, I had a general view about the characteristics of the environment and environment tools. Then I continued downloading the installation package. The manufacturer offers an evaluation version that expires in the period of one year. After that download, the environment was installed. Finally, the licensing procedure was followed to finish with the preparations. Then, the software was prepared for its utilization. Following, several work hours were wasted without documentation, trying to create designs. This work has been to identify how intuitive the environment is when you have knowledge of electronic CAD tools. After this first point of contact with the real environment, I proceeded to study different offered options, by the manufacturer, for the realization of either logical or physical designs. In addition to studying all the possibilities offered by the environment, the work is focused on the detection and comparison of the various options offered to perform the same task, as with the pin assignment or reviewing the results of a simulation… At the same time, the environment tools were studied. At this point, I began creating the tutorial. I captured all the figures that I consider important to make it easy to the students. The tutorial contains a complete logical design cycle. When the tutorial was finished, I started to review the manufacturer documentation about each devices family. The purpose of this review was to characterize the different families to support the device selection in future designs. Another purpose of that characterization was focused on the detection of the best family to include one of its members in a prototyping board for conducting laboratory practices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we investigate the real demand for climate protection when the purely individual perspective of existing revealed preference studies is relaxed. This is achieved in two treatments; first, we determine the information subjects receive about the demand revealed by other subjects in a similar decision making situation, second, collective action is implemented whereby all subjects are required to purchase the group?s median quantity at a given price. Participants in the experiment were offered the opportunity to contribute to climate protection by purchasing European Union Allowances. Allowances purchased were withdrawn from the European Emissions Trading Scheme. In our experiment, information about other subjects? behaviour has no treatment effect on the demand for climate protection. Under collective action however, the probability of purchasing allowances is higher compared to the reference treatment situation, an individual contribution mechanism. Furthermore, we observe a strong correlation between subjects? demand and their expectations about other participants? behaviour. When collective action is not available, subjects? e xpectations are consistent with free rider behaviour.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We fabricate a biometric laser fiber synaptic sensor to transmit information from one neuron cell to the other by an optical way. The optical synapse is constructed on the base of an erbium-doped fiber laser, whose pumped diode current is driven by a pre-synaptic FitzHugh–Nagumo electronic neuron, and the laser output controls a post-synaptic FitzHugh–Nagumo electronic neuron. The implemented laser synapse displays very rich dynamics, including fixed points, periodic orbits with different frequency-locking ratios and chaos. These regimes can be beneficial for efficient biorobotics, where behavioral flexibility subserved by synaptic connectivity is a challenge.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We demonstrate the existence of generalized synchronization in systems that act as mediators between two dynamical units that, in turn, show complete synchronization with each other. These are the so-called relay systems. Specifically, we analyze the Lyapunov spectrum of the full system to elucidate when complete and generalized synchronization appear. We show that once a critical coupling strength is achieved, complete synchronization emerges between the systems to be synchronized, and at the same point, generalized synchronization with the relay system also arises. Next, we use two nonlinear measures based on the distance between phase-space neighbors to quantify the generalized synchronization in discretized time series. Finally, we experimentally show the robustness of the phenomenon and of the theoretical tools here proposed to characterize it.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un escenario habitualmente considerado para el uso sostenible y prolongado de la energía nuclear contempla un parque de reactores rápidos refrigerados por metales líquidos (LMFR) dedicados al reciclado de Pu y la transmutación de actínidos minoritarios (MA). Otra opción es combinar dichos reactores con algunos sistemas subcríticos asistidos por acelerador (ADS), exclusivamente destinados a la eliminación de MA. El diseño y licenciamiento de estos reactores innovadores requiere herramientas computacionales prácticas y precisas, que incorporen el conocimiento obtenido en la investigación experimental de nuevas configuraciones de reactores, materiales y sistemas. A pesar de que se han construido y operado un cierto número de reactores rápidos a nivel mundial, la experiencia operacional es todavía reducida y no todos los transitorios se han podido entender completamente. Por tanto, los análisis de seguridad de nuevos LMFR están basados fundamentalmente en métodos deterministas, al contrario que las aproximaciones modernas para reactores de agua ligera (LWR), que se benefician también de los métodos probabilistas. La aproximación más usada en los estudios de seguridad de LMFR es utilizar una variedad de códigos, desarrollados a base de distintas teorías, en busca de soluciones integrales para los transitorios e incluyendo incertidumbres. En este marco, los nuevos códigos para cálculos de mejor estimación ("best estimate") que no incluyen aproximaciones conservadoras, son de una importancia primordial para analizar estacionarios y transitorios en reactores rápidos. Esta tesis se centra en el desarrollo de un código acoplado para realizar análisis realistas en reactores rápidos críticos aplicando el método de Monte Carlo. Hoy en día, dado el mayor potencial de recursos computacionales, los códigos de transporte neutrónico por Monte Carlo se pueden usar de manera práctica para realizar cálculos detallados de núcleos completos, incluso de elevada heterogeneidad material. Además, los códigos de Monte Carlo se toman normalmente como referencia para los códigos deterministas de difusión en multigrupos en aplicaciones con reactores rápidos, porque usan secciones eficaces punto a punto, un modelo geométrico exacto y tienen en cuenta intrínsecamente la dependencia angular de flujo. En esta tesis se presenta una metodología de acoplamiento entre el conocido código MCNP, que calcula la generación de potencia en el reactor, y el código de termohidráulica de subcanal COBRA-IV, que obtiene las distribuciones de temperatura y densidad en el sistema. COBRA-IV es un código apropiado para aplicaciones en reactores rápidos ya que ha sido validado con resultados experimentales en haces de barras con sodio, incluyendo las correlaciones más apropiadas para metales líquidos. En una primera fase de la tesis, ambos códigos se han acoplado en estado estacionario utilizando un método iterativo con intercambio de archivos externos. El principal problema en el acoplamiento neutrónico y termohidráulico en estacionario con códigos de Monte Carlo es la manipulación de las secciones eficaces para tener en cuenta el ensanchamiento Doppler cuando la temperatura del combustible aumenta. Entre todas las opciones disponibles, en esta tesis se ha escogido la aproximación de pseudo materiales, y se ha comprobado que proporciona resultados aceptables en su aplicación con reactores rápidos. Por otro lado, los cambios geométricos originados por grandes gradientes de temperatura en el núcleo de reactores rápidos resultan importantes para la neutrónica como consecuencia del elevado recorrido libre medio del neutrón en estos sistemas. Por tanto, se ha desarrollado un módulo adicional que simula la geometría del reactor en caliente y permite estimar la reactividad debido a la expansión del núcleo en un transitorio. éste módulo calcula automáticamente la longitud del combustible, el radio de la vaina, la separación de los elementos de combustible y el radio de la placa soporte en función de la temperatura. éste efecto es muy relevante en transitorios sin inserción de bancos de parada. También relacionado con los cambios geométricos, se ha implementado una herramienta que, automatiza el movimiento de las barras de control en busca d la criticidad del reactor, o bien calcula el valor de inserción axial las barras de control. Una segunda fase en la plataforma de cálculo que se ha desarrollado es la simulació dinámica. Puesto que MCNP sólo realiza cálculos estacionarios para sistemas críticos o supercríticos, la solución más directa que se propone sin modificar el código fuente de MCNP es usar la aproximación de factorización de flujo, que resuelve por separado la forma del flujo y la amplitud. En este caso se han estudiado en profundidad dos aproximaciones: adiabática y quasiestática. El método adiabático usa un esquema de acoplamiento que alterna en el tiempo los cálculos neutrónicos y termohidráulicos. MCNP calcula el modo fundamental de la distribución de neutrones y la reactividad al final de cada paso de tiempo, y COBRA-IV calcula las propiedades térmicas en el punto intermedio de los pasos de tiempo. La evolución de la amplitud de flujo se calcula resolviendo las ecuaciones de cinética puntual. Este método calcula la reactividad estática en cada paso de tiempo que, en general, difiere de la reactividad dinámica que se obtendría con la distribución de flujo exacta y dependiente de tiempo. No obstante, para entornos no excesivamente alejados de la criticidad ambas reactividades son similares y el método conduce a resultados prácticos aceptables. Siguiendo esta línea, se ha desarrollado después un método mejorado para intentar tener en cuenta el efecto de la fuente de neutrones retardados en la evolución de la forma del flujo durante el transitorio. El esquema consiste en realizar un cálculo cuasiestacionario por cada paso de tiempo con MCNP. La simulación cuasiestacionaria se basa EN la aproximación de fuente constante de neutrones retardados, y consiste en dar un determinado peso o importancia a cada ciclo computacial del cálculo de criticidad con MCNP para la estimación del flujo final. Ambos métodos se han verificado tomando como referencia los resultados del código de difusión COBAYA3 frente a un ejercicio común y suficientemente significativo. Finalmente, con objeto de demostrar la posibilidad de uso práctico del código, se ha simulado un transitorio en el concepto de reactor crítico en fase de diseño MYRRHA/FASTEF, de 100 MW de potencia térmica y refrigerado por plomo-bismuto. ABSTRACT Long term sustainable nuclear energy scenarios envisage a fleet of Liquid Metal Fast Reactors (LMFR) for the Pu recycling and minor actinides (MAs) transmutation or combined with some accelerator driven systems (ADS) just for MAs elimination. Design and licensing of these innovative reactor concepts require accurate computational tools, implementing the knowledge obtained in experimental research for new reactor configurations, materials and associated systems. Although a number of fast reactor systems have already been built, the operational experience is still reduced, especially for lead reactors, and not all the transients are fully understood. The safety analysis approach for LMFR is therefore based only on deterministic methods, different from modern approach for Light Water Reactors (LWR) which also benefit from probabilistic methods. Usually, the approach adopted in LMFR safety assessments is to employ a variety of codes, somewhat different for the each other, to analyze transients looking for a comprehensive solution and including uncertainties. In this frame, new best estimate simulation codes are of prime importance in order to analyze fast reactors steady state and transients. This thesis is focused on the development of a coupled code system for best estimate analysis in fast critical reactor. Currently due to the increase in the computational resources, Monte Carlo methods for neutrons transport can be used for detailed full core calculations. Furthermore, Monte Carlo codes are usually taken as reference for deterministic diffusion multigroups codes in fast reactors applications because they employ point-wise cross sections in an exact geometry model and intrinsically account for directional dependence of the ux. The coupling methodology presented here uses MCNP to calculate the power deposition within the reactor. The subchannel code COBRA-IV calculates the temperature and density distribution within the reactor. COBRA-IV is suitable for fast reactors applications because it has been validated against experimental results in sodium rod bundles. The proper correlations for liquid metal applications have been added to the thermal-hydraulics program. Both codes are coupled at steady state using an iterative method and external files exchange. The main issue in the Monte Carlo/thermal-hydraulics steady state coupling is the cross section handling to take into account Doppler broadening when temperature rises. Among every available options, the pseudo materials approach has been chosen in this thesis. This approach obtains reasonable results in fast reactor applications. Furthermore, geometrical changes caused by large temperature gradients in the core, are of major importance in fast reactor due to the large neutron mean free path. An additional module has therefore been included in order to simulate the reactor geometry in hot state or to estimate the reactivity due to core expansion in a transient. The module automatically calculates the fuel length, cladding radius, fuel assembly pitch and diagrid radius with the temperature. This effect will be crucial in some unprotected transients. Also related to geometrical changes, an automatic control rod movement feature has been implemented in order to achieve a just critical reactor or to calculate control rod worth. A step forward in the coupling platform is the dynamic simulation. Since MCNP performs only steady state calculations for critical systems, the more straight forward option without modifying MCNP source code, is to use the flux factorization approach solving separately the flux shape and amplitude. In this thesis two options have been studied to tackle time dependent neutronic simulations using a Monte Carlo code: adiabatic and quasistatic methods. The adiabatic methods uses a staggered time coupling scheme for the time advance of neutronics and the thermal-hydraulics calculations. MCNP computes the fundamental mode of the neutron flux distribution and the reactivity at the end of each time step and COBRA-IV the thermal properties at half of the the time steps. To calculate the flux amplitude evolution a solver of the point kinetics equations is used. This method calculates the static reactivity in each time step that in general is different from the dynamic reactivity calculated with the exact flux distribution. Nevertheless, for close to critical situations, both reactivities are similar and the method leads to acceptable practical results. In this line, an improved method as an attempt to take into account the effect of delayed neutron source in the transient flux shape evolutions is developed. The scheme performs a quasistationary calculation per time step with MCNP. This quasistationary simulations is based con the constant delayed source approach, taking into account the importance of each criticality cycle in the final flux estimation. Both adiabatic and quasistatic methods have been verified against the diffusion code COBAYA3, using a theoretical kinetic exercise. Finally, a transient in a critical 100 MWth lead-bismuth-eutectic reactor concept is analyzed using the adiabatic method as an application example in a real system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En un mundo donde el cambio es constante y cada vez más vertiginoso, la innovación es el combustible que utilizan las empresas que permite su renovación constante y, como consecuencia, su supervivencia en el largo plazo. La innovación es sin dudas un elemento fundamental para determinar la capacidad de las empresas en crear valor a lo largo del tiempo, y por ello, las empresas suelen dedicar esfuerzos considerables y recursos de todo tipo para identificar nuevas alternativas de innovación que se adapten a su estrategia, cultura, objetivos y ambiciones corporativas. Una forma específica para llevar a cabo la innovación es la innovación abierta. Esta se entiende como la innovación que se realiza de manera conjunta con otras empresas o participantes del ecosistema. Cabe la aclaración que en este documento se toma la definición de ecosistema referida al conjunto de clientes, proveedores, competidores y otros participantes que interactúan en un mismo entorno donde existen posiciones de liderazgo que pueden cambiar a lo largo del tiempo (Moore 1996). El termino de innovación abierta fue acuñado por Henry Chesbrough hace algo mas de una década para referirse a esta forma particular de organizar la innovación corporativa. Como se observa en el presente trabajo la innovación abierta es un nuevo paradigma que ha capturado el interés académico y empresarial desde algo más de una década. Se verán varios casos de innovación abierta que se están llevando a cabo en diversos países y sectores de la economía. El objetivo principal de este trabajo de investigación es el de desarrollar y explicar un modelo de relación entre la innovación abierta y la creación de valor en las empresas. Para ello, y como objetivos secundarios, se ha investigado los elementos de un Programa de Innovación Abierta, los impulsores 1 de creación de valor, el proceso de creación de valor y, finalmente, la interacción entre estos tres elementos. Como producto final de la investigación se ha desarrollado un marco teórico general para establecer la conexión entre la innovación abierta y la creación de valor que facilita la explicación de la interacción entre ambos elementos. Se observa a partir de los casos de estudio que la innovación abierta puede abarcar todos los sectores de la economía, múltiples geografías y empresas de distintos tamaños (grandes empresas, pequeñas y medianas empresas, incluso empresas de reciente creación) cada una de ellas con distinta relevancia dentro del ecosistema en el que participan. Elementos de un Programa de Innovación Abierta La presente investigación comienza con la enumeración de los distintos elementos que se encuentran presentes en los Programas de Innovación Abierta. De esta manera, se describen los diversos elementos que se han identificado a través de la revisión de la literatura académica que se ha llevado a cabo. En función de una serie de características comunes, los distintos elementos se agrupan en cuatro niveles diferentes para lograr un mejor entendimiento de los Programas de Innovación Abierta. A continuación se detallan estos elementos § Organización del Programa. En primer lugar se menciona la existencia de una estructura organizativa capaz de cumplir una serie de objetivos establecidos previamente. Por su naturaleza de innovación abierta deberá existir cierto grado de interacción entre los distintos miembros que participen en el proceso de innovación. § Talento Interno. El talento interno asociado a los programas de innovación abierta juega un rol fundamental en la ejecución y éxito del programa. Bajo este nivel se asocian elementos como la cultura de innovación abierta y el liderazgo como mecanismo para entender uno de los elementos que explica el grado de adopción de innovación en una empresa. Estrechamente ligados al liderazgo se encuentran los comportamientos organizacionales como elementos diferenciadores para aumentar las posibilidades de creación de innovación abierta. § Infraestructura. En este nivel se agrupan los elementos relacionados con la infraestructura tecnológica necesaria para llevar a cabo el programa incluyendo los procesos productivos y las herramientas necesarias para la gestión cotidiana. § Instrumentos. Por último, se mencionan los instrumentos o vehículos que se utilizan en el entorno corporativo para implementar innovación abierta. Hay varios instrumentos disponibles como las incubadoras corporativas, los acuerdos de licenciamiento o las áreas de capital de riesgo corporativo. Para este último caso se hará una mención especial por el creciente y renovado interés que ha despertado tanto en el entorno académico como empresarial. Se ha identificado al capital de riesgo corporativo como un de los elementos diferenciales en el desarrollo de la estrategia de innovación abierta de las empresas ya que suele aportar credibilidad, capacidad y soporte tecnológico. Estos cuatro elementos, interactuando de manera conjunta y coordinada, tienen la capacidad de crear, potenciar e incluso desarrollar impulsores de creación de valor que impactan en la estrategia y organización de la empresa y partir de aquí en su desempeño financiero a lo largo del tiempo. Los Impulsores de Creación de Valor Luego de identificar, ordenar y describir los distintos elementos presentes en un Programa de Innovación Abierta se ha avanzado en la investigación con los impulsores de creación de valor. Estos pueden definirse como elementos que potencian o determinan la capacidad de crear valor dentro del entorno empresarial. Como se puede observar, se detallan estos impulsores como punto de interacción entre los elementos del programa y el proceso de creación de valor corporativo. A lo largo de la presente investigación se han identificado 6 impulsores de creación de valor presentes en un Programa de Innovación Abierta. § Nuevos Productos y Servicios. El impulsor de creación de valor más directo y evidente en un Programa de Innovación Abierta es la capacidad de crear nuevos productos y servicios dado que se relacionan directamente con el proceso de innovación de la empresa § Acceso a Mercados Adyacentes. El proceso de innovación también puede ser una fuente de valor al permitir que la empresa acceda a mercados cercanos a su negocio tradicional, es decir satisfaciendo nuevas necesidades de sus clientes existentes o de nuevos clientes en otro mercado. § Disponibilidad de Tecnologías. La disponibilidad de tecnologías es un impulsor en si mismo de la creación de valor. Estas pueden ser tanto complementarias como de apalancamiento de tecnologías ya existentes dentro de la empresa y que tengan la función de transformar parte de los componentes de la estrategia de la empresa. § Atracción del Talento Externo. La introducción de un Programa de Innovación Abierta en una empresa ofrece la oportunidad de interactuar con otras organizaciones del ecosistema y, por tanto, de atraer el talento externo. La movilidad del talento es una característica singular de la innovación abierta. § Participación en un Ecosistema Virtuoso. Se ha observado que las acciones realizadas en el entorno por cualquiera de los participantes también tendrán un claro impacto en la creación de valor para el resto de participantes por lo tanto la participación en un ecosistema virtuoso es un impulsor de creación de valor presente en la innovación abierta. § Tecnología “Dentro--‐Fuera”. Como último impulsor de valor es necesario comentar que la dirección que puede seguir la tecnología puede ser desde la empresa hacia el resto del ecosistema generando valor a partir de disponibilizar tecnologías que no son de utilidad interna para la empresa. Estos seis impulsores de creación de valor, presentes en los procesos de innovación corporativos, tienen la capacidad de influir en la estrategia y organización de la empresa aumentando su habilidad de crear valor. El Proceso de Creación de Valor en las Empresas Luego se ha investigado la práctica de la gestión basada en valor que sostiene la necesidad de alinear la estrategia corporativa y el diseño de la organización con el fin de obtener retornos financieros superiores al resto de los competidores de manera sostenida, y finalmente crear valor a lo largo del tiempo. Se describe como los impulsores de creación de valor influyen en la creación y fortalecimiento de las ventajas competitivas de la empresa impactando y alineando su estrategia y organización. Durante la investigación se ha identificado que las opciones reales pueden utilizarse como una herramienta para gestionar entornos de innovación abierta que, por definición, tienen altos niveles de incertidumbre. Las opciones reales aportan una capacidad para la toma de decisiones de forma modular y flexible que pueden aplicarse al entorno corporativo. Las opciones reales han sido particularmente diseñadas para entender, estructurar y gestionar entornos de múltiples incertidumbres y por ello tienen una amplia aplicación en los entornos de innovación. Se analizan los usos potenciales de las opciones reales como complemento a los distintos instrumentos identificados en los Programas de Innovación Abierta. La Interacción Entre los Programas de Innovación Abierta, los Impulsores de Creación de Valor y el Proceso de Creación de Valor A modo de conclusión del presente trabajo se puede mencionar que se ha desarrollado un marco general de creación de valor en el entorno de los Programas de Innovación Abierta. Este marco general incluye tres elementos fundamentales. En primer lugar describe los elementos que se encuentran presentes en los Programas de Innovación Abierta, en segundo lugar como estos programas colaboran en la creación de los seis impulsores de creación de valor que se han identificado y finalmente en tercer lugar como estos impulsores impactan sobre la estrategia y la organización de la empresa para dar lugar a la creación de valor de forma sostenida. A través de un Programa de Innovación Abierta, se pueden desarrollar los impulsores de valor para fortalecer la posición estratégica de la empresa y su capacidad de crear de valor. Es lo que denominamos el marco de referencia para la creación de valor en un Programa de Innovación Abierta. Se presentará la idea que los impulsores de creación de valor pueden colaborar en generar una estrategia óptima que permita alcanzar un desempeño financiero superior y lograr creación de valor de la empresa. En resumen, se ha desarrollado un modelo de relación que describe el proceso de creación de valor en la empresa a partir de los Programas de Innovación Abierta. Para ello, se han identificado los impulsores de creación de valor y se ha descripto la interacción entre los distintos elementos del modelo. ABSTRACT In a world of constant, accelerating change innovation is fuel for business. Year after year, innovation allows firms to renew and, therefore, advance their long--‐term survival. Undoubtedly, innovation is a key element for the firms’ ability to create value over time. Companies often devote considerable effort and diverse resources to identify innovation alternatives that could fit into their strategy, culture, corporate goals and ambitions. Open innovation refers to a specific approach to innovate by collaborating with other firms operating within the same business ecosystem.2 The term open innovation was pioneered by Henry Chesbrough more than a decade ago to refer to this particular mode of driving corporate innovation. Open innovation is a new paradigm that has attracted academic and business interest for over a decade. Several cases of open innovation from different countries and from different economic sectors are included and reviewed in this document. The main objective of this study is to explain and develop a relationship model between open innovation and value creation. To this end, and as secondary objectives, we have explored the elements of an Open Innovation Program, the drivers of value creation, the process of value creation and, finally, the interaction between these three elements. As a final product of the research we have developed a general theoretical framework for establishing the connection between open innovation and value creation that facilitates the explanation of the interaction between the two. From the case studies we see that open innovation can encompass all sectors of the economy, multiple geographies and varying businesses – large companies, SMEs, including (even) start--‐ups – each with a different relevance within the ecosystem in which they participate. Elements of an Open Innovation Program We begin by listing and describing below the items that can be found in an Open Innovation Program. Many of such items have been identified through the review of relevant academic literature. Furthermore, in order to achieve a better understanding of Open Innovation, we have classified those aspects into four different categories according to the features they share. § Program Organization. An organizational structure must exist with a degree of interaction between the different members involved in the innovation process. This structure must be able to meet a number of previously established objectives. § Internal Talent. Internal talent plays a key role in the implementation and success of any Open Innovation program. An open innovation culture and leadership skills are essential for adopting either radical or incremental innovation. In fact, leadership is closely linked to organizational behavior and it is essential to promote open innovation. § Infrastructure. This category groups the elements related to the technological infrastructure required to carry out the program, including production processes and daily management tools. § Instruments. Finally, we list the instruments or vehicles used in the corporate environment to implement open innovation. Several instruments are available, such as corporate incubators, licensing agreements or venture capital. There has been a growing and renewed interest in the latter, both in academia and business circles. The use of corporate venture capital to sustain the development of the open innovation strategy brings ability, credibility, and technological support to the process. The combination of elements from these four categories, interacting in a coordinated way, makes it possible to create, enhance and develop value creation drivers that may impact the company’s strategy and organization and affect its financial performance over time. The Drivers of Value Creation After identifying describing and categorizing the different elements present in an Open Innovation Program our research examines the drivers of value creation. These can be defined as elements that enhance or determine the ability to create value in the business environment. As can be seen, these drivers can act as interacting points between the elements of the program and the process of value creation. The study identifies six drivers of value creation that might be found in an Open Innovation Program. § New Products and Services. The more direct and obvious driver of value creation in any Open Innovation Program is the ability to create new products and services. This is directly related to the company’s innovation process. § Access to Adjacent Markets. The innovation process can also serve as a source of value by granting access to adjacent markets through satisfying new needs for existing customers or attracting new customers from other markets. § Availability of Technologies. The availability of technology is in itself a driver for value creation. New technologies can either be complementary and/or can leverage existing technologies within the firm. They can partly transform certain elements of the company’s strategy. § External Talent Strategy. Incorporating an Open Innovation Program offers the opportunity to interact with other organizations operating in the same ecosystem and can therefore attract external skilled resources. Talent mobility is a unique feature of open innovation. § Becoming Part of a Virtuous Circle. The actions carried out in the environment by any of its members will also have a clear impact on value creation for the other participants. Participation in a virtuous ecosystem is thus a driver for value creation in an open innovation strategy. § Inside--‐out Technology. Value creation may also evolve by allowing other firms in the ecosystem to incorporate internally developed under--‐utilized technologies into their own innovation processes. These six drivers that are present in the innovation process can influence the strategy and the organization of the company, increasing its ability to create value. The Value Creation Process Value--‐based management is the management approach that requires aligning the corporate strategy and the organizational design to create value and obtain sustained financial returns (at least, higher returns than its competitors). We describe how the drivers of value creation can enhance corporate advantages by aligning its strategy and organization. During this study, we were able to determine that real options can be used as managing tools in open innovation environments which, by definition, have high uncertainty levels. Real options provide capability for flexible and modular decision--‐making in the business environment. In particular, real options have been designed for uncertainty management and, therefore, they may be widely applied in innovation environments. We analyze potential uses of real options to supplement the various instruments identified in the Open Innovation programs. The Interaction Between Open Innovation Programs, Value Creation drivers and Value Creation Process As a result of this study, we have developed a general framework for value creation in Open Innovation Programs. This framework includes three key elements. We first described the elements that are present in Open Innovation Programs. Next, we showed how these programs can boost six drivers of value creation that have been identified. Finally, we analyzed how the drivers impact on the strategy and organization of the company in order to lead to the creation of sustainable value. Through an Open Innovation Program, value drivers can be developed to strengthen a company’s strategic position and its ability to create value. That is what we call the framework for value creation in the Open Innovation Program. Value drivers can collaborate in generating an optimal strategy that helps foster a superior financial performance and a sustained value creation process. In sum, we have developed a relationship model that describes the process of creating value in a firm with an Open Innovation Program. We have identified the drivers of value creation and described how the different elements of the model interact with each other.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo trata el estudio de la implementación y desarrollo de las diversas plataformas del social media: redes sociales y del conocimiento, blogs y herramientas colaborativas en el ámbito corporativo de la empresa. El estudio recopila información de consultoras tecnológicas, de artículos y de diversas plataformas social media y se realiza una investigación sobre el tema planteado. Se incluye el análisis de 42 encuestas a profesionales de dos grandes empresas de las telecomunicaciones en España. Estas dos empresas cuentan una con cerca de 28000 empleados y la otra con más 300 empleados en sus filiales españolas. Ambas tienen una importante presencia internacional. Estas dos empresa se diferencian de otras empresas del sector de las telecomunicaciones en que están apostando en la implementación del social media en sus procesos internos. Además se incluye el estudio y análisis de las estadísticas de uso y de una series de encuestas realizadas en el muro de la red social corporativa de una multinacional de las telecomunicaciones durante tres meses. Se presenta una nueva cultura social de empresa innovadora en áreas como la gestión del conocimiento, comunicación interna, formación e innovación. Y se ofrece una visión cuantitativa y de la implantación del social media en los procesos de una empresa. Se desarrolla una exposición donde se detalla el proceso de estudio de las diferentes plataformas social media y áreas de aplicación en la empresa, el estudio de los aspectos legales de su aplicación y uso y la implementación y desarrollo. Asimismo se expone un análisis teórico-práctico del cálculo del retorno de la inversión (ROI) y por último un análisis de la información recopilada en las encuestas y en el estudio estadístico de la red social corporativa. Los datos de las encuestas fueron analizados mediante estadística descriptiva basada en gráficos y tablas de contingencia donde se calculan residuos y porcentajes totales para analizar la dependencia entre el social media, eficiencia, productividad y cuenta de resultados, además del análisis de la aportación del social media a la misión, comunicación interna y gestión del conocimiento en la empresa. También se realizan cálculos de distribuciones Chi-cuadrado para demostrar la dependencia del social media-productividad y del GAP que relaciona la importancia y el nivel de satisfacción del social media. En el análisis teórico-práctico se toman como parámetros los beneficios, costes, flexibilidad y riesgo. Los beneficios van ligados a la productividad, gestión del conocimiento, capital humano y procesos internos. Los costes a las licencias de software, administración, implementación y formación. A partir de estos parámetros se realizó el estudio de un modelo de empresa que representa a una gran empresa de las TIC en España. Los datos para el estudio son estimativos dentro de la realidad, debido a que la intención no es saber estos valores reales sino el estudio teórico-práctico del método y su aplicación para el calculo del ROI. El estudio estadístico del la red social se realizo durante tres meses y se obtuvo el progreso de uso de la red social en eventos tales como: número de participantes activos, mensajes publicados, archivos subidos, grupos activos y tipos y plataformas de acceso. Del estudio de los datos estadísticos de estos eventos se obtuvieron indicadores de participación, actividad y conocimiento de la red social que son útiles par el calculo del ROI. En conclusión, se demuestran las mejoras que ofrece el social media en campos como la comunicación interna, gestión del conocimiento, formación e innovación. Y gracias a estas mejoras el aumento de la productividad y eficiencia del profesional y asimismo un potencial retorno de la inversión (ROI). ABSTRACT. This paper deals with the study of the implementation and development of the different platforms of social media: social networks and knowledge, blogs and collaborative tools in the corporate enterprise level. The study collects information technology consulting, articles and several social media platforms and an investigation into the question raised is performed. Analysis of 42 surveys of professionals from two big companies telecommunications in Spain are included. These two companies have one about 28000 employees and another with more than 300 employees at its Spanish subsidiaries. Both have a strong international presence. These two companies differ from other companies in the telecommunications sector they are betting in the implementation of social media in their internal processes. Furthermore, the study and analysis of usage statistics and a series of surveys on the wall of the corporate social network of a multinational telecommunications is included for three months. A new social culture enterprise is presented innovative in areas such as knowledge management, internal communications, training and innovation. And a quantitative vision into implementation of social media in the processes of a company is offered. They develops an exhibition where shown the process of studying the different social media platforms and application areas in the company, the study of the legal aspects of your application and use and implementation and development. A theoretical and practical analysis also exposed of calculation of return on investment (ROI) and finally an analysis of the information collected in surveys and statistical study of corporate social network. The survey data were analyzed using descriptive statistics based on graphs and contingency tables where waste and total percentages are calculated for analyze the dependence between the social media, efficiency, productivity and income statement, plus analysis of the contribution of social media on the mission, internal communication and knowledge management in the company. Also Calculations of chi-square distributions are conducted to demonstrate the dependence between of productivity and social media and the GAP that relates the importance and satisfaction level in social media. The theoretical and practical analysis parameters are the benefits, costs, flexibility and risk. The benefits are linked to productivity, knowledge management, human capital and internal processes. The costs are linked the software licensing, management, implementation and training. Based on these parameters was performed the study of a business model that represents a large ICT company in Spain. The data for the study are estimates within the reality, because the intention is not to know these real values but the theoretical and practical study and application of the method for calculating the ROI. Statistical analysis of the social network was made during or three months and was obtained the progress of social network use at events such as: number of active participants, messages posted, files uploaded, active groups and types and access platforms. Into study of statistical data of these events were obtained indicators of participation, activity and knowledge of the social network that are useful for calculating the ROI. In conclusion, the improvements offered by the social media in areas such as internal communication, knowledge management, training and innovation are shown. And thanks to these improvements increase the productivity and efficiency of professional and also a potential return on investment (ROI).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The application of Linked Data technology to the publication of linguistic data promises to facilitate interoperability of these data and has lead to the emergence of the so called Linguistic Linked Data Cloud (LLD) in which linguistic data is published following the Linked Data principles. Three essential issues need to be addressed for such data to be easily exploitable by language technologies: i) appropriate machine-readable licensing information is needed for each dataset, ii) minimum quality standards for Linguistic Linked Data need to be defined, and iii) appropriate vocabularies for publishing Linguistic Linked Data resources are needed. We propose the notion of Licensed Linguistic Linked Data (3LD) in which different licensing models might co-exist, from totally open to more restrictive licenses through to completely closed datasets.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La reutilización de efluentes depurados siempre ha sido una opción en lugares con déficit coyuntural o estructural de recursos hídricos, se haya o no procedido a la regulación y planificación de esta práctica. La necesidad se crea a partir de las demandas de una zona, normalmente riego agrícola, que ven un mejor desarrollo de su actividad por contar con este recurso. España es el país de la UE que más caudal reutiliza, y está dentro de los diez primeros a nivel mundial. La regulación de esta práctica por el RD 1620/2007, ayudó a incorporar la reutilización de efluentes depurados a la planificación hidrológica como parte de los programas de medidas, con objeto de mitigar presiones, como son las extracciones de agua superficial y subterránea, o mejoras medioambientales evitando un vertido. El objeto de este trabajo es conocer la situación de la reutilización de efluentes depurados en España, los diferentes escenarios y planteamientos de esta actividad, el desarrollo del marco normativo y su aplicabilidad, junto a los tratamientos que permiten alcanzar los límites de calidad establecidos en la normativa vigente, en función de los distintos usos. Además, se aporta un análisis de costes de las distintas unidades de tratamiento y tipologías de líneas de regeneración, tanto de las utilizadas después de un tratamiento secundario como de otras opciones de depuración, como son los biorreactores de membrana (MBRs). Para el desarrollo de estos objetivos, en primer lugar, se aborda el conocimiento de la situación de la reutilización en España a través de una base de datos diseñada para cubrir todos los aspectos de esta actividad: datos de la estación depuradora de aguas residuales (EDAR), de la estación regeneradora (ERA), caudales depurados, reutilizados, volúmenes utilizados y ubicación de los distintos usos, tipos de líneas de tratamiento, calidades del agua reutilizada, etc. Las principales fuentes de información son las Confederaciones Hidrográficas (CCHH) a través de las concesiones de uso del agua depurada, las entidades de saneamiento y depuración de las distintas comunidades autónomas (CCAA), ayuntamientos, Planes Hidrológicos de Cuenca (PHC) y visitas a las zonas más emblemáticas. Además, se revisan planes y programas con el fin de realizar una retrospectiva de cómo se ha ido consolidando y desarrollando esta práctica en las distintas zonas de la geografía española. Se han inventariado 322 sistemas de reutilización y 216 tratamientos de regeneración siendo el más extendido la filtración mediante filtro arena seguido de una desinfección mediante hipoclorito, aunque este tratamiento se ha ido sustituyendo por un físico-químico con decantación lamelar, filtro de arena y radiación ultravioleta, tratamiento de regeneración convencional (TRC), y otros tratamientos que pueden incluir membranas, tratamientos de regeneración avanzados (TRA), con dosificación de hipoclorito como desinfección residual, para adaptarse al actual marco normativo. El uso más extendido es el agrícola con el 70% del caudal total reutilizado, estimado en 408 hm3, aunque la capacidad de los tratamientos de regeneración esperada para 2015, tras el Plan Nacional de Reutilización de Aguas (PNRA), es tres veces superior. Respecto al desarrollo normativo, en las zonas donde la reutilización ha sido pionera, las administraciones competentes han ido desarrollando diferentes recomendaciones de calidad y manejo de este tipo de agua. El uso agrícola, y en zonas turísticas, el riego de campos de golf, fueron los dos primeros usos que tuvieron algún tipo de recomendación incluso reglamentación. Esta situación inicial, sin una normativa a nivel estatal ni recomendaciones europeas, creó cierta incertidumbre en el avance de la reutilización tanto a nivel de concesiones como de planificación. En la actualidad sigue sin existir una normativa internacional para la reutilización y regeneración de efluentes depurados. Las recomendaciones de referencia a nivel mundial, y en concreto para el uso agrícola, son las de la OMS (Organización Mundial de la Salud) publicadas 1989, con sus posteriores revisiones y ampliaciones (OMS, 2006). Esta norma combina tratamientos básicos de depuración y unas buenas prácticas basadas en diferentes niveles de protección para evitar problemas sanitarios. Otra normativa que ha sido referencia en el desarrollo del marco normativo en países donde se realiza esta práctica, son las recomendaciones dadas por la Agencia Medioambiente Estadunidense (USEPA, 2012) o las publicadas por el Estado de California (Título 22, 2001). Estas normas establecen unos indicadores y valores máximos dónde el tratamiento de regeneración es el responsable de la calidad final en función del uso. Durante 2015, la ISO trabajaba en un documento para el uso urbano donde se muestra tanto los posibles parámetros que habría que controlar como la manera de actuar para evitar posibles riesgos. Por otro lado, la Comisión Europea (CE) viene impulsando desde el 2014 la reutilización de aguas depuradas dentro del marco de la Estrategia Común de Implantación de la Directiva Marco del Agua, y fundamentalmente a través del grupo de trabajo de “Programas de medidas”. Para el desarrollo de esta iniciativa se está planteando sacar para 2016 una guía de recomendaciones que podría venir a completar el marco normativo de los distintos Estados Miembros (EM). El Real Decreto 1620/2007, donde se establece el marco jurídico de la reutilización de efluentes depurados, tiende más a la filosofía implantada por la USEPA, aunque la UE parece más partidaria de una gestión del riesgo, donde se establecen unos niveles de tolerancia y unos puntos de control en función de las condiciones socioeconómicas de los distintos Estados, sin entrar a concretar indicadores, valores máximos o tratamientos. Sin embargo, en la normativa estadounidense se indican una serie de tratamientos de regeneración, mientras que, en la española, se hacen recomendaciones a este respecto en una Guía sin validez legal. Por tanto, queda sin regular los procesos para alcanzar estos estándares de calidad, pudiendo ser éstos no apropiados para esta práctica. Es el caso de la desinfección donde el uso de hipoclorito puede generar subproductos indeseables. En la Guía de recomendaciones para la aplicación del RD, publicada por el Ministerio de Agricultura y Medioambiente (MAGRAMA) en 2010, se aclaran cuestiones frecuentes sobre la aplicación del RD, prescripciones técnicas básicas para los sistemas de reutilización, y buenas prácticas en función del uso. Aun así, el RD sigue teniendo deficiencias en su aplicación siendo necesaria una revisión de la misma, como en las frecuencias de muestreo incluso la omisión de algunos parámetros como huevos de nematodos que se ha demostrado ser inexistentes tras un tratamiento de regeneración convencional. En este sentido, existe una tendencia a nivel mundial a reutilizar las aguas con fines de abastecimiento, incluir indicadores de presencia de virus o protozoos, o incluir ciertas tecnologías como las membranas u oxidaciones avanzadas para afrontar temas como los contaminantes emergentes. Otro de los objetivos de este trabajo es el estudio de tipologías de tratamiento en función de los usos establecidos en el RD 1620/2007 y sus costes asociados, siendo base de lo establecido a este respecto en la Guía y PNRA anteriormente indicados. Las tipologías de tratamiento propuestas se dividen en líneas con capacidad de desalar y las que no cuentan con una unidad de desalación de aguas salobres de ósmosis inversa o electrodiálisis reversible. Se realiza esta división al tener actuaciones en zonas costeras donde el agua de mar entra en los colectores, adquiriendo el agua residual un contenido en sales que es limitante en algunos usos. Para desarrollar este objetivo se han estudiado las unidades de tratamiento más implantadas en ERAs españolas en cuanto a fiabilidad para conseguir determinada calidad y coste, tanto de implantación como de explotación. El TRC, tiene un coste de implantación de 28 a 48 €.m-3.d y de explotación de 0,06 a 0,09 €. m-3, mientras que, si se precisara desalar, este coste se multiplica por diez en la implantación y por cinco en la explotación. En caso de los usos que requieren de TRA, como los domiciliarios o algunos industriales, los costes serían de 185 a 398 €.m-3.d en implantación y de 0,14 a 0,20 €.m-3 en explotación. En la selección de tecnologías de regeneración, la capacidad del tratamiento en relación al coste es un indicador fundamental. Este trabajo aporta curvas de tendencia coste-capacidad que sirven de herramienta de selección frente a otros tratamientos de regeneración de reciente implantación como son los MBR, u otros como la desalación de agua de mar o los trasvases entre cuencas dentro de la planificación hidrológica. En España, el aumento de las necesidades de agua de alta calidad en zonas con recursos escasos, aumento de zonas sensibles como puntos de captación para potables, zonas de baño o zonas de producción piscícola, y en ocasiones, el escaso terreno disponible para la implantación de nuevas plantas depuradoras (EDARs), han convertido a los MBRs, en una opción dentro del marco de la reutilización de aguas depuradas. En este trabajo, se estudia esta tecnología frente a los TRC y TRA, aportando igualmente curvas de tendencia coste-capacidad, e identificando cuando esta opción tecnológica puede ser más competitiva frente a los otros tratamientos de regeneración. Un MBR es un tratamiento de depuración de fangos activos donde el decantador secundario es sustituido por un sistema de membranas de UF o MF. La calidad del efluente, por tanto, es la misma que el de una EDAR seguida de un TRA. Los MBRs aseguran una calidad del efluente para todos los usos establecidos en el RD, incluso dan un efluente que permite ser directamente tratado por las unidades de desalación de OI o EDR. La implantación de esta tecnología en España ha tenido un crecimiento exponencial, pasando de 13 instalaciones de menos de 5.000 m3. d-1 en el 2006, a más de 55 instalaciones en operación o construcción a finales del 2014, seis de ellas con capacidades por encima de los 15.000 m3. d-1. Los sistemas de filtración en los MBR son los que marcan la operación y diseño de este tipo de instalaciones. El sistema más implantado en España es de membrana de fibra hueca (MFH), sobre todo para instalaciones de gran capacidad, destacando Zenon que cuenta con el 57% de la capacidad total instalada. La segunda casa comercial con mayor número de plantas es Kubota, con membranas de configuración placa plana (MPP), que cuenta con el 30 % de la capacidad total instalada. Existen otras casas comerciales implantadas en MBR españoles como son Toray, Huber, Koch o Microdym. En este documento se realiza la descripción de los sistemas de filtración de todas estas casas comerciales, aportando información de sus características, parámetros de diseño y operación más relevantes. El estudio de 14 MBRs ha posibilitado realizar otro de los objetivos de este trabajo, la estimación de los costes de explotación e implantación de este tipo de sistemas frente a otras alternativas de tratamiento de regeneración. En este estudio han participado activamente ACA y ESAMUR, entidades públicas de saneamiento y depuración de Cataluña y Murcia respectivamente, que cuentan con una amplia experiencia en la explotación de este tipo de sistemas. Este documento expone los problemas de operación encontrados y sus posibles soluciones, tanto en la explotación como en los futuros diseños de este tipo de plantas. El trabajo concluye que los MBRs son una opción más para la reutilización de efluentes depurados, siendo ventajosos en costes, tanto de implantación como de explotación, respecto a EDARs seguidas de TRA en capacidades por encima de los 10.000 m3.d-1. ABSTRACT The reuse of treated effluent has always been an option in places where a situational or structural water deficit exists, whether regulatory and/or planning efforts are completed or not. The need arises from the demand of a sector, commonly agricultural irrigation, which benefits of this new resource. Within the EU, Spain is ahead in the annual volume of reclaimed water, and is among the top ten countries at a global scale. The regulation of this practice through the Royal Decree 1620/2007 has helped to incorporate the water reuse to the hydrological plans as a part of the programme of measures to mitigate pressures such as surface or ground water extraction, or environmental improvements preventing discharges. The object of this study is to gain an overview of the state of the water reuse in Spain, the different scenarios and approaches to this activity, the development of the legal framework and its enforceability, together with the treatments that achieve the quality levels according to the current law, broken down by applications. Additionally, a cost analysis of technologies and regeneration treatment lines for water reclamation is performed, whereas the regeneration treatment is located after a wastewater treatment or other options such as membrane bioreactors (MBR). To develop the abovementioned objectives, the state of water reuse in Spain is studied by means of a database designed to encompass all aspects of the activity: data from the wastewater treatment plants (WWTP), from the water reclamation plants (WRP), the use of reclaimed water, treated water and reclaimed water annual volumes and qualities, facilities and applications, geographic references, technologies, regeneration treatment lines, etc. The main data providers are the River Basin authorities, through the concession or authorization for water reuse, (sanitary and wastewater treatment managers from the territorial governments, local governments, Hydrological Plans of the River Basins and field visits to the main water reuse systems. Additionally, a review of different plans and programmes on wastewater treatment or water reuse is done, aiming to put the development and consolidation process of this activity in the different regions of Spain in perspective. An inventory of 322 reuse systems and 216 regeneration treatments has been gathered on the database, where the most extended regeneration treatment line was sand filtration followed by hypochlorite disinfection, even though recently it is being replaced by physical–chemical treatment with a lamella settling system, depth sand filtration, and a disinfection with ultraviolet radiation and hypochlorite as residual disinfectant, named conventional regeneration treatment (CRT), and another treatment that may include a membrane process, named advanced regeneration treatment (ART), to adapt to legal requirements. Agricultural use is the most extended, accumulating 70% of the reclaimed demand, estimated at 408 hm3, even though the expected total capacity of WRPs for 2015, after the implementation of the National Water Reuse Plan (NWRP) is three times higher. According to the development of the water reuse legal framework, there were pioneer areas where competent authorities developed different quality and use recommendations for this new resource. Agricultural use and golf course irrigation in touristic areas were the first two uses with recommendations and even legislation. The initial lack of common legislation for water reuse at a national or European level created some doubts which affected the implementation of water reuse, both from a planning and a licensing point of view. Currently there is still a lack of common international legislation regarding water reuse, technologies and applications. Regarding agricultural use, the model recommendations at a global scale are those set by the World Health Organization published in 1989, and subsequent reviews and extensions about risk prevention (WHO, 2006). These documents combine wastewater treatments with basic regeneration treatments reinforced by good practices based on different levels of protection to avoid deleterious health effects. Another relevant legal reference for this practices has been the Environmental Protection Agency of the US (USEPA, 2012), or those published by the State of California (Title 22, 2001). These establish indicator targets and maximum thresholds where regeneration treatment lines are responsible for the final quality according to the different uses. During 2015, the ISO has worked on a document aimed at urban use, where the possible parameters to be monitored together with risk prevention have been studied. On the other hand, the European Commission has been promoting the reuse of treated effluents within the Common Implementation Strategy of the Water Framework Directive, mainly through the work of the Programme of Measures Working Group. Within this context, the publication of a recommendation guide during 2016 is intended, as a useful tool to fill in the legal gaps of different Member States on the matter. The Royal Decree 1620/2007, where the water reuse regulation is set, resembles the principles of the USEPA more closely, even though the EU shows a tendency to prioritize risk assessment by establishing tolerance levels and thresholds according to socioeconomic conditions of the different countries, without going into details of indicators, maximum thresholds or treatments. In contrast, in the US law, regeneration treatments are indicated, while in the Spanish legislation, the only recommendations to this respect are compiled in a non-compulsory guide. Therefore, there is no regulation on the different treatment lines used to achieve the required quality standards, giving room for inappropriate practices in this respect. This is the case of disinfection, where the use of hypochlorite may produce harmful byproducts. In the recommendation Guide for the application of the Royal Decree (RD), published by the Ministry of Agriculture and Environment (MAGRAMA) in 2010, clarifications of typical issues that may arise from the application of the RD are given, as well as basic technical parameters to consider in reuse setups, or good practices according to final use. Even so, the RD still presents difficulties in its application and requires a review on issues such as the sampling frequency of current quality parameters or even the omission of nematode eggs indicator, which have been shown to be absent after CRT. In this regard, there is a global tendency to employ water reuse for drinking water, including indicators for the presence of viruses and protozoans, or to include certain technologies such as membranes or advanced oxidation processes to tackle problems like emerging pollutants. Another of the objectives of this study is to provide different regeneration treatment lines to meet the quality requirements established in the RD 1620/2007 broken down by applications, and to estimate establishment and operational costs. This proposal has been based on what is established in the above mentioned Guide and NWRP. The proposed treatment typologies are divided in treatment trains with desalination, like reverse osmosis or reversible electrodialisis, and those that lack this treatment for brackish water. This separation is done due to coastal facilities, where sea water may permeate the collecting pipes, rising salt contents in the wastewater, hence limiting certain uses. To develop this objective a study of the most common treatment units set up in Spanish WRPs is conducted in terms of treatment train reliability to obtain an acceptable relationship between the required quality and the capital and operational costs. The CRT has an establishment cost of 28 to 48 €.m-3.d and an operation cost of 0.06 to 0.09 €.m-3, while, if desalination was required, these costs would increase tenfold for implementation and fivefold for operation. In the cases of uses that require ART, such as residential or certain industrial uses, the costs would be of 185 to 398 €.m-3.d for implementation and of 0.14 to 0.20 €.m-3 for operation. When selecting regeneration treatment lines, the relation between treatment capacity and cost is a paramount indicator. This project provides cost-capacity models for regeneration treatment trains. These may serve as a tool when selecting between different options to fulfill water demands with MBR facilities, or others such as sea water desalination plants or inter-basin water transfer into a water planning framework. In Spain, the requirement for high quality water in areas with low resource availability, the increasing number of sensitive zones, such as drinking water extraction, recreational bathing areas, fish protected areas and the lack of available land to set up new WWTPs, have turned MBRs into a suitable option for water reuse. In this work this technology is analyzed in contrast to CRT and ART, providing cost-capacity models, and identifying when and where this treatment option may outcompete other regeneration treatments. An MBR is an activated sludge treatment where the secondary settling is substituted by a membrane system of UF or MF. The quality of the effluent is, therefore, comparable to that of a WWTP followed by an ART. MBRs ensure a sufficient quality level for the requirements of the different uses established in the RD, even producing an effluent that can be directly treated in OI or EDR processes. The implementation of this technology in Spain has grown exponentially, growing from 13 facilities with less than 5000 m3.d-1 in 2006 to above 55 facilities operating by the end of 2014, 6 of them with capacities over 15000 m3.d-1. The membrane filtration systems for MBR are the ones that set the pace of operation and design of this type of facilities. The most widespread system in Spain is the hollow fiber membrane configuration, especially on high flow capacities, being Zenon commercial technology, which mounts up to 57% of the total installed capacity, the main contributor. The next commercial technology according to plant number is Kubota, which uses flat sheet membrane configuration, which mounts up to 30% of the total installed capacity. Other commercial technologies exist within the Spanish MBR context, such as Toray, Huber, Koch or Microdym. In this document an analysis of all of these membrane filtration systems is done, providing information about their characteristics and relevant design and operation parameters. The study of 14 full scale running MBRs has enabled to pursue another of the objectives of this work: the estimation of the implementation and operation costs of this type of systems in contrast to other regeneration alternatives. Active participation of ACA and ESAMUR, public wastewater treatment and reuse entities of Cataluña and Murcia respectively, has helped attaining this objective. A number of typical operative problems and their possible solutions are discussed, both for operation and plant design purposes. The conclusion of this study is that MBRs are another option to consider for water reuse, being advantageous in terms of both implementation and operational costs, when compared with WWTPs followed by ART, when considering flow capacities above 10000 m3.d-1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.