41 resultados para Safety Performance Function (SPF)
Resumo:
Today's motivation for autonomous systems research stems out of the fact that networked environments have reached a level of complexity and heterogeneity that make their control and management by solely human administrators more and more difficult. The optimisation of performance metrics for the air traffic management system, like in other networked system, has become more complex with increasing number of flights, capacity constraints, environmental factors and safety regulations. It is anticipated that a new structure of planning layers and the introduction of higher levels of automation will reduce complexity and will optimise the performance metrics of the air traffic management system. This paper discusses the complexity of optimising air traffic management performance metrics and proposes a way forward based on higher levels of automation.
Resumo:
Como en todos los medios de transporte, la seguridad en los viajes en avión es de primordial importancia. Con los aumentos de tráfico aéreo previstos en Europa para la próxima década, es evidente que el riesgo de accidentes necesita ser evaluado y monitorizado cuidadosamente de forma continúa. La Tesis presente tiene como objetivo el desarrollo de un modelo de riesgo de colisión exhaustivo como método para evaluar el nivel de seguridad en ruta del espacio aéreo europeo, considerando todos los factores de influencia. La mayor limitación en el desarrollo de metodologías y herramientas de monitorización adecuadas para evaluar el nivel de seguridad en espacios de ruta europeos, donde los controladores aéreos monitorizan el tráfico aéreo mediante la vigilancia radar y proporcionan instrucciones tácticas a las aeronaves, reside en la estimación del riesgo operacional. Hoy en día, la estimación del riesgo operacional está basada normalmente en reportes de incidentes proporcionados por el proveedor de servicios de navegación aérea (ANSP). Esta Tesis propone un nuevo e innovador enfoque para evaluar el nivel de seguridad basado exclusivamente en el procesamiento y análisis trazas radar. La metodología propuesta ha sido diseñada para complementar la información recogida en las bases de datos de accidentes e incidentes, mediante la provisión de información robusta de los factores de tráfico aéreo y métricas de seguridad inferidas del análisis automático en profundidad de todos los eventos de proximidad. La metodología 3-D CRM se ha implementado en un prototipo desarrollado en MATLAB © para analizar automáticamente las trazas radar y planes de vuelo registrados por los Sistemas de Procesamiento de Datos Radar (RDP) e identificar y analizar todos los eventos de proximidad (conflictos, conflictos potenciales y colisiones potenciales) en un periodo de tiempo y volumen del espacio aéreo. Actualmente, el prototipo 3-D CRM está siendo adaptado e integrado en la herramienta de monitorización de prestaciones de Aena (PERSEO) para complementar las bases de accidentes e incidentes ATM y mejorar la monitorización y proporcionar evidencias de los niveles de seguridad. ABSTRACT As with all forms of transport, the safety of air travel is of paramount importance. With the projected increases in European air traffic in the next decade and beyond, it is clear that the risk of accidents needs to be assessed and carefully monitored on a continuing basis. The present thesis is aimed at the development of a comprehensive collision risk model as a method of assessing the European en-route risk, due to all causes and across all dimensions within the airspace. The major constraint in developing appropriate monitoring methodologies and tools to assess the level of safety in en-route airspaces where controllers monitor air traffic by means of radar surveillance and provide aircraft with tactical instructions lies in the estimation of the operational risk. The operational risk estimate normally relies on incident reports provided by the air navigation service providers (ANSPs). This thesis proposes a new and innovative approach to assessing aircraft safety level based exclusively upon the process and analysis of radar tracks. The proposed methodology has been designed to complement the information collected in the accident and incident databases, thereby providing robust information on air traffic factors and safety metrics inferred from the in depth assessment of proximate events. The 3-D CRM methodology is implemented in a prototype tool in MATLAB © in order to automatically analyze recorded aircraft tracks and flight plan data from the Radar Data Processing systems (RDP) and identify and analyze all proximate events (conflicts, potential conflicts and potential collisions) within a time span and a given volume of airspace. Currently, the 3D-CRM prototype is been adapted and integrated in AENA’S Performance Monitoring Tool (PERSEO) to complement the information provided by the ATM accident and incident databases and to enhance monitoring and providing evidence of levels of safety.
Resumo:
Hoy en día, el desarrollo tecnológico en el campo de los sistemas inteligentes de transporte (ITS por sus siglas en inglés) ha permitido dotar a los vehículos con diversos sistemas de ayuda a la conducción (ADAS, del inglés advanced driver assistance system), mejorando la experiencia y seguridad de los pasajeros, en especial del conductor. La mayor parte de estos sistemas están pensados para advertir al conductor sobre ciertas situaciones de riesgo, como la salida involuntaria del carril o la proximidad de obstáculos en el camino. No obstante, también podemos encontrar sistemas que van un paso más allá y son capaces de cooperar con el conductor en el control del vehículo o incluso relegarlos de algunas tareas tediosas. Es en este último grupo donde se encuentran los sistemas de control electrónico de estabilidad (ESP - Electronic Stability Program), el antibloqueo de frenos (ABS - Anti-lock Braking System), el control de crucero (CC - Cruise Control) y los más recientes sistemas de aparcamiento asistido. Continuando con esta línea de desarrollo, el paso siguiente consiste en la supresión del conductor humano, desarrollando sistemas que sean capaces de conducir un vehículo de forma autónoma y con un rendimiento superior al del conductor. En este trabajo se presenta, en primer lugar, una arquitectura de control para la automatización de vehículos. Esta se compone de distintos componentes de hardware y software, agrupados de acuerdo a su función principal. El diseño de la arquitectura parte del trabajo previo desarrollado por el Programa AUTOPIA, aunque introduce notables aportaciones en cuanto a la eficiencia, robustez y escalabilidad del sistema. Ahondando un poco más en detalle, debemos resaltar el desarrollo de un algoritmo de localización basado en enjambres de partículas. Este está planteado como un método de filtrado y fusión de la información obtenida a partir de los distintos sensores embarcados en el vehículo, entre los que encontramos un receptor GPS (Global Positioning System), unidades de medición inercial (IMU – Inertial Measurement Unit) e información tomada directamente de los sensores embarcados por el fabricante, como la velocidad de las ruedas y posición del volante. Gracias a este método se ha conseguido resolver el problema de la localización, indispensable para el desarrollo de sistemas de conducción autónoma. Continuando con el trabajo de investigación, se ha estudiado la viabilidad de la aplicación de técnicas de aprendizaje y adaptación al diseño de controladores para el vehículo. Como punto de partida se emplea el método de Q-learning para la generación de un controlador borroso lateral sin ningún tipo de conocimiento previo. Posteriormente se presenta un método de ajuste on-line para la adaptación del control longitudinal ante perturbaciones impredecibles del entorno, como lo son los cambios en la inclinación del camino, fricción de las ruedas o peso de los ocupantes. Para finalizar, se presentan los resultados obtenidos durante un experimento de conducción autónoma en carreteras reales, el cual se llevó a cabo en el mes de Junio de 2012 desde la población de San Lorenzo de El Escorial hasta las instalaciones del Centro de Automática y Robótica (CAR) en Arganda del Rey. El principal objetivo tras esta demostración fue validar el funcionamiento, robustez y capacidad de la arquitectura propuesta para afrontar el problema de la conducción autónoma, bajo condiciones mucho más reales a las que se pueden alcanzar en las instalaciones de prueba. ABSTRACT Nowadays, the technological advances in the Intelligent Transportation Systems (ITS) field have led the development of several driving assistance systems (ADAS). These solutions are designed to improve the experience and security of all the passengers, especially the driver. For most of these systems, the main goal is to warn drivers about unexpected circumstances leading to risk situations such as involuntary lane departure or proximity to other vehicles. However, other ADAS go a step further, being able to cooperate with the driver in the control of the vehicle, or even overriding it on some tasks. Examples of this kind of systems are the anti-lock braking system (ABS), cruise control (CC) and the recently commercialised assisted parking systems. Within this research line, the next step is the development of systems able to replace the human drivers, improving the control and therefore, the safety and reliability of the vehicles. First of all, this dissertation presents a control architecture design for autonomous driving. It is made up of several hardware and software components, grouped according to their main function. The design of this architecture is based on the previous works carried out by the AUTOPIA Program, although notable improvements have been made regarding the efficiency, robustness and scalability of the system. It is also remarkable the work made on the development of a location algorithm for vehicles. The proposal is based on the emulation of the behaviour of biological swarms and its performance is similar to the well-known particle filters. The developed method combines information obtained from different sensors, including GPS, inertial measurement unit (IMU), and data from the original vehicle’s sensors on-board. Through this filtering algorithm the localization problem is properly managed, which is critical for the development of autonomous driving systems. The work deals also with the fuzzy control tuning system, a very time consuming task when done manually. An analysis of learning and adaptation techniques for the development of different controllers has been made. First, the Q-learning –a reinforcement learning method– has been applied to the generation of a lateral fuzzy controller from scratch. Subsequently, the development of an adaptation method for longitudinal control is presented. With this proposal, a final cruise control controller is able to deal with unpredictable environment disturbances, such as road slope, wheel’s friction or even occupants’ weight. As a testbed for the system, an autonomous driving experiment on real roads is presented. This experiment was carried out on June 2012, driving from San Lorenzo de El Escorial up to the Center for Automation and Robotics (CAR) facilities in Arganda del Rey. The main goal of the demonstration was validating the performance, robustness and viability of the proposed architecture to deal with the problem of autonomous driving under more demanding conditions than those achieved on closed test tracks.
Resumo:
Los objetivos globales de esta tesis han sido estudiar el efecto que los carbohidratos de la dieta ejercen sobre los rendimientos productivos, la barrera intestinal, y la digestión de animales destetados a 25 días de edad. Además se ha estudiado cuál es el mejor periodo para determinar la digestibilidad fecal tras el destete a esta edad. En el primer experimento se estudió el efecto de la fibra neutro detergente soluble (FNDS) sobre la barrera intestinal, digestión, microbiota intestinal y rendimientos productivos de gazapos en gazapos en la fase post-destete. Se diseñaron tres piensos isonutritivos en los que la única fuente de variación fueron los niveles de fibra soluble. A partir de una dieta control (AH) con 103 g/kg de materia seca de FNDS y alfalfa como fuente principal de fibra, se sustituyó la mitad de esta alfalfa por una mezcla de pulpa de remolacha y pulpa de manzana (75:25) en el pienso B-AP y por una mezcla de cascarilla y concentrado de proteína de soja (88:12) en el pienso OH, obteniéndose 131 y 79 g/kg de FNDS sobre materia seca, respectivamente. Los conejos se destetaron a 25 días y fueron alimentados con los piensos experimentales hasta los 35 días de edad, momento en el que se sacrificaron para la determinación de la digestibilidad ileal aparente (DIA) de la materia seca (MS), proteína bruta (PB) y almidón, la morfología de la mucosa, y actividad enzimática en el yeyuno, el tejido linfoide asociado a la mucosa, así como la microbiota intestinal. Para la determinación de la morfología de la mucosa se utilizaron adicionalmente 19 animales lactantes de 35 días de edad. Para el estudio de la tasa de mortalidad, se utilizaron 118 animales más por tratamiento que recibieron los piensos experimentales durante las dos semanas post-destete y posteriormente un pienso comercial hasta los 60 días de edad. Los animales recibieron durante todo el experimento medicación en el agua de bebida (100 ppm de apramicina sulfato y 120 ppm de tilosina tartrato). El nivel de fibra soluble mejoró los parámetros que se utilizaron para la caracterización del estado de la barrera intestinal. Los conejos alimentados con el mayor nivel de FNDS en el pienso presentaron una mayor longitud de los villi (P=0.001), un mayor ratio longitud villi/profundidad de las criptas (8.14; P=0.001), una mayor actividad disacaridásica (8671 μmol de glucosa/g de proteína; P=0.019), así como una mayor digestibilidad ileal (96.8%; P=0.002), observándose una reducción en el flujo ileal de almidón a medida que se incrementó el nivel de fibra soluble en el pienso (1,2 vs 0,5 g/d; P=0.001). Los animales lactantes a 35 días de edad presentaron un ratio longitud de villi/profundidad de las criptas menor que el observado en aquéllos alimentados con el pienso B-AP (6.70), pero superior al de los piensos AH y OH. Niveles inferiores de NDFS tendieron (P=0.074) a incrementar la respuesta inmune de tipo celular (linfocitos CD8+). El pienso también afectó a la producción de IL2 (CD25+; P=0.029; CD5+CD25+; P=0.057), pero sin llegar a establecerse una clara relación con el nivel de fibra soluble. La diversidad de la microbiota intestinal no se vio afectada por el pienso (P ≥ 0.38). Los animales alimentados con las piensos B-AP y AH presentaron una reducción en la frecuencia de detección de Clostridium perfringens tanto en íleon (P=0.062) como en ciego (4.3 vs. 17.6%, P =0.047), comparado con el pienso OH. Además la tasa de mortalidad (118 gazapos/pienso) disminuyó de 14.4% en el pienso OH a 5.1% en el pienso B-AP. Entre los 32 y los 35 días de edad se determinó la digestibilidad fecal aparente (14/pienso) de la materia seca (MS), energía bruta (EB), proteína bruta (PB), fibra neutro detergente (FND), fibra ácido detergente (FAD) y almidón. Este grupo, junto con otros nueve animales por tratamiento se utilizaron para determinar el peso del estómago y el ciego, la concentración cecal de ácidos grasos volátiles (AGV) y amoniaco (NH3), así como las tasas de similitud de la microbiota intestinal. Además se estudiaron los rendimientos productivos (35 animales/tratamiento) de los gazapos durante todo el período de cebo, consumiendo los piensos experimentales desde el destete hasta los 35 días y posteriormente un pienso comercial hasta los 60 días de edad. Niveles crecientes de FNDS mejoraron la digestibilidad fecal de la materia seca (MS) y energía (P<0.001). La inclusión FNDS aumentó de manera lineal el peso del contenido cecal (P=0.001) y el peso del aparato digestivo completo (P=0.008), y en los días previos al sacrificio disminuyó de manera lineal el consumo medio diario (P=0.040). Se observó además, una disminución lineal (P≤0.041) del pH del estómago. No se encontró relación entre el pH, la concentración y proporciones molares de AGV y el nivel de FNDS. El pienso pareció tener un efecto, incluso superior al de la madre, sobre la tasa de similitud de la microbiota, y los efectos fueron mayores a nivel cecal que ileal. La eficacia alimenticia aumentó de manera lineal en un 12% entre piensos extremos tras el destete (25- 39d) y en un 3% en el período global de cebo con niveles mayores de NDFS. El consumo medio diario durante la fase post-destete y durante todo el período de cebo, tendió a aumen tar (P≤0.079) con niveles mayores de FNDS, sin embargo no se apreció efecto sobre la ganancia media diaria (P≥0.15). En conclusión, el incremento del nivel de fibra soluble en el pienso parece resultar beneficioso para la salud del animal ya que mejora la integridad de la mucosa, y reduce la frecuencia de detección de potenciales patógenos como C. perfringens y Campylobacter spp. Conforme a estos resultados, debería tenerse en cuenta el contenido en fibra soluble en la formulación de piensos de conejos en la fase post-destete. El objetivo del segundo experimento fue determinar el efecto de la fuente de almidón sobre la digestión, la microbiota intestinal y los rendimientos productivos en conejos destetados con 25 días de edad. Se formularon tres piensos isonutritivos en los que se modificaron las principales fuentes de almidón: trigo crudo, trigo cocido y una combinación de trigo y arroz cocido. Dos grupos de 99 y 193 animales se destetaron con 25 días de edad. El primero de ellos se utilizó para la determinación de los parámetros productivos conforme al mismo protocolo seguido en el experimento anterior. El segundo de los grupos se utilizó para la determinación de la digestibilidad fecal de 32 a 35 d, la digestibilidad ileal aparente (DIA) a 35 d, la morfología de la mucosa intestinal, los parámetros de fermentación cecal; así como, la caracterización de la microbiota intestinal. Se utilizaron además dos grupos adicionales de animales 384 (medicados) y 177 (no medicados) para estudiar el efecto de la suplementación con antibióticos en el agua de bebida sobre la mortalidad. El procesado térmico del trigo mejoró ligeramente la digestibilidad ileal del almidón (P=0.020) pero no modificó el flujo final de almidón que alcanzó el ciego, observándose una mayor frecuencia de detección de Campylobacter spp. y Ruminococcus spp. en ciego (P≤0.023), pero sin cambios a nivel ileal. El procesado térmico del trigo no afectó tampoco a los parámetros productivos, la mortalidad, la digestibilidad ileal y fecal o la morfología de la mucosa. La sustitución parcial del trigo cocido por arroz cocido, penalizó la digestibilidad ileal del almidón (P=0.020) e incrementó el flujo ileal de este nutriente al ciego (P=0.007). Sin embargo no afectó a la mortalidad, pese a que se detectaron cambios en la microbiota tanto a nivel ileal como cecal, disminuyendo la frecuencia de detección de Campylobacter spp. (en íleon y ciego), Helicobacter spp. (en íleon) y Ruminococcus spp (en ciego) e incrementando Bacteroides spp. (en ciego) (P≤0.046). El empleo de arroz cocido en las piensos post-destete no tuvieron efectos sobre los parámetros productivos, la mortalidad, la digestibilidad ileal y fecal a excepción del almidón, o la morfología de la mucosa. La suplementación con antibiótico redujo la fre cuencia de detección de la mayoría de las bacterias estudiadas (P≤0.048), sobre todo para Campylobacter spp., Clostridium perfringens y Propionibacterium spp. (P≤0.048), observándose un efecto mayor a nivel ileal que cecal, lo que se asoció a la bajada significativa (P<0.001) de la mortalidad. En conclusión, los resultados de este experimento indican que la fuente de almidón afecta a la microbiota intestinal pero no influiye sobre la salud del animal. En relación al procesado, el uso de trigo cocido junto con arroz cocido no mejora los resultados obtenidos con trigo duro, si bienserían necesarios más experimentos que confirmaran este punto. El último de los experimentos se centró en un aspecto metodológico. Dado que, los conejos destetados presentan un patrón digestivo diferente al de un animal adulto resultado de su inmadurez digestiva, el objetivo buscado era tratar de determinar el mejor procedimiento para la determinación de la digestibilidad fecal en los gazapos en la fase post-destete. Para tal fin se utilizaron 15 animales/tratamiento de tres camadas diferentes que se destetaron con 25 días, suministrándoles un pienso comercial de crecimiento-cebo. Se registró el consumo medio diario y la excreción diaria de heces desde el día 25 hasta el día 40 de edad para la determinación de la digestibilidad de la MS. La camada afectó al consumo medio diario y la excreción de heces (P=0.013 y 0.014, respectivamente), observándose una tendencia (P=0.061) en la digestibilidad. La edad afectó (P<0.001) a todos estos factores, incrementándose de manera más evidente la excreción que la ingestión de materia seca en la primera semana de vida, para aumentar de forma paralela a partir de la segunda. La correlación entre el consumo medio diario fue mayor con la excreción de heces del mismo día que con la del día siguiente, por lo que se utilizó el primero para la determinación de la digestibilidad de la MS (MSd). La MSd disminuyó de manera lineal hasta los 32 días de edad (2.17±0.25 unidades porcentuales por día), mientras que permaneció constante desde los 32 a los 40 días (69.4±0.47%). Por otro lado, la desviación estándar de la MSd se redujo cuando se incrementó el período de recogida de 2 a 6 días en un 54%. Conforme a los resultados obtenidos, se puede concluir que no es aconsejable comenzar las pruebas de digestibilidad antes de los 32 días de edad y que el número de animales necesario para detectar diferencias significativas entre tratamientos dependerá del período de recogida de heces. ABSTRACT The global aim of this thesis has been to study the effect of dietary carbohydrates on growth, performance, digestion and intestinal barrier in 25-d weaned rabbits. In addition there has also been studied which is the best period to determine the fecal digestibility after weaning. The first experiment focused on the effect of Neutral Detergent Soluble Fibre (NDSF) on gut barrier function, digestion, intestinal microbiota and growth performance n rabbits in the post-weaning period. Three isonutritive diets which only varied in the levels of soluble fiber were formulated such as it described as follows: a control diet (AH) containing 103 g of neutral detergent soluble fiber, including alfalfa as main source of fiber, was replaced by a mixture of beet and apple pulp (75-25) in the B-AP diet and, by a mix of oat hulls and soybean protein concentrate (88:12) in the OH diet, resulting 131 and 79 g of NDFS/kg of dry matter, respectively. Rabbits, weaned at 25 days of age, were fed the experimental diets up to 35 days of age, moment in which they were slaughtered for apparent ileal digestibility (AID) of dry matter (DM), crude protein (CP) and starch, mucosa morphology, sucrose activity, characterization of lamina propria lymphocytes and intestinal microbiota. To assess mucosal morphology, 19 suckling 35-d-old rabbits were also used. For mortality study, besides these animals, 118 additional rabbits per treatment were fed the experimental diets for two weeks period and thereafter received a commercial diet until 60 days of age. Rabbits were water medicated during the whole experimental period (100 ppm de apramicine sulphate and 120 ppm of tylosine tartrate). Level of soluble fiber improved all the parameters used for the characterization of the intestinal barrier condition. Villous height of the jejunal mucosa increased with dietary soluble fiber (P=0.001). Villous height of jejunal mucosa increased with dietary soluble fiber (P = 0.001). Rabbits fed the highest level of soluble fiber (BA-P diet) showed the highest villous height/crypth depth ratio (8.14; P = 0.001), sucrase specific activity (8671 μmol glucose/ g protein; P = 0.019), and the greatest ileal starch digestibility (96.8%; P = 0.002). The opposite effects were observed in rabbits fed decreased levels of soluble fiber (AH and OH diets; 4.70, 5,848 μmol of glucose/g of protein, as average, respectively). The lowest ileal starch digestibility was detected for animal fed OH diet (93.2%). Suckling rabbits of the same age showed a lower villous height/crypt depth ratio (6.70) compared with the B-AP diet group, but this ration was higher that the AH or OH diet groups. Lower levels of soluble fiber tended (P = 0.074) to increase the cellular immune response (CD8+ lymphocytes). Diet affected IL-2 production (CD25+, P = 0.029; CD5+CD25+, P = 0.057), with no clear relationship between soluble fiber and IL-2. The intestinal microbiota biodiversity was not affected by diets (P ≥ 0.38). Animals fed B-AP and AH diets had a reduced cecal frequency of detection compatible with Campylobacter spp. (20.3 vs. 37.8, P = 0.074), and Clostridium perfringens (4.3 vs. 17.6%, P = 0.047), compared with the OH diet group. Moreover, the mortality rates decreased from 14.4 (OH diet) to 5.1% (B-AP diet) with the increased presence of soluble fiber in the diet. Between 32 and 35 days of age, faecal apparent digestibility of dry matter (DM), gross energy (GE), crude protein (CP), neutral detergent fiber (NDF), acid detergent fiber (ADF) and starch was determined (14/diet). This group, plus another nine rabbits/diet were used to determine weight of stomach and caecum and their contents, cecal fermentation traits and similarity rate (SR) of intestinal microbiota. Besides, growth performance parameters (35 rabbits/diet) were studied during the whole fattening period, in animals consuming the experimental feed after the weaning up to 35 days of age and later on a commercial diet up animals reached 60 days of age. Increasing levels of Neutral Detergent Soluble Fiber improved faecal dry matter and energy digestibility (P<0.001). NDSF inclusion improved linearly weight of the caecal content (P=0.001) and the total gastrointestinal tract (P=0.008), and in the previous days to slaughter a linear decrease of daily feed intake in diet with highest level of soluble fiber was also observed. Stomach pH decreased linearly with increasing levels of NDFS (P≤0.041). No relation between NDSF level on pH, concentration and molar proportion of VFA was found. Treatments appeared to influence the similarity rate of microbiota, even higher to mother effect. These effects were higher in ileum than in caecum. A linear positive effect of feed efficiency was observed, which increased around 12% in the two weeks post-weaning (25-39d) and 3% in the whole fattening period between extreme diets with highest levels of soluble fiber. Average daily feed intake during the two weeks after weaning and in the whole fattening period, tended (P≤0.079) to increase with highest levels of NDSF; although there were no effect on daily weight gain (≥0.15). In conclusion, an increase of soluble fiber in the feed seems to be beneficial for animal health, due to improve mucose integrity and reduce detection frequency of those poten tial pathogens like C. perfringens and Campylobacter spp. According to these results, level of soluble fiber should be taking care in feed rabbit formulation in the post-weaning period. The objective of the second experiment was to determine the effect of source of starch on digestion, intestinal microbiota and growth performance in twenty-five-day old weaned rabbits. To accomplish with this aim three iso-nutritive diets were formulated with different source of starch: raw wheat, boiled wheat and a combination of boiled wheat and boiled rice. Two groups of 99 and 193 rabbits were weaned at 25 days of age. The first group was used for growth performance determination following the same protocol than in previous experiment. The second group was used to determine faecal digestibility from 32 to 35 d, apparent ileal digestibility (AID) at 35 d, jejunal mucosa morphology, caecal fermentation traits and characterization of intestinal microbiota. For mortality, two additional groups of 384 (medicated) and 177 (not medicated) were used in order to study the effect of antibiotic water supply supplementation. Heat processing of starch slightly improved ileal digestibility of starch (P=0.020) but did not modify the flow of starch to the caecum. An increase in frequency of detection of Campylobacter spp. y Ruminococcus spp. was observed in the caecum (P≤0.023), with no changes at ileal level. Heat processing of wheat did not modify growth performance, mortality, ileal or faecal digestibility and mucosa morphology. Partial substitution of boiled wheat for boiled rice in the diet impaired ileal starch digestibility (P=0.020) and increased the ileal flow of this nutrient to the caecum (P=0.007). However, it did not affect mortality rate, although changes in the ileal and caecal intestinal microbiota were detected, decreasing the frequency of detection of Campylobacter spp. (both ileum and caecum), Helicobacter spp. (at ileum) and Ruminococcus spp (at caecum) and increasing the Bacteroides spp. (at caecum) (P≤0.046). The effect of boiled rice supplementation did not alter growth performance, mortality, ileal or faecal digestibility of other nutrients than starch, and mucosa morphology. Medication of rabbits reduced the ileal frequency of detection of most bacteria studied (P≤0.048), especially for Campylobacter spp., Clostridium perfringens y Propionibacterium spp. (P≤0.048), resulting the effect higher at ileal than caecal level and relating it with a strong reduction of mortality rate (P<0.001). In conclusion, the results of this experiment make think that the source of starch affects the intestinal microbiota but they do not seem to influence animal health. In relation to the effect of heat processed the use of cooked wheat or cooked rice it does not seem to im prove the results obtained with hard wheat, but there would be necessary more experiments that were confirming this point. The last experiment focused on a methodological aspect. Considering that, weaned rabbits have a different digestive pattern than older animals due to their digestive immaturity; the fixed objective was to determine the best procedure for faecal digestibility determination in young rabbits in the post-weaning period. Fifteen rabbits from 5 different litters were weaned at 25 days of age and fed with a commercial feed. Feed intake and faeces excretion were recorded daily from 25 to 40 days of age for dry matter digestibility (DMd) determination. Litter affected daily DM intake and excretion (P=0.013 y 0.014, respectively) and tended to affect DMd (P=0.061). Age affected all these factors (P<0.001), but ingestion increased slowly than dry matter excretion during the first week buth they evolved similarly in the second week. The correlation between daily feed intakes was higher with the faeces excretion of the day than with faeces excretion of the next day, and the first values were used to determine daily DMd. The DMd decreased linearly from weaning to 32 d of age (2.17±0.25 percentage units per day), whereas from 32 to 40 d remained constant (69.4±0.47%). On the other hand, average standard deviation of DMd decreased by 54% when the length of collection period increased from 2 to 6d. Consequently to the obtained results, it could be concluded that it would not be advisable to start digestibility trials before the 32 days of age and that the number of animals required to detect a significant difference among means would depend on the collection period.
Resumo:
El futuro de la energía nuclear de fisión dependerá, entre otros factores, de la capacidad que las nuevas tecnologías demuestren para solventar los principales retos a largo plazo que se plantean. Los principales retos se pueden resumir en los siguientes aspectos: la capacidad de proporcionar una solución final, segura y fiable a los residuos radiactivos; así como dar solución a la limitación de recursos naturales necesarios para alimentar los reactores nucleares; y por último, una mejora robusta en la seguridad de las centrales que en definitiva evite cualquier daño potencial tanto en la población como en el medio ambiente como consecuencia de cualquier escenario imaginable o más allá de lo imaginable. Siguiendo estas motivaciones, la Generación IV de reactores nucleares surge con el compromiso de proporcionar electricidad de forma sostenible, segura, económica y evitando la proliferación de material fisible. Entre los sistemas conceptuales que se consideran para la Gen IV, los reactores rápidos destacan por su capacidad potencial de transmutar actínidos a la vez que permiten una utilización óptima de los recursos naturales. Entre los refrigerantes que se plantean, el sodio parece una de las soluciones más prometedoras. Como consecuencia, esta tesis surgió dentro del marco del proyecto europeo CP-ESFR con el principal objetivo de evaluar la física de núcleo y seguridad de los reactores rápidos refrigerados por sodio, al tiempo que se desarrollaron herramientas apropiadas para dichos análisis. Efectivamente, en una primera parte de la tesis, se abarca el estudio de la física del núcleo de un reactor rápido representativo, incluyendo el análisis detallado de la capacidad de transmutar actínidos minoritarios. Como resultado de dichos análisis, se publicó un artículo en la revista Annals of Nuclear Energy [96]. Por otra parte, a través de un análisis de un hipotético escenario nuclear español, se evalúo la disponibilidad de recursos naturales necesarios en el caso particular de España para alimentar una flota específica de reactores rápidos, siguiendo varios escenarios de demanda, y teniendo en cuenta la capacidad de reproducción de plutonio que tienen estos sistemas. Como resultado de este trabajo también surgió una publicación en otra revista científica de prestigio internacional como es Energy Conversion and Management [97]. Con objeto de realizar esos y otros análisis, se desarrollaron diversos modelos del núcleo del ESFR siguiendo varias configuraciones, y para diferentes códigos. Por otro lado, con objeto de poder realizar análisis de seguridad de reactores rápidos, son necesarias herramientas multidimensionales de alta fidelidad específicas para reactores rápidos. Dichas herramientas deben integrar fenómenos relacionados con la neutrónica y con la termo-hidráulica, entre otros, mediante una aproximación multi-física. Siguiendo este objetivo, se evalúo el código de difusión neutrónica ANDES para su aplicación a reactores rápidos. ANDES es un código de resolución nodal que se encuentra implementado dentro del sistema COBAYA3 y está basado en el método ACMFD. Por lo tanto, el método ACMFD fue sometido a una revisión en profundidad para evaluar su aptitud para la aplicación a reactores rápidos. Durante ese proceso, se identificaron determinadas limitaciones que se discutirán a lo largo de este trabajo, junto con los desarrollos que se han elaborado e implementado para la resolución de dichas dificultades. Por otra parte, se desarrolló satisfactoriamente el acomplamiento del código neutrónico ANDES con un código termo-hidráulico de subcanales llamado SUBCHANFLOW, desarrollado recientemente en el KIT. Como conclusión de esta parte, todos los desarrollos implementados son evaluados y verificados. En paralelo con esos desarrollos, se calcularon para el núcleo del ESFR las secciones eficaces en multigrupos homogeneizadas a nivel nodal, así como otros parámetros neutrónicos, mediante los códigos ERANOS, primero, y SERPENT, después. Dichos parámetros se utilizaron más adelante para realizar cálculos estacionarios con ANDES. Además, como consecuencia de la contribución de la UPM al paquete de seguridad del proyecto CP-ESFR, se calcularon mediante el código SERPENT los parámetros de cinética puntual que se necesitan introducir en los típicos códigos termo-hidráulicos de planta, para estudios de seguridad. En concreto, dichos parámetros sirvieron para el análisis del impacto que tienen los actínidos minoritarios en el comportamiento de transitorios. Concluyendo, la tesis presenta una aproximación sistemática y multidisciplinar aplicada al análisis de seguridad y comportamiento neutrónico de los reactores rápidos de sodio de la Gen-IV, usando herramientas de cálculo existentes y recién desarrolladas ad' hoc para tal aplicación. Se ha empleado una cantidad importante de tiempo en identificar limitaciones de los métodos nodales analíticos en su aplicación en multigrupos a reactores rápidos, y se proponen interesantes soluciones para abordarlas. ABSTRACT The future of nuclear reactors will depend, among other aspects, on the capability to solve the long-term challenges linked to this technology. These are the capability to provide a definite, safe and reliable solution to the nuclear wastes; the limitation of natural resources, needed to fuel the reactors; and last but not least, the improved safety, which would avoid any potential damage on the public and or environment as a consequence of any imaginable and beyond imaginable circumstance. Following these motivations, the IV Generation of nuclear reactors arises, with the aim to provide sustainable, safe, economic and proliferationresistant electricity. Among the systems considered for the Gen IV, fast reactors have a representative role thanks to their potential capacity to transmute actinides together with the optimal usage of natural resources, being the sodium fast reactors the most promising concept. As a consequence, this thesis was born in the framework of the CP-ESFR project with the generic aim of evaluating the core physics and safety of sodium fast reactors, as well as the development of the approppriated tools to perform such analyses. Indeed, in a first part of this thesis work, the main core physics of the representative sodium fast reactor are assessed, including a detailed analysis of the capability to transmute minor actinides. A part of the results obtained have been published in Annals of Nuclear Energy [96]. Moreover, by means of the analysis of a hypothetical Spanish nuclear scenario, the availability of natural resources required to deploy an specific fleet of fast reactor is assessed, taking into account the breeding properties of such systems. This work also led to a publication in Energy Conversion and Management [97]. In order to perform those and other analyses, several models of the ESFR core were created for different codes. On the other hand, in order to perform safety studies of sodium fast reactors, high fidelity multidimensional analysis tools for sodium fast reactors are required. Such tools should integrate neutronic and thermal-hydraulic phenomena in a multi-physics approach. Following this motivation, the neutron diffusion code ANDES is assessed for sodium fast reactor applications. ANDES is the nodal solver implemented inside the multigroup pin-by-pin diffusion COBAYA3 code, and is based on the analytical method ACMFD. Thus, the ACMFD was verified for SFR applications and while doing so, some limitations were encountered, which are discussed through this work. In order to solve those, some new developments are proposed and implemented in ANDES. Moreover, the code was satisfactorily coupled with the thermal-hydraulic code SUBCHANFLOW, recently developed at KIT. Finally, the different implementations are verified. In addition to those developments, the node homogenized multigroup cross sections and other neutron parameters were obtained for the ESFR core using ERANOS and SERPENT codes, and employed afterwards by ANDES to perform steady state calculations. Moreover, as a result of the UPM contribution to the safety package of the CP-ESFR project, the point kinetic parameters required by the typical plant thermal-hydraulic codes were computed for the ESFR core using SERPENT, which final aim was the assessment of the impact of minor actinides in transient behaviour. All in all, the thesis provides a systematic and multi-purpose approach applied to the assessment of safety and performance parameters of Generation-IV SFR, using existing and newly developed analytical tools. An important amount of time was employed in identifying the limitations that the analytical nodal diffusion methods present when applied to fast reactors following a multigroup approach, and interesting solutions are proposed in order to overcome them.
Resumo:
The effects of power and time conditions of in situ N2 plasma treatment, prior to silicon nitride (SiN) passivation, were investigated on an AlGaN/GaN high-electron mobility transistor (HEMT). These studies reveal that N2 plasma power is a critical parameter to control the SiN/AlGaN interface quality, which directly affects the 2-D electron gas density. Significant enhancement in the HEMT characteristics was observed by using a low power N2 plasma pretreatment. In contrast, a marked gradual reduction in the maximum drain-source current density (IDS max) and maximum transconductance (gm max), as well as in fT and fmax, was observed as the N2 plasma power increases (up to 40% decrease for 210 W). Different mechanisms were proposed to be dominant as a function of the discharge power range. A good correlation was observed between the device electrical characteristics and the surface assessment by atomic force microscopy and Kelvin force microscopy techniques.
Resumo:
The Pridneprovsky Chemical Plant was one of the largest uranium processing enterprises in the former USSR, producing a huge amount of uranium residues. The Zapadnoe tailings site contains most of these residues. We propose a theoretical framework based on multicriteria decision analysis and fuzzy logic to analyze different remediation alternatives for the Zapadnoe tailings, which simultaneously accounts for potentially conflicting economic, social and environmental objectives. We build an objective hierarchy that includes all the relevant aspects. Fuzzy rather than precise values are proposed for use to evaluate remediation alternatives against the different criteria and to quantify preferences, such as the weights representing the relative importance of criteria identified in the objective hierarchy. Finally, we suggest that remediation alternatives should be evaluated by means of a fuzzy additive multi-attribute utility function and ranked on the basis of the respective trapezoidal fuzzy number representing their overall utility.
Resumo:
This paper contributes with a unified formulation that merges previ- ous analysis on the prediction of the performance ( value function ) of certain sequence of actions ( policy ) when an agent operates a Markov decision process with large state-space. When the states are represented by features and the value function is linearly approxi- mated, our analysis reveals a new relationship between two common cost functions used to obtain the optimal approximation. In addition, this analysis allows us to propose an efficient adaptive algorithm that provides an unbiased linear estimate. The performance of the pro- posed algorithm is illustrated by simulation, showing competitive results when compared with the state-of-the-art solutions.
Resumo:
Public Private Partnerships (PPPs) are mostly implemented for three reasons: to circumvent budgetary constraints, encourage efficiency and improvement of quality in the provision of public infrastructure. One of the ways of reaching the latter objective is by the introduction of performance-based standards tied to bonuses and penalties to reward or punish the performance of the contractor. These performance based standards often refer to different aspects such as technical, environmental and safety issues. This paper focuses on the implementation of safety based incentives in PPPs. The main aim of this paper is to analyze whether the incentives to improve road safety in PPPs are effective in improving safety ratios in Spain. To this end, negative binomial regression models have been applied using information from the Spanish high capacity network in 2006. The findings indicate that even though road safety is highly influenced by variables that are not much controllable by the contractor such as the Average Annual Daily Traffic and the percentage of heavy vehicles in the highway, the implementation of safety incentives in PPPs has a positive influence in the reduction of fatalities, injuries and accidents.
Resumo:
The objective of this paper is to provide performance metrics for small-signal stability assessment of a given system architecture. The stability margins are stated utilizing a concept of maximum peak criteria (MPC) derived from the behavior of an impedance-based sensitivity function. For each minor-loop gain defined at every system interface, a single number to state the robustness of stability is provided based on the computed maximum value of the corresponding sensitivity function. In order to compare various power-architecture solutions in terms of stability, a parameter providing an overall measure of the whole system stability is required. The selected figure of merit is geometric average of each maximum peak value within the system. It provides a meaningful metrics for system comparisons: the best system in terms of robust stability is the one that minimizes this index. In addition, the largest peak value within the system interfaces is given thus detecting the weakest point of the system in terms of robustness.
Resumo:
The effect of cup anemometer shape parameters, such as the cups’ shape, their size, and their center rotation radius, was experimentally analyzed.This analysis was based on both the calibration constants of the transfer function and the most important harmonic termof the rotor’smovement,which due to the cup anemometer design is the third one.This harmonic analysis represents a new approach to study cup anemometer performances. The results clearly showed a good correlation between the average rotational speed of the anemometer’s rotor and the mentioned third harmonic term of its movement.
Resumo:
Due to the high dependence of photovoltaic energy efficiency on environmental conditions (temperature, irradiation...), it is quite important to perform some analysis focusing on the characteristics of photovoltaic devices in order to optimize energy production, even for small-scale users. The use of equivalent circuits is the preferred option to analyze solar cells/panels performance. However, the aforementioned small-scale users rarely have the equipment or expertise to perform large testing/calculation campaigns, the only information available for them being the manufacturer datasheet. The solution to this problem is the development of new and simple methods to define equivalent circuits able to reproduce the behavior of the panel for any working condition, from a very small amount of information. In the present work a direct and completely explicit method to extract solar cell parameters from the manufacturer datasheet is presented and tested. This method is based on analytical formulation which includes the use of the Lambert W-function to turn the series resistor equation explicit. The presented method is used to analyze commercial solar panel performance (i.e., the current-voltage–I-V–curve) at different levels of irradiation and temperature. The analysis performed is based only on the information included in the manufacturer’s datasheet.
Resumo:
Due to the high dependence of photovoltaic energy efficiency on environmental conditions (temperature, irradiation...), it is quite important to perform some analysis focusing on the characteristics of photovoltaic devices in order to optimize energy production, even for small-scale users. The use of equivalent circuits is the preferred option to analyze solar cells/panels performance. However, the aforementioned small-scale users rarely have the equipment or expertise to perform large testing/calculation campaigns, the only information available for them being the manufacturer datasheet. The solution to this problem is the development of new and simple methods to define equivalent circuits able to reproduce the behavior of the panel for any working condition, from a very small amount of information. In the present work a direct and completely explicit method to extract solar cell parameters from the manufacturer datasheet is presented and tested. This method is based on analytical formulation which includes the use of the Lambert W-function to turn the series resistor equation explicit. The presented method is used to analyze the performance (i.e., the I - V curve) of a commercial solar panel at different levels of irradiation and temperature. The analysis performed is based only on the information included in the manufacturer's datasheet.
Resumo:
The city of Madrid keeps not meeting the GHG and air pollutant limits set by the European legislation. A broad range of strategies have being taken into account to reduce both types of emissions; however traffic management meas ures are usually consigned to the sidelines. In 2004, Madrid City Council launched a plan to re-design its inner ring-road supported by a socioeconomic study that evaluated the environmental and operational benefits of the project. For safety reasons the planned speed limit for the tunnel section was finally reduced from 90km/h to 70km/h. Using a Macroscopic Traffic Model and the European Air Pollutant and Emissions Inventory Guidebook (EMEP/EEA), this paper examines the environmental and traffic performance consequences of this decision. Results support the thesis that reduced speed limits leads to GHG and air pollution reductions in the area affected by the measure without substantially altering traffic performance. The implementation of the new speed limit policy brings about a 15% and 16% reduction in both CO2 and NOx emissions respectively. Emissions’ reduction during off-peak hours is larger than during peak hours.
Resumo:
Una apropiada evaluación de los márgenes de seguridad de una instalación nuclear, por ejemplo, una central nuclear, tiene en cuenta todas las incertidumbres que afectan a los cálculos de diseño, funcionanmiento y respuesta ante accidentes de dicha instalación. Una fuente de incertidumbre son los datos nucleares, que afectan a los cálculos neutrónicos, de quemado de combustible o activación de materiales. Estos cálculos permiten la evaluación de las funciones respuesta esenciales para el funcionamiento correcto durante operación, y también durante accidente. Ejemplos de esas respuestas son el factor de multiplicación neutrónica o el calor residual después del disparo del reactor. Por tanto, es necesario evaluar el impacto de dichas incertidumbres en estos cálculos. Para poder realizar los cálculos de propagación de incertidumbres, es necesario implementar metodologías que sean capaces de evaluar el impacto de las incertidumbres de estos datos nucleares. Pero también es necesario conocer los datos de incertidumbres disponibles para ser capaces de manejarlos. Actualmente, se están invirtiendo grandes esfuerzos en mejorar la capacidad de analizar, manejar y producir datos de incertidumbres, en especial para isótopos importantes en reactores avanzados. A su vez, nuevos programas/códigos están siendo desarrollados e implementados para poder usar dichos datos y analizar su impacto. Todos estos puntos son parte de los objetivos del proyecto europeo ANDES, el cual ha dado el marco de trabajo para el desarrollo de esta tesis doctoral. Por tanto, primero se ha llevado a cabo una revisión del estado del arte de los datos nucleares y sus incertidumbres, centrándose en los tres tipos de datos: de decaimiento, de rendimientos de fisión y de secciones eficaces. A su vez, se ha realizado una revisión del estado del arte de las metodologías para la propagación de incertidumbre de estos datos nucleares. Dentro del Departamento de Ingeniería Nuclear (DIN) se propuso una metodología para la propagación de incertidumbres en cálculos de evolución isotópica, el Método Híbrido. Esta metodología se ha tomado como punto de partida para esta tesis, implementando y desarrollando dicha metodología, así como extendiendo sus capacidades. Se han analizado sus ventajas, inconvenientes y limitaciones. El Método Híbrido se utiliza en conjunto con el código de evolución isotópica ACAB, y se basa en el muestreo por Monte Carlo de los datos nucleares con incertidumbre. En esta metodología, se presentan diferentes aproximaciones según la estructura de grupos de energía de las secciones eficaces: en un grupo, en un grupo con muestreo correlacionado y en multigrupos. Se han desarrollado diferentes secuencias para usar distintas librerías de datos nucleares almacenadas en diferentes formatos: ENDF-6 (para las librerías evaluadas), COVERX (para las librerías en multigrupos de SCALE) y EAF (para las librerías de activación). Gracias a la revisión del estado del arte de los datos nucleares de los rendimientos de fisión se ha identificado la falta de una información sobre sus incertidumbres, en concreto, de matrices de covarianza completas. Además, visto el renovado interés por parte de la comunidad internacional, a través del grupo de trabajo internacional de cooperación para evaluación de datos nucleares (WPEC) dedicado a la evaluación de las necesidades de mejora de datos nucleares mediante el subgrupo 37 (SG37), se ha llevado a cabo una revisión de las metodologías para generar datos de covarianza. Se ha seleccionando la actualización Bayesiana/GLS para su implementación, y de esta forma, dar una respuesta a dicha falta de matrices completas para rendimientos de fisión. Una vez que el Método Híbrido ha sido implementado, desarrollado y extendido, junto con la capacidad de generar matrices de covarianza completas para los rendimientos de fisión, se han estudiado diferentes aplicaciones nucleares. Primero, se estudia el calor residual tras un pulso de fisión, debido a su importancia para cualquier evento después de la parada/disparo del reactor. Además, se trata de un ejercicio claro para ver la importancia de las incertidumbres de datos de decaimiento y de rendimientos de fisión junto con las nuevas matrices completas de covarianza. Se han estudiado dos ciclos de combustible de reactores avanzados: el de la instalación europea para transmutación industrial (EFIT) y el del reactor rápido de sodio europeo (ESFR), en los cuales se han analizado el impacto de las incertidumbres de los datos nucleares en la composición isotópica, calor residual y radiotoxicidad. Se han utilizado diferentes librerías de datos nucleares en los estudios antreriores, comparando de esta forma el impacto de sus incertidumbres. A su vez, mediante dichos estudios, se han comparando las distintas aproximaciones del Método Híbrido y otras metodologías para la porpagación de incertidumbres de datos nucleares: Total Monte Carlo (TMC), desarrollada en NRG por A.J. Koning y D. Rochman, y NUDUNA, desarrollada en AREVA GmbH por O. Buss y A. Hoefer. Estas comparaciones demostrarán las ventajas del Método Híbrido, además de revelar sus limitaciones y su rango de aplicación. ABSTRACT For an adequate assessment of safety margins of nuclear facilities, e.g. nuclear power plants, it is necessary to consider all possible uncertainties that affect their design, performance and possible accidents. Nuclear data are a source of uncertainty that are involved in neutronics, fuel depletion and activation calculations. These calculations can predict critical response functions during operation and in the event of accident, such as decay heat and neutron multiplication factor. Thus, the impact of nuclear data uncertainties on these response functions needs to be addressed for a proper evaluation of the safety margins. Methodologies for performing uncertainty propagation calculations need to be implemented in order to analyse the impact of nuclear data uncertainties. Nevertheless, it is necessary to understand the current status of nuclear data and their uncertainties, in order to be able to handle this type of data. Great eórts are underway to enhance the European capability to analyse/process/produce covariance data, especially for isotopes which are of importance for advanced reactors. At the same time, new methodologies/codes are being developed and implemented for using and evaluating the impact of uncertainty data. These were the objectives of the European ANDES (Accurate Nuclear Data for nuclear Energy Sustainability) project, which provided a framework for the development of this PhD Thesis. Accordingly, first a review of the state-of-the-art of nuclear data and their uncertainties is conducted, focusing on the three kinds of data: decay, fission yields and cross sections. A review of the current methodologies for propagating nuclear data uncertainties is also performed. The Nuclear Engineering Department of UPM has proposed a methodology for propagating uncertainties in depletion calculations, the Hybrid Method, which has been taken as the starting point of this thesis. This methodology has been implemented, developed and extended, and its advantages, drawbacks and limitations have been analysed. It is used in conjunction with the ACAB depletion code, and is based on Monte Carlo sampling of variables with uncertainties. Different approaches are presented depending on cross section energy-structure: one-group, one-group with correlated sampling and multi-group. Differences and applicability criteria are presented. Sequences have been developed for using different nuclear data libraries in different storing-formats: ENDF-6 (for evaluated libraries) and COVERX (for multi-group libraries of SCALE), as well as EAF format (for activation libraries). A revision of the state-of-the-art of fission yield data shows inconsistencies in uncertainty data, specifically with regard to complete covariance matrices. Furthermore, the international community has expressed a renewed interest in the issue through the Working Party on International Nuclear Data Evaluation Co-operation (WPEC) with the Subgroup (SG37), which is dedicated to assessing the need to have complete nuclear data. This gives rise to this review of the state-of-the-art of methodologies for generating covariance data for fission yields. Bayesian/generalised least square (GLS) updating sequence has been selected and implemented to answer to this need. Once the Hybrid Method has been implemented, developed and extended, along with fission yield covariance generation capability, different applications are studied. The Fission Pulse Decay Heat problem is tackled first because of its importance during events after shutdown and because it is a clean exercise for showing the impact and importance of decay and fission yield data uncertainties in conjunction with the new covariance data. Two fuel cycles of advanced reactors are studied: the European Facility for Industrial Transmutation (EFIT) and the European Sodium Fast Reactor (ESFR), and response function uncertainties such as isotopic composition, decay heat and radiotoxicity are addressed. Different nuclear data libraries are used and compared. These applications serve as frameworks for comparing the different approaches of the Hybrid Method, and also for comparing with other methodologies: Total Monte Carlo (TMC), developed at NRG by A.J. Koning and D. Rochman, and NUDUNA, developed at AREVA GmbH by O. Buss and A. Hoefer. These comparisons reveal the advantages, limitations and the range of application of the Hybrid Method.