12 resultados para Risk based Maintenance

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Flash floods are of major relevance in natural disaster management in the Mediterranean region. In many cases, the damaging effects of flash floods can be mitigated by adequate management of flood control reservoirs. This requires the development of suitable models for optimal operation of reservoirs. A probabilistic methodology for calibrating the parameters of a reservoir flood control model (RFCM) that takes into account the stochastic variability of flood events is presented. This study addresses the crucial problem of operating reservoirs during flood events, considering downstream river damages and dam failure risk as conflicting operation criteria. These two criteria are aggregated into a single objective of total expected damages from both the maximum released flows and stored volumes (overall risk index). For each selected parameter set the RFCM is run under a wide range of hydrologic loads (determined through Monte Carlo simulation). The optimal parameter set is obtained through the overall risk index (balanced solution) and then compared with other solutions of the Pareto front. The proposed methodology is implemented at three different reservoirs in the southeast of Spain. The results obtained show that the balanced solution offers a good compromise between the two main objectives of reservoir flood control management

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Monilinia spp. (M. laxa, M. fructigena y M. fructicola) causa marchitez en brotes y flores, chancros en ramas y podredumbre de la fruta de hueso provocando pérdidas económicas importantes en años con climatología favorable para el desarrollo de la enfermedad, particularmente en variedades tardías de melocotonero y nectarino. En estos huéspedes en España, hasta el momento, la especie predominante es M. laxa y, en menor proporción, M. fructigena. La reciente introducción en Europa de la especie de cuarentena M. fructicola hace necesaria una detección e identificación rápida de cada una de las especies. Además, hay diversos aspectos de la etiología y epidemiología de la enfermedad que no se conocen en las condiciones de cultivo españolas. En un primer objetivo de esta Tesis se ha abordado la detección e identificación de las especies de Monilinia spp. causantes de podredumbre parda. El estudio de las bases epidemiológicas para el control de la enfermedad constituye el fin del segundo objetivo. Para la detección del género Monilinia en material vegetal por PCR, diferenciándolo de otros hongos presentes en la superficie del melocotonero, se diseñaron una pareja de cebadores siguiendo un análisis del ADN ribosomal. La discriminación entre especies de Monilinia se consiguió utilizando marcadores SCAR (región amplificada de secuencia caracterizada), obtenidos después de un estudio de marcadores polimórficos de ADN amplificados al azar (RAPDs). También fue diseñado un control interno de amplificación (CI) basado en la utilización de un plásmido con secuencias de los cebadores diferenciadores del género, para ser utilizado en el protocolo de diagnóstico de la podredumbre parda con el fin de reconocer falsos negativos debidos a la inhibición de PCR por componentes celulares del material vegetal. Se disponía de un kit comercial que permitía distinguir Monilinia de otros géneros y M. fructicola del resto de especies mediante anticuerpos monoclonales utilizando la técnica DAS-ELISA. En esta Tesis se probaron diferentes fuentes de material como micelio ó conidias procedentes de cultivos en APD, o el micelio de la superficie de frutas o de momias frescas, como formas de antígeno. Los resultados obtenidos con ELISA se compararon con la identificación por métodos morfológico-culturales y por PCR con los cebadores desarrollados en esta Tesis. Los resultados demostraron la posibilidad de una detección temprana en frutas frescas por este método, realzando las posibilidades de una diagnosis temprana para una prevención más eficaz de M. fructicola en fruta de hueso. El estudio epidemiológico de la enfermedad comenzó con la determinación de las principales fuentes de inóculo primario y su importancia relativa en melocotoneros y nectarinos del valle del Ebro. Para ello se muestrearon 9 huertos durante los años 2003 a 2005 recogiendo todas las momias, frutos abortados, gomas, chancros, y brotes necróticos en los árboles. También se recogieron brotes aparentemente sanos y muestras de material vegetal situados en el suelo. En estas muestras se determinó la presencia de Monilinia spp. Los resultados mostraron que la fuente principal de inóculo son las momias que se quedan en los árboles en las que la supervivencia del hongo tras el invierno es muy alta. También son fuentes de inóculo las momias del suelo y los brotes necróticos. De aquí se deriva que una recomendación importante para los agricultores es que deben eliminar este material de los huertos. Un aspecto no estudiado en melocotonero o nectarino en España es la posible relación que puede darse entre la incidencia de infecciones latentes en los frutos inmaduros a lo largo del cultivo y la incidencia de podredumbre en los frutos en el momento de la recolección y en postcosecha. Esta relación se había observado previamente en otros frutales de hueso infectados con M. fructicola en diversos países del mundo. Para estudiar esta relación se realizaron ensayos en cinco huertos comerciales de melocotonero y nectarino situados en el Valle del Ebro en cuatro estados fenológicos durante los años 2000-2002. No se observaron infecciones latentes en botón rosa, dándose la máxima incidencia en precosecha, aunque en algunos huertos se daba otro pico en el endurecimiento del embrión. La especie prevaleciente fue M. laxa. Se obtuvo una correlación positiva significativa entre la incidencia de infecciones latentes y la incidencia de podredumbre en postcosecha. Se desarrolló también un modelo de predicción de las infecciones latentes en función de la temperatura (T) y el periodo de humectación (W). Este modelo indicaba que T y W explicaban el 83% de la variación en la incidencia de infecciones latentes causadas por Monilinia spp. Por debajo de 8ºC no se predecían latentes, necesitándose más de 22h de W para predecir la ocurrencia de latentes con T = 8ºC, mientras que solo se necesitaban 5h de W a 25ºC. Se hicieron también ensayos en condiciones controladas para determinar la relación entre la incidencia de las infecciones latentes, las condiciones ambientales (T y W), la concentración de inóculo del patógeno (I) y el estado de desarrollo del huésped (S) y para validar el modelo de predicción desarrollado con los experimentos de campo. Estos ensayos se llevaron cabo con flores y frutos de nectarino procedentes de un huerto comercial en seis estados fenológicos en los años 2004 y 2005, demostrándose que la incidencia de podredumbre en postcosecha y de infecciones latentes estaba afectada por T, W, I y S. En los frutos se producían infecciones latentes cuando la T no era adecuada para el desarrollo de podredumbre. Una vez desarrollado el embrión eran necesarias más de 4-5h de W al día y un inóculo superior a 104 conidias ml-1 para que se desarrollase o podredumbre o infección latente. La ecuación del modelo obtenido con los datos de campo era capaz de predecir los datos observados en estos experimentos. Para evaluar el efecto del inóculo de Monilinia spp. en la incidencia de infecciones latentes y de podredumbre de frutos en postcosecha se hicieron 11 experimentos en huertos comerciales de melocotonero y nectarino del Valle del Ebro durante 2002 a 2005. Se observó una correlación positiva entre los números de conidias de Monilinia spp. en la superficie de los frutos y la incidencia de infecciones latentes De los estudios anteriores se deducen otras dos recomendaciones importantes para los agricultores: las estrategias de control deben tener en cuenta las infecciones latentes y estimar el riesgo potencial de las mismas basándose en la T y W. Deben tener también en cuenta la concentración de esporas de Monilinia spp. en la superficie de los frutos para disminuir el riesgo de podredumbre parda. El conocimiento de la estructura poblacional de los patógenos sienta las bases para establecer métodos más eficaces de manejo de las enfermedades. Por ello en esta Tesis se ha estudiado el grado de diversidad genética entre distintas poblaciones de M. laxa en diferentes localidades españolas utilizando 144 marcadores RAPDs (59 polimórficos y 85 monomórficos) y 21 aislados. El análisis de la estructura de la población reveló que la diversidad genética dentro de las subpoblaciones (huertos) (HS) representaba el 97% de la diversidad genética (HT), mientras que la diversidad genética entre subpoblaciones (DST) sólo representaba un 3% del total de esta diversidad. La magnitud relativa de la diferenciación génica entre subpoblaciones (GST) alcanzaba 0,032 y el número estimado de migrantes por generación (Nm) fue de 15,1. Los resultados obtenidos en los dendrogramas estaban de acuerdo con el análisis de diversidad génica. Las agrupaciones obtenidas eran independientes del huerto de procedencia, año o huésped. En la Tesis se discute la importancia relativa de las diferentes fuentes evolutivas en las poblaciones de M. laxa. Finalmente se realizó un muestreo en distintos huertos de melocotonero y nectarino del Valle del Ebro para determinar la existencia o no de aislados resistentes a los fungicidas del grupo de los benzimidazoles y las dicarboximidas, fungicidas utilizados habitualmente para el control de la podredumbre parda y con alto riesgo de desarrollar resistencia en las poblaciones patógenas. El análisis de 114 aislados de M. laxa con los fungicidas Benomilo (bencimidazol) (1Bg m.a ml-1), e Iprodiona (dicarboximida) (5Bg m.a ml-1), mostró que ninguno era resistente en las dosis ensayadas. Monilinia spp. (M. laxa, M. fructigena and M. fructicola) cause bud and flower wilt, canker in branches and stone fruit rot giving rise important economic losses in years with appropriate environmental conditions, it is particularly important in late varieties of peach and nectarine. Right now, M. laxa is the major species for peach and nectarine in Spain followed by M. fructigena, in a smaller proportion. The recent introduction of the quarantine organism M. fructicola in Europe makes detection and identification of each one of the species necessary. In addition, there are different aspects of disease etiology and epidemiology that are not well known in Spain conditions. The first goal of this Thesis was the detection and identification of Monilinia spp. causing brown rot. Study of the epidemiology basis for disease control was the second objective. A pair of primers for PCR detection was designed based on the ribosomal DNA sequence in order to detect Monilinia spp. in plant material and to discriminate it from other fungi colonizing peach tree surface. Discrimination among Monilinia spp. was successful by SCAR markers (Sequence Characterized Amplified Region), obtained after a random amplified polymorphic DNA markers (RAPDs) study. An internal control for the PCR (CI) based on the use of a mimic plasmid designed on the primers specific for Monilinia was constructed to be used in diagnosis protocol for brown rot in order to avoid false negatives due to the inhibition of PCR as consequence of remained plant material. A commercial kit based on DAS-ELISA and monoclonals antibodies was successfully tested to distinguish Monilinia from other fungus genera and M. fructicola from other Monilinia species. Different materials such as micelium or conidias from APD cultures, or micelium from fresh fruit surfaces or mummies were tested in this Thesis, as antigens. Results obtained by ELISA were compared to classical identification by morphologic methods and PCR with the primers developed in this Thesis. Results demonstrated the possibility of an early detection in fresh fruits by this method for a more effective prevention of M. fructicola in stone fruit. The epidemiology study of the disease started with the determination of the main sources of primary inoculum and its relative importance in peach trees and nectarines in the Ebro valley. Nine orchards were evaluated during years 2003 to 2005 collecting all mummies, aborted fruits, rubbers, cankers, and necrotic buds from the trees. Apparently healthy buds and plant material located in the ground were also collected. In these samples presence of Monilinia spp. was determined. Results showed that the main inoculum sources are mummies that stay in the trees and where fungus survival after the winter is very high. Mummies on the ground and the necrotics buds are also sources of inoculum. As consequence of this an important recommendation for the growers is the removal of this material of the orchards. An important issue not well studied in peach or nectarine in Spain is the possible relationship between the incidence of latent infections in the immature fruits and the incidence of fruit rot at harvesting and postharvesting. This relationship had been previously shown in other stone fruit trees infected with M. fructicola in different countries over the world. In order to study this relationship experiments were run in five commercial peach and nectarine orchards located in the Ebro Valley in four phenologic states from 2000 to 2002. Latent infections were not observed in pink button, the maxima incidence arise in preharvest, although in some orchards another increase occurred in the embryo hardening. The most prevalence species was M. laxa. A significant positive correlation between the incidence of latent infections and the incidence of rot in postharvest was obtained. A prediction model of the latent infections based on the temperature (T) and the wetness duration (W) was also developed. This model showed that T and W explained 83% of the variation in latent infection incidence caused by Monilinia spp. Below 8ºC latent infection was not predicted, more than 22h of W with T = 8ºC were needed to predict latent infection occurrence of, whereas at 25ºC just 5h of W were enough. Tests under controlled conditions were also made to determine the relationship among latent infections incidence, environmental conditions (T and W), inoculum concentration of the pathogen (I) and development state of the host (S) to validate the prediction model developed on the field experiments. These tests were made with flowers and fruits of nectarine coming from a commercial orchard, in six phenologic states in 2004 and 2005, showing that incidence of rot in postharvest and latent infections were affected by T, W, I and S. In fruits latent infections took place when the T was not suitable for rot development. Once developed the embryo, more than 4-5h of W per day and higher inoculums (104 conidia ml-1) were necessary for rot or latent infection development. The equation of the model obtained with the field data was able to predict the data observed in these experiments. In order to evaluate the effect of inoculum of Monilinia spp. in the incidence of latent infections and of rot of fruits in postharvest, 11 experiments in commercial orchards of peach and nectarine of the Ebro Valley were performed from 2002 to 2005. A positive correlation between the conidial numbers of Monilinia spp. in the surface of the fruits and the incidence of latent infections was observed. Based on those studies other two important recommendations for the agriculturists are deduced: control strategies must consider the latent infections and potential risk based on the T and W. Spores concentration of Monilinia spp. in the surface of fruits must be also taken in concern to reduce the brown rot risk. The knowledge of the population structure of the pathogens determines the bases to establish more effective methods of diseases handling. For that reason in this Thesis the degree of genetic diversity among different M. laxa populations has been studied in different Spanish locations using 144 RAPDs markers (59 polymorphic and 85 monomorphics) on 21 fungal isolates. The analysis of the structure of the population revealed that the genetic diversity within the subpopulations (orchards) (HS) represented 97% of the genetic diversity (HT), whereas the genetic diversity between subpopulations (DST) only represented a 3% of the total of this diversity. The relative magnitude of the genic differentiation between subpopulations (GST) reached 0.032 and the considered number of migrantes by generation (Nm) was of 15.1. The results obtained in dendrograms were in agreement with the analysis of genic diversity. The obtained groupings were independent of the orchard of origin, year or host. In the Thesis the relative importance of the different evolutionary sources in the populations from M. laxa is discussed. Finally a sampling of resistant isolates in different orchards from peach and nectarine of Ebro Valley was made to determine the existence of fungicide resistance of the group of benzimidazoles and the dicarboximidas, fungicides used habitually for the control of rot brown and with high risk of resistance developing in the pathogenic populations. The analysis of 114 isolated ones of M. laxa with the fungicides Benomilo (bencimidazol) (1Bg m.a ml-1), and Iprodiona (dicarboximida) (5Bg m.a ml-1), showed no resistant in the doses evaluated.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Sustaining irrigated agriculture to meet food production needs while maintaining aquatic ecosystems is at the heart of many policy debates in various parts of the world, especially in arid and semi-arid areas. Researchers and practitioners are increasingly calling for integrated approaches, and policy-makers are progressively supporting the inclusion of ecological and social aspects in water management programs. This paper contributes to this policy debate by providing an integrated economic-hydrologic modeling framework that captures the socio-economic and environmental effects of various policy initiatives and climate variability. This modeling integration includes a risk-based economic optimization model and a hydrologic water management simulation model that have been specified for the Middle Guadiana basin, a vulnerable drought-prone agro-ecological area with highly regulated river systems in southwest Spain. Namely, two key water policy interventions were investigated: the implementation of minimum environmental flows (supported by the European Water Framework Directive, EU WFD), and a reduction in the legal amount of water delivered for irrigation (planned measure included in the new Guadiana River Basin Management Plan, GRBMP, still under discussion). Results indicate that current patterns of excessive water use for irrigation in the basin may put environmental flow demands at risk, jeopardizing the WFD s goal of restoring the ?good ecological status? of water bodies by 2015. Conflicts between environmental and agricultural water uses will be stressed during prolonged dry episodes, and particularly in summer low-flow periods, when there is an important increase of crop irrigation water requirements. Securing minimum stream flows would entail a substantial reduction in irrigation water use for rice cultivation, which might affect the profitability and economic viability of small rice-growing farms located upstream in the river. The new GRBMP could contribute to balance competing water demands in the basin and to increase economic water productivity, but might not be sufficient to ensure the provision of environmental flows as required by the WFD. A thoroughly revision of the basin s water use concession system for irrigation seems to be needed in order to bring the GRBMP in line with the WFD objectives. Furthermore, the study illustrates that social, economic, institutional, and technological factors, in addition to bio-physical conditions, are important issues to be considered for designing and developing water management strategies. The research initiative presented in this paper demonstrates that hydro-economic models can explicitly integrate all these issues, constituting a valuable tool that could assist policy makers for implementing sustainable irrigation policies.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La sequía afecta a todos los sectores de la sociedad y se espera que su frecuencia e intensidad aumente debido al cambio climático. Su gestión plantea importantes retos en el futuro. El enfoque de riesgo, que promueve una respuesta proactiva, se identifica como un marco de gestión apropiado que se está empezando a consolidar a nivel internacional. Sin embargo, es necesario contar con estudios sobre las características de la gestión de la sequía bajo este enfoque y sus implicaciones en la práctica. En esta tesis se evalúan diversos elementos que son relevantes para la gestión de la sequía, desde diferentes perspectivas, con especial énfasis en el componente social de la sequía. Para esta investigación se han desarrollado cinco estudios: (1) un análisis de las leyes de emergencia aprobadas durante la sequía 2005-2008 en España; (2) un estudio sobre la percepción de la sequía de los agricultores a nivel local; (3) una evaluación de las características y enfoque de gestión en seis casos de estudio a nivel europeo; (4) un análisis sistemático de los estudios de cuantificación de la vulnerabilidad a la sequía a nivel global; y (5) un análisis de los impactos de la sequía a partir en una base de datos europea. Los estudios muestran la importancia de la capacidad institucional como un factor que promueve y facilita la adopción del enfoque de riesgo. Al mismo tiempo, la falta de estudios de vulnerabilidad, el escaso conocimiento de los impactos y una escasa cultura de la evaluación post-sequía destacan como importantes limitantes para aprovechar el conocimiento que se genera en la gestión de un evento. A través del estudio de las leyes de sequía se evidencia la existencia de incoherencias entre cómo se define el problema de la sequía y las soluciones que se plantean, así como el uso de un discurso de securitización para perseguir objetivos más allá de la gestión de la sequía. El estudio de percepción permite identificar la existencia de diferentes problemas y percepciones de la sequía y muestra cómo los regantes utilizan principalmente los impactos para identificar y caracterizar la severidad de un evento, lo cual difiere de las definiciones predominantes a otros niveles de gestión. Esto evidencia la importancia de considerar la diversidad de definiciones y percepciones en la gestión, para realizar una gestión más ajustada a las necesidades de los diferentes sectores y colectivos. El análisis de la gestión de la sequía en seis casos de estudio a nivel europeo ha permitido identificar diferentes niveles de adopción del enfoque de riesgo en la práctica. El marco de análisis establecido, que se basa en seis dimensiones de análisis y 21 criterios, ha resultado ser una herramienta útil para diagnosticar los elementos que funcionan y los que es necesario mejorar en relación a la gestión del riesgo a la sequía. El análisis sistemático de los estudios de vulnerabilidad ha evidenciado la heterogeneidad en los marcos conceptuales utilizados así como debilidades en los factores de vulnerabilidad que se suelen incluir, en muchos casos derivada de la falta de datos. El trabajo sistemático de recolección de información sobre impactos de la sequía ha evidenciado la escasez de información sobre el tema a nivel europeo y la importancia de la gestión de la información. La base de datos de impactos desarrollada tiene un gran potencial como herramienta exploratoria y orientativa del tipo de impactos que produce la sequía en cada región, pero todavía presenta algunos retos respecto a su contenido, proceso de gestión y utilidad práctica. Existen importantes limitaciones vinculadas con el acceso y la disponibilidad de información y datos relevantes vinculados con la gestión de la sequía y todos sus componentes. La participación, los niveles de gestión, la perspectiva sectorial y las relaciones entre los componentes de gestión del riesgo considerados constituyen aspectos críticos que es necesario mejorar en el futuro. Así, los cinco artículos en su conjunto presentan ejemplos concretos que ayudan a conocer mejor la gestión de la sequía y que pueden resultar de utilidad para políticos, gestores y usuarios. ABSTRACT Drought affects all sectors and their frequency and intensity is expected to increase due to climate change. Drought management poses significant challenges in the future. Undertaking a drought risk management approach promotes a proactive response, and it is starting to consolidate internationally. However, it is still necessary to conduct studies on the characteristics of drought risk management and its practical implications. This thesis provides an evaluation of various relevant aspects of drought management from different perspectives and with special emphasis on the social component of droughts. For the purpose of this research a number of five studies have been carried out: (1) analysis of the emergency laws adopted during the 2005-2008 drought in Spain; (2) study of farmers perception of drought at a local level; (3) assessment of the characteristics and drought management issues in six case studies across Europe; (4) systematic analysis of drought vulnerability assessments; and (5) analysis of drought impacts from an European impacts text-based database. The results show the importance of institutional capacity as a factor that promotes and facilitates the adoption of a risk approach. In contrast, the following issues are identified as the main obstacles to take advantage of the lessons learnt: (1) lack of vulnerability studies, (2) limited knowledge about the impact and (3) limited availability of post-drought assessments Drought emergency laws evidence the existence of inconsistencies between drought problem definition and the measures proposed as solutions. Moreover, the securitization of the discourse pursue goals beyond management drought. The perception of drought by farmers helps to identify the existence of several definitions of drought. It also highlights the importance of impacts in defining and characterizing the severity of an event. However, this definition differs from the one used at other institutional and management level. As a conclusion, this remarks the importance of considering the diversity of definitions and perceptions to better tailor drought management to the needs of different sectors and stakeholders. The analysis of drought management in six case studies across Europe show different levels of risk adoption approach in practice. The analytical framework proposed is based on six dimensions and 21 criteria. This method has proven to be a useful tool in diagnosing the elements that work and those that need to be improved in relation to drought risk management. The systematic analysis of vulnerability assessment studies demonstrates the heterogeneity of the conceptual frameworks used. Driven by the lack of relevant data, the studies point out significant weaknesses of the vulnerabilities factors that are typically included The heterogeneity of the impact data collected at European level to build the European Drought Impact Reports Database (EDII) highlights the importance of information management. The database has great potential as exploratory tool and provides indicative useful information of the type of impacts that occurred in a particular region. However, it still presents some challenges regarding their content, the process of data collection and management and its usefulness. There are significant limitations associated with the access and availability of relevant information and data related to drought management and its components. The following improvement areas on critical aspects have been identified for the near future: participation, levels of drought management, sectorial perspective and in-depth assessment of the relationships between the components of drought risk management The five articles presented in this dissertation provides concrete examples of drought management evaluation that help to better understand drought management from a risk-based perspective which can be useful for policy makers, managers and users.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A useful strategy for improving disaster risk management is sharing spatial data across different technical organizations using shared information systems. However, the implementation of this type of system requires a large effort, so it is difficult to find fully implemented and sustainable information systems that facilitate sharing multinational spatial data about disasters, especially in developing countries. In this paper, we describe a pioneer system for sharing spatial information that we developed for the Andean Community. This system, called SIAPAD (Andean Information System for Disaster Prevention and Relief), integrates spatial information from 37 technical organizations in the Andean countries (Bolivia, Colombia, Ecuador, and Peru). SIAPAD was based on the concept of a thematic Spatial Data Infrastructure (SDI) and includes a web application, called GEORiesgo, which helps users to find relevant information with a knowledge-based system. In the paper, we describe the design and implementation of SIAPAD together with general conclusions and future directions which we learned as a result of this work.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

This paper presents the design and implementation of an intelligent control system based on local neurofuzzy models of the milling process relayed through an Ehternet-based application. Its purpose is to control the spindle torque of a milling process by using an internal model control paradigm to modify the feed rate in real time. The stabilization of cutting cutting torque is especially necessary in milling processes such as high-spedd roughing of steel moulds and dies tha present minor geometric uncertainties. Thus, maintenance of the curring torque increaes the material removal rate and reduces the risk of damage due to excessive spindle vibration, a very sensitive and expensive component in all high-speed milling machines. Torque control is therefore an interesting challenge from an industrial point of view.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Como en todos los medios de transporte, la seguridad en los viajes en avión es de primordial importancia. Con los aumentos de tráfico aéreo previstos en Europa para la próxima década, es evidente que el riesgo de accidentes necesita ser evaluado y monitorizado cuidadosamente de forma continúa. La Tesis presente tiene como objetivo el desarrollo de un modelo de riesgo de colisión exhaustivo como método para evaluar el nivel de seguridad en ruta del espacio aéreo europeo, considerando todos los factores de influencia. La mayor limitación en el desarrollo de metodologías y herramientas de monitorización adecuadas para evaluar el nivel de seguridad en espacios de ruta europeos, donde los controladores aéreos monitorizan el tráfico aéreo mediante la vigilancia radar y proporcionan instrucciones tácticas a las aeronaves, reside en la estimación del riesgo operacional. Hoy en día, la estimación del riesgo operacional está basada normalmente en reportes de incidentes proporcionados por el proveedor de servicios de navegación aérea (ANSP). Esta Tesis propone un nuevo e innovador enfoque para evaluar el nivel de seguridad basado exclusivamente en el procesamiento y análisis trazas radar. La metodología propuesta ha sido diseñada para complementar la información recogida en las bases de datos de accidentes e incidentes, mediante la provisión de información robusta de los factores de tráfico aéreo y métricas de seguridad inferidas del análisis automático en profundidad de todos los eventos de proximidad. La metodología 3-D CRM se ha implementado en un prototipo desarrollado en MATLAB © para analizar automáticamente las trazas radar y planes de vuelo registrados por los Sistemas de Procesamiento de Datos Radar (RDP) e identificar y analizar todos los eventos de proximidad (conflictos, conflictos potenciales y colisiones potenciales) en un periodo de tiempo y volumen del espacio aéreo. Actualmente, el prototipo 3-D CRM está siendo adaptado e integrado en la herramienta de monitorización de prestaciones de Aena (PERSEO) para complementar las bases de accidentes e incidentes ATM y mejorar la monitorización y proporcionar evidencias de los niveles de seguridad. ABSTRACT As with all forms of transport, the safety of air travel is of paramount importance. With the projected increases in European air traffic in the next decade and beyond, it is clear that the risk of accidents needs to be assessed and carefully monitored on a continuing basis. The present thesis is aimed at the development of a comprehensive collision risk model as a method of assessing the European en-route risk, due to all causes and across all dimensions within the airspace. The major constraint in developing appropriate monitoring methodologies and tools to assess the level of safety in en-route airspaces where controllers monitor air traffic by means of radar surveillance and provide aircraft with tactical instructions lies in the estimation of the operational risk. The operational risk estimate normally relies on incident reports provided by the air navigation service providers (ANSPs). This thesis proposes a new and innovative approach to assessing aircraft safety level based exclusively upon the process and analysis of radar tracks. The proposed methodology has been designed to complement the information collected in the accident and incident databases, thereby providing robust information on air traffic factors and safety metrics inferred from the in depth assessment of proximate events. The 3-D CRM methodology is implemented in a prototype tool in MATLAB © in order to automatically analyze recorded aircraft tracks and flight plan data from the Radar Data Processing systems (RDP) and identify and analyze all proximate events (conflicts, potential conflicts and potential collisions) within a time span and a given volume of airspace. Currently, the 3D-CRM prototype is been adapted and integrated in AENA’S Performance Monitoring Tool (PERSEO) to complement the information provided by the ATM accident and incident databases and to enhance monitoring and providing evidence of levels of safety.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A multivariate analysis on flood variables is needed to design some hydraulic structures like dams, as the complexity of the routing process in a reservoir requires a representation of the full hydrograph. In this work, a bivariate copula model was used to obtain the bivariate joint distribution of flood peak and volume, in order to know the probability of occurrence of a given inflow hydrograph. However, the risk of dam overtopping is given by the maximum water elevation reached during the routing process, which depends on the hydrograph variables, the reservoir volume and the spillway crest length. Consequently, an additional bivariate return period, the so-called routed return period, was defined in terms of risk of dam overtopping based on this maximum water elevation obtained after routing the inflow hydrographs. The theoretical return periods, which give the probability of occurrence of a hydrograph prior to accounting for the reservoir routing, were compared with the routed return period, as in both cases hydrographs with the same probability will draw a curve in the peak-volume space. The procedure was applied to the case study of the Santillana reservoir in Spain. Different reservoir volumes and spillway lengths were considered to investigate the influence of the dam and reservoir characteristics on the results. The methodology improves the estimation of the Design Flood Hydrograph and can be applied to assess the risk of dam overtopping

Relevância:

40.00% 40.00%

Publicador:

Resumo:

This thesis presents a task-oriented approach to telemanipulation for maintenance in large scientific facilities, with specific focus on the particle accelerator facilities at European Organization for Nuclear Research (CERN) in Geneva, Switzerland and GSI Helmholtz Centre for Heavy Ion Research (GSI) in Darmstadt, Germany. It examines how telemanipulation can be used in these facilities and reviews how this differs from the representation of telemanipulation tasks within the literature. It provides methods to assess and compare telemanipulation procedures as well a test suite to compare telemanipulators themselves from a dexterity perspective. It presents a formalisation of telemanipulation procedures into a hierarchical model which can be then used as a basis to aid maintenance engineers in assessing tasks for telemanipulation, and as the basis for future research. The model introduces a new concept of Elemental Actions as the building block of telemanipulation movements and incorporates the dependent factors for procedures at a higher level of abstraction. In order to gain insight into realistic tasks performed by telemanipulation systems within both industrial and research environments a survey of teleoperation experts is presented. Analysis of the responses is performed from which it is concluded that there is a need within the robotics community for physical benchmarking tests which are geared towards evaluating the dexterity of telemanipulators for comparison of their dexterous abilities. A three stage test suite is presented which is designed to allow maintenance engineers to assess different telemanipulators for their dexterity. This incorporates general characteristics of the system, a method to compare kinematic reachability of multiple telemanipulators and physical test setups to assess dexterity from a both a qualitative perspective and measurably by using performance metrics. Finally, experimental results are provided for the application of the proposed test suite onto two telemanipulation systems, one from a research setting and the other within CERN. It describes the procedure performed and discusses comparisons between the two systems, as well as providing input from the expert operator of the CERN system.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

This paper presents a model for determining value at operational risk ?OpVaR? in electric utilities, with the aim to confirm the versatility of the Bank for International Settlements (BIS) proposals. The model intends to open a new methodological approach in risk management, paying special attention to underlying operational sources of risk.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In this paper we focus on the selection of safeguards in a fuzzy risk analysis and management methodology for information systems (IS). Assets are connected by dependency relationships, and a failure of one asset may affect other assets. After computing impact and risk indicators associated with previously identified threats, we identify and apply safeguards to reduce risks in the IS by minimizing the transmission probabilities of failures throughout the asset network. However, as safeguards have associated costs, the aim is to select the safeguards that minimize costs while keeping the risk within acceptable levels. To do this, we propose a dynamic programming-based method that incorporates simulated annealing to tackle optimizations problems.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Esta tesis aborda metodologías para el cálculo de riesgo de colisión de satélites. La minimización del riesgo de colisión se debe abordar desde dos puntos de vista distintos. Desde el punto de vista operacional, es necesario filtrar los objetos que pueden presentar un encuentro entre todos los objetos que comparten el espacio con un satélite operacional. Puesto que las órbitas, del objeto operacional y del objeto envuelto en la colisión, no se conocen perfectamente, la geometría del encuentro y el riesgo de colisión deben ser evaluados. De acuerdo con dicha geometría o riesgo, una maniobra evasiva puede ser necesaria para evitar la colisión. Dichas maniobras implican un consumo de combustible que impacta en la capacidad de mantenimiento orbital y por tanto de la visa útil del satélite. Por tanto, el combustible necesario a lo largo de la vida útil de un satélite debe ser estimado en fase de diseño de la misión para una correcta definición de su vida útil, especialmente para satélites orbitando en regímenes orbitales muy poblados. Los dos aspectos, diseño de misión y aspectos operacionales en relación con el riesgo de colisión están abordados en esta tesis y se resumen en la Figura 3. En relación con los aspectos relacionados con el diseño de misión (parte inferior de la figura), es necesario evaluar estadísticamente las características de de la población espacial y las teorías que permiten calcular el número medio de eventos encontrados por una misión y su capacidad de reducir riesgo de colisión. Estos dos aspectos definen los procedimientos más apropiados para reducir el riesgo de colisión en fase operacional. Este aspecto es abordado, comenzando por la teoría descrita en [Sánchez-Ortiz, 2006]T.14 e implementada por el autor de esta tesis en la herramienta ARES [Sánchez-Ortiz, 2004b]T.15 proporcionada por ESA para la evaluación de estrategias de evitación de colisión. Esta teoría es extendida en esta tesis para considerar las características de los datos orbitales disponibles en las fases operacionales de un satélite (sección 4.3.3). Además, esta teoría se ha extendido para considerar riesgo máximo de colisión cuando la incertidumbre de las órbitas de objetos catalogados no es conocida (como se da el caso para los TLE), y en el caso de querer sólo considerar riesgo de colisión catastrófico (sección 4.3.2.3). Dichas mejoras se han incluido en la nueva versión de ARES [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 puesta a disposición a través de [SDUP,2014]R.60. En fase operacional, los catálogos que proporcionan datos orbitales de los objetos espaciales, son procesados rutinariamente, para identificar posibles encuentros que se analizan en base a algoritmos de cálculo de riesgo de colisión para proponer maniobras de evasión. Actualmente existe una única fuente de datos públicos, el catálogo TLE (de sus siglas en inglés, Two Line Elements). Además, el Joint Space Operation Center (JSpOC) Americano proporciona mensajes con alertas de colisión (CSM) cuando el sistema de vigilancia americano identifica un posible encuentro. En función de los datos usados en fase operacional (TLE o CSM), la estrategia de evitación puede ser diferente debido a las características de dicha información. Es preciso conocer las principales características de los datos disponibles (respecto a la precisión de los datos orbitales) para estimar los posibles eventos de colisión encontrados por un satélite a lo largo de su vida útil. En caso de los TLE, cuya precisión orbital no es proporcionada, la información de precisión orbital derivada de un análisis estadístico se puede usar también en el proceso operacional así como en el diseño de la misión. En caso de utilizar CSM como base de las operaciones de evitación de colisiones, se conoce la precisión orbital de los dos objetos involucrados. Estas características se han analizado en detalle, evaluando estadísticamente las características de ambos tipos de datos. Una vez concluido dicho análisis, se ha analizado el impacto de utilizar TLE o CSM en las operaciones del satélite (sección 5.1). Este análisis se ha publicado en una revista especializada [Sánchez-Ortiz, 2015b]T.3. En dicho análisis, se proporcionan recomendaciones para distintas misiones (tamaño del satélite y régimen orbital) en relación con las estrategias de evitación de colisión para reducir el riesgo de colisión de manera significativa. Por ejemplo, en el caso de un satélite en órbita heliosíncrona en régimen orbital LEO, el valor típico del ACPL que se usa de manera extendida es 10-4. Este valor no es adecuado cuando los esquemas de evitación de colisión se realizan sobre datos TLE. En este caso, la capacidad de reducción de riesgo es prácticamente nula (debido a las grandes incertidumbres de los datos TLE) incluso para tiempos cortos de predicción. Para conseguir una reducción significativa del riesgo, sería necesario usar un ACPL en torno a 10-6 o inferior, produciendo unas 10 alarmas al año por satélite (considerando predicciones a un día) o 100 alarmas al año (con predicciones a tres días). Por tanto, la principal conclusión es la falta de idoneidad de los datos TLE para el cálculo de eventos de colisión. Al contrario, usando los datos CSM, debido a su mejor precisión orbital, se puede obtener una reducción significativa del riesgo con ACPL en torno a 10-4 (considerando 3 días de predicción). Incluso 5 días de predicción pueden ser considerados con ACPL en torno a 10-5. Incluso tiempos de predicción más largos se pueden usar (7 días) con reducción del 90% del riesgo y unas 5 alarmas al año (en caso de predicciones de 5 días, el número de maniobras se mantiene en unas 2 al año). La dinámica en GEO es diferente al caso LEO y hace que el crecimiento de las incertidumbres orbitales con el tiempo de propagación sea menor. Por el contrario, las incertidumbres derivadas de la determinación orbital son peores que en LEO por las diferencias en las capacidades de observación de uno y otro régimen orbital. Además, se debe considerar que los tiempos de predicción considerados para LEO pueden no ser apropiados para el caso de un satélite GEO (puesto que tiene un periodo orbital mayor). En este caso usando datos TLE, una reducción significativa del riesgo sólo se consigue con valores pequeños de ACPL, produciendo una alarma por año cuando los eventos de colisión se predicen a un día vista (tiempo muy corto para implementar maniobras de evitación de colisión).Valores más adecuados de ACPL se encuentran entre 5•10-8 y 10-7, muy por debajo de los valores usados en las operaciones actuales de la mayoría de las misiones GEO (de nuevo, no se recomienda en este régimen orbital basar las estrategias de evitación de colisión en TLE). Los datos CSM permiten una reducción de riesgo apropiada con ACPL entre 10-5 y 10-4 con tiempos de predicción cortos y medios (10-5 se recomienda para predicciones a 5 o 7 días). El número de maniobras realizadas sería una en 10 años de misión. Se debe notar que estos cálculos están realizados para un satélite de unos 2 metros de radio. En el futuro, otros sistemas de vigilancia espacial (como el programa SSA de la ESA), proporcionarán catálogos adicionales de objetos espaciales con el objetivo de reducir el riesgo de colisión de los satélites. Para definir dichos sistemas de vigilancia, es necesario identificar las prestaciones del catalogo en función de la reducción de riesgo que se pretende conseguir. Las características del catálogo que afectan principalmente a dicha capacidad son la cobertura (número de objetos incluidos en el catalogo, limitado principalmente por el tamaño mínimo de los objetos en función de las limitaciones de los sensores utilizados) y la precisión de los datos orbitales (derivada de las prestaciones de los sensores en relación con la precisión de las medidas y la capacidad de re-observación de los objetos). El resultado de dicho análisis (sección 5.2) se ha publicado en una revista especializada [Sánchez-Ortiz, 2015a]T.2. Este análisis no estaba inicialmente previsto durante la tesis, y permite mostrar como la teoría descrita en esta tesis, inicialmente definida para facilitar el diseño de misiones (parte superior de la figura 1) se ha extendido y se puede aplicar para otros propósitos como el dimensionado de un sistema de vigilancia espacial (parte inferior de la figura 1). La principal diferencia de los dos análisis se basa en considerar las capacidades de catalogación (precisión y tamaño de objetos observados) como una variable a modificar en el caso de un diseño de un sistema de vigilancia), siendo fijas en el caso de un diseño de misión. En el caso de las salidas generadas en el análisis, todos los aspectos calculados en un análisis estadístico de riesgo de colisión son importantes para diseño de misión (con el objetivo de calcular la estrategia de evitación y la cantidad de combustible a utilizar), mientras que en el caso de un diseño de un sistema de vigilancia, los aspectos más importantes son el número de maniobras y falsas alarmas (fiabilidad del sistema) y la capacidad de reducción de riesgo (efectividad del sistema). Adicionalmente, un sistema de vigilancia espacial debe ser caracterizado por su capacidad de evitar colisiones catastróficas (evitando así in incremento dramático de la población de basura espacial), mientras que el diseño de una misión debe considerar todo tipo de encuentros, puesto que un operador está interesado en evitar tanto las colisiones catastróficas como las letales. Del análisis de las prestaciones (tamaño de objetos a catalogar y precisión orbital) requeridas a un sistema de vigilancia espacial se concluye que ambos aspectos han de ser fijados de manera diferente para los distintos regímenes orbitales. En el caso de LEO se hace necesario observar objetos de hasta 5cm de radio, mientras que en GEO se rebaja este requisito hasta los 100 cm para cubrir las colisiones catastróficas. La razón principal para esta diferencia viene de las diferentes velocidades relativas entre los objetos en ambos regímenes orbitales. En relación con la precisión orbital, ésta ha de ser muy buena en LEO para poder reducir el número de falsas alarmas, mientras que en regímenes orbitales más altos se pueden considerar precisiones medias. En relación con los aspectos operaciones de la determinación de riesgo de colisión, existen varios algoritmos de cálculo de riesgo entre dos objetos espaciales. La Figura 2 proporciona un resumen de los casos en cuanto a algoritmos de cálculo de riesgo de colisión y como se abordan en esta tesis. Normalmente se consideran objetos esféricos para simplificar el cálculo de riesgo (caso A). Este caso está ampliamente abordado en la literatura y no se analiza en detalle en esta tesis. Un caso de ejemplo se proporciona en la sección 4.2. Considerar la forma real de los objetos (caso B) permite calcular el riesgo de una manera más precisa. Un nuevo algoritmo es definido en esta tesis para calcular el riesgo de colisión cuando al menos uno de los objetos se considera complejo (sección 4.4.2). Dicho algoritmo permite calcular el riesgo de colisión para objetos formados por un conjunto de cajas, y se ha presentado en varias conferencias internacionales. Para evaluar las prestaciones de dicho algoritmo, sus resultados se han comparado con un análisis de Monte Carlo que se ha definido para considerar colisiones entre cajas de manera adecuada (sección 4.1.2.3), pues la búsqueda de colisiones simples aplicables para objetos esféricos no es aplicable a este caso. Este análisis de Monte Carlo se considera la verdad a la hora de calcular los resultados del algoritmos, dicha comparativa se presenta en la sección 4.4.4. En el caso de satélites que no se pueden considerar esféricos, el uso de un modelo de la geometría del satélite permite descartar eventos que no son colisiones reales o estimar con mayor precisión el riesgo asociado a un evento. El uso de estos algoritmos con geometrías complejas es más relevante para objetos de dimensiones grandes debido a las prestaciones de precisión orbital actuales. En el futuro, si los sistemas de vigilancia mejoran y las órbitas son conocidas con mayor precisión, la importancia de considerar la geometría real de los satélites será cada vez más relevante. La sección 5.4 presenta un ejemplo para un sistema de grandes dimensiones (satélite con un tether). Adicionalmente, si los dos objetos involucrados en la colisión tienen velocidad relativa baja (y geometría simple, Caso C en la Figura 2), la mayor parte de los algoritmos no son aplicables requiriendo implementaciones dedicadas para este caso particular. En esta tesis, uno de estos algoritmos presentado en la literatura [Patera, 2001]R.26 se ha analizado para determinar su idoneidad en distintos tipos de eventos (sección 4.5). La evaluación frete a un análisis de Monte Carlo se proporciona en la sección 4.5.2. Tras este análisis, se ha considerado adecuado para abordar las colisiones de baja velocidad. En particular, se ha concluido que el uso de algoritmos dedicados para baja velocidad son necesarios en función del tamaño del volumen de colisión proyectado en el plano de encuentro (B-plane) y del tamaño de la incertidumbre asociada al vector posición entre los dos objetos. Para incertidumbres grandes, estos algoritmos se hacen más necesarios pues la duración del intervalo en que los elipsoides de error de los dos objetos pueden intersecar es mayor. Dicho algoritmo se ha probado integrando el algoritmo de colisión para objetos con geometrías complejas. El resultado de dicho análisis muestra que este algoritmo puede ser extendido fácilmente para considerar diferentes tipos de algoritmos de cálculo de riesgo de colisión (sección 4.5.3). Ambos algoritmos, junto con el método Monte Carlo para geometrías complejas, se han implementado en la herramienta operacional de la ESA CORAM, que es utilizada para evaluar el riesgo de colisión en las actividades rutinarias de los satélites operados por ESA [Sánchez-Ortiz, 2013a]T.11. Este hecho muestra el interés y relevancia de los algoritmos desarrollados para la mejora de las operaciones de los satélites. Dichos algoritmos han sido presentados en varias conferencias internacionales [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1. ABSTRACT This document addresses methodologies for computation of the collision risk of a satellite. Two different approaches need to be considered for collision risk minimisation. On an operational basis, it is needed to perform a sieve of possible objects approaching the satellite, among all objects sharing the space with an operational satellite. As the orbits of both, satellite and the eventual collider, are not perfectly known but only estimated, the miss-encounter geometry and the actual risk of collision shall be evaluated. In the basis of the encounter geometry or the risk, an eventual manoeuvre may be required to avoid the conjunction. Those manoeuvres will be associated to a reduction in the fuel for the mission orbit maintenance, and thus, may reduce the satellite operational lifetime. Thus, avoidance manoeuvre fuel budget shall be estimated, at mission design phase, for a better estimation of mission lifetime, especially for those satellites orbiting in very populated orbital regimes. These two aspects, mission design and operational collision risk aspects, are summarised in Figure 3, and covered along this thesis. Bottom part of the figure identifies the aspects to be consider for the mission design phase (statistical characterisation of the space object population data and theory computing the mean number of events and risk reduction capability) which will define the most appropriate collision avoidance approach at mission operational phase. This part is covered in this work by starting from the theory described in [Sánchez-Ortiz, 2006]T.14 and implemented by this author in ARES tool [Sánchez-Ortiz, 2004b]T.15 provided by ESA for evaluation of collision avoidance approaches. This methodology has been now extended to account for the particular features of the available data sets in operational environment (section 4.3.3). Additionally, the formulation has been extended to allow evaluating risk computation approached when orbital uncertainty is not available (like the TLE case) and when only catastrophic collisions are subject to study (section 4.3.2.3). These improvements to the theory have been included in the new version of ESA ARES tool [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 and available through [SDUP,2014]R.60. At the operation phase, the real catalogue data will be processed on a routine basis, with adequate collision risk computation algorithms to propose conjunction avoidance manoeuvre optimised for every event. The optimisation of manoeuvres in an operational basis is not approached along this document. Currently, American Two Line Element (TLE) catalogue is the only public source of data providing orbits of objects in space to identify eventual conjunction events. Additionally, Conjunction Summary Message (CSM) is provided by Joint Space Operation Center (JSpOC) when the American system identifies a possible collision among satellites and debris. Depending on the data used for collision avoidance evaluation, the conjunction avoidance approach may be different. The main features of currently available data need to be analysed (in regards to accuracy) in order to perform estimation of eventual encounters to be found along the mission lifetime. In the case of TLE, as these data is not provided with accuracy information, operational collision avoidance may be also based on statistical accuracy information as the one used in the mission design approach. This is not the case for CSM data, which includes the state vector and orbital accuracy of the two involved objects. This aspect has been analysed in detail and is depicted in the document, evaluating in statistical way the characteristics of both data sets in regards to the main aspects related to collision avoidance. Once the analysis of data set was completed, investigations on the impact of those features in the most convenient avoidance approaches have been addressed (section 5.1). This analysis is published in a peer-reviewed journal [Sánchez-Ortiz, 2015b]T.3. The analysis provides recommendations for different mission types (satellite size and orbital regime) in regards to the most appropriate collision avoidance approach for relevant risk reduction. The risk reduction capability is very much dependent on the accuracy of the catalogue utilized to identify eventual collisions. Approaches based on CSM data are recommended against the TLE based approach. Some approaches based on the maximum risk associated to envisaged encounters are demonstrated to report a very large number of events, which makes the approach not suitable for operational activities. Accepted Collision Probability Levels are recommended for the definition of the avoidance strategies for different mission types. For example for the case of a LEO satellite in the Sun-synchronous regime, the typically used ACPL value of 10-4 is not a suitable value for collision avoidance schemes based on TLE data. In this case the risk reduction capacity is almost null (due to the large uncertainties associated to TLE data sets, even for short time-to-event values). For significant reduction of risk when using TLE data, ACPL on the order of 10-6 (or lower) seems to be required, producing about 10 warnings per year and mission (if one-day ahead events are considered) or 100 warnings per year (for three-days ahead estimations). Thus, the main conclusion from these results is the lack of feasibility of TLE for a proper collision avoidance approach. On the contrary, for CSM data, and due to the better accuracy of the orbital information when compared with TLE, ACPL on the order of 10-4 allows to significantly reduce the risk. This is true for events estimated up to 3 days ahead. Even 5 days ahead events can be considered, but ACPL values down to 10-5 should be considered in such case. Even larger prediction times can be considered (7 days) for risk reduction about 90%, at the cost of larger number of warnings up to 5 events per year, when 5 days prediction allows to keep the manoeuvre rate in 2 manoeuvres per year. Dynamics of the GEO orbits is different to that in LEO, impacting on a lower increase of orbits uncertainty along time. On the contrary, uncertainties at short prediction times at this orbital regime are larger than those at LEO due to the differences in observation capabilities. Additionally, it has to be accounted that short prediction times feasible at LEO may not be appropriate for a GEO mission due to the orbital period being much larger at this regime. In the case of TLE data sets, significant reduction of risk is only achieved for small ACPL values, producing about a warning event per year if warnings are raised one day in advance to the event (too short for any reaction to be considered). Suitable ACPL values would lay in between 5•10-8 and 10-7, well below the normal values used in current operations for most of the GEO missions (TLE-based strategies for collision avoidance at this regime are not recommended). On the contrary, CSM data allows a good reduction of risk with ACPL in between 10-5 and 10-4 for short and medium prediction times. 10-5 is recommended for prediction times of five or seven days. The number of events raised for a suitable warning time of seven days would be about one in a 10-year mission. It must be noted, that these results are associated to a 2 m radius spacecraft, impact of the satellite size are also analysed within the thesis. In the future, other Space Situational Awareness Systems (SSA, ESA program) may provide additional catalogues of objects in space with the aim of reducing the risk. It is needed to investigate which are the required performances of those catalogues for allowing such risk reduction. The main performance aspects are coverage (objects included in the catalogue, mainly limited by a minimum object size derived from sensor performances) and the accuracy of the orbital data to accurately evaluate the conjunctions (derived from sensor performance in regards to object observation frequency and accuracy). The results of these investigations (section 5.2) are published in a peer-reviewed journal [Sánchez-Ortiz, 2015a]T.2. This aspect was not initially foreseen as objective of the thesis, but it shows how the theory described in the thesis, initially defined for mission design in regards to avoidance manoeuvre fuel allocation (upper part of figure 1), is extended and serves for additional purposes as dimensioning a Space Surveillance and Tracking (SST) system (bottom part of figure below). The main difference between the two approaches is the consideration of the catalogue features as part of the theory which are not modified (for the satellite mission design case) instead of being an input for the analysis (in the case of the SST design). In regards to the outputs, all the features computed by the statistical conjunction analysis are of importance for mission design (with the objective of proper global avoidance strategy definition and fuel allocation), whereas for the case of SST design, the most relevant aspects are the manoeuvre and false alarm rates (defining a reliable system) and the Risk Reduction capability (driving the effectiveness of the system). In regards to the methodology for computing the risk, the SST system shall be driven by the capacity of providing the means to avoid catastrophic conjunction events (avoiding the dramatic increase of the population), whereas the satellite mission design should consider all type of encounters, as the operator is interested on avoiding both lethal and catastrophic collisions. From the analysis of the SST features (object coverage and orbital uncertainty) for a reliable system, it is concluded that those two characteristics are to be imposed differently for the different orbital regimes, as the population level is different depending on the orbit type. Coverage values range from 5 cm for very populated LEO regime up to 100 cm in the case of GEO region. The difference on this requirement derives mainly from the relative velocity of the encounters at those regimes. Regarding the orbital knowledge of the catalogues, very accurate information is required for objects in the LEO region in order to limit the number of false alarms, whereas intermediate orbital accuracy can be considered for higher orbital regimes. In regards to the operational collision avoidance approaches, several collision risk algorithms are used for evaluation of collision risk of two pair of objects. Figure 2 provides a summary of the different collision risk algorithm cases and indicates how they are covered along this document. The typical case with high relative velocity is well covered in literature for the case of spherical objects (case A), with a large number of available algorithms, that are not analysed in detailed in this work. Only a sample case is provided in section 4.2. If complex geometries are considered (Case B), a more realistic risk evaluation can be computed. New approach for the evaluation of risk in the case of complex geometries is presented in this thesis (section 4.4.2), and it has been presented in several international conferences. The developed algorithm allows evaluating the risk for complex objects formed by a set of boxes. A dedicated Monte Carlo method has also been described (section 4.1.2.3) and implemented to allow the evaluation of the actual collisions among a large number of simulation shots. This Monte Carlo runs are considered the truth for comparison of the algorithm results (section 4.4.4). For spacecrafts that cannot be considered as spheres, the consideration of the real geometry of the objects may allow to discard events which are not real conjunctions, or estimate with larger reliability the risk associated to the event. This is of particular importance for the case of large spacecrafts as the uncertainty in positions of actual catalogues does not reach small values to make a difference for the case of objects below meter size. As the tracking systems improve and the orbits of catalogued objects are known more precisely, the importance of considering actual shapes of the objects will become more relevant. The particular case of a very large system (as a tethered satellite) is analysed in section 5.4. Additionally, if the two colliding objects have low relative velocity (and simple geometries, case C in figure above), the most common collision risk algorithms fail and adequate theories need to be applied. In this document, a low relative velocity algorithm presented in the literature [Patera, 2001]R.26 is described and evaluated (section 4.5). Evaluation through comparison with Monte Carlo approach is provided in section 4.5.2. The main conclusion of this analysis is the suitability of this algorithm for the most common encounter characteristics, and thus it is selected as adequate for collision risk estimation. Its performances are evaluated in order to characterise when it can be safely used for a large variety of encounter characteristics. In particular, it is found that the need of using dedicated algorithms depend on both the size of collision volume in the B-plane and the miss-distance uncertainty. For large uncertainties, the need of such algorithms is more relevant since for small uncertainties the encounter duration where the covariance ellipsoids intersect is smaller. Additionally, its application for the case of complex satellite geometries is assessed (case D in figure above) by integrating the developed algorithm in this thesis with Patera’s formulation for low relative velocity encounters. The results of this analysis show that the algorithm can be easily extended for collision risk estimation process suitable for complex geometry objects (section 4.5.3). The two algorithms, together with the Monte Carlo method, have been implemented in the operational tool CORAM for ESA which is used for the evaluation of collision risk of ESA operated missions, [Sánchez-Ortiz, 2013a]T.11. This fact shows the interest and relevance of the developed algorithms for improvement of satellite operations. The algorithms have been presented in several international conferences, [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1.