1000 resultados para Medidas de riesgo


Relevância:

30.00% 30.00%

Publicador:

Resumo:

En el presente trabajo se propone y desarrolla una herramienta de "Gestión del riesgo de contaminación del recurso hídrico", inspirada en métodos comúnmente utilizados en las evaluaciones de impacto ambiental tales como la Matriz de importancia y la Evaluación de riesgo. Dicha herramienta se aplica en el oasis del río Tunuyán Inferior, cuya cuenca se localiza en el sector E de la Cordillera de Los Andes, provincia de Mendoza, Argentina. El método propuesto consiste en la determinación, en cada Unidad de Manejo (UM)3 de: 1. la vulnerabilidad del territorio; 2. la peligrosidad del efluente; 3. las clases de riesgo; 4. el índice prioridad de manejo del riesgo, variables que luego se traducen cartográficamente. Las bases de datos generadas pueden ser analizadas desde distintos enfoques y, a su vez, actualizadas a medida que se van profundizando los conocimientos acerca de los atributos que hacen a la peligrosidad del vertido (ej.: tipo de efluente, tiempo, caudal y lugar de descarga) y a la vulnerabilidad de la UM (ej.: tipo de acuífero, profundidad de nivel freático, permeabilidad del terreno, calidad del suelo, etc.). Esta herramienta de gestión genera un diagnóstico dinámico de la situación, ya que puede ser perfeccionado a través de la investigación de las variables que intervienen en el proceso de contaminación del agua por efluentes. Además, es una herramienta práctica porque jerarquiza las prioridades de gestión, de acuerdo con un orden de aplicación gradual de medidas de manejo del riesgo de contaminación. Teniendo en cuenta la tendencia mundial de reducción de glaciares por efecto del calentamiento global y su impacto negativo en los caudales de los ríos, es indispensable y urgente establecer prioridades de gestión para preservar la calidad del recurso hídrico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La caries de la infancia temprana es un problema de salud pública que afecta con mayor agresividad a preescolares en riesgo social. El objetivo del presente trabajo fue establecer las asociaciones existentes entre estado dental, demanda de atención odontológica, percepción de salud bucal y condición socio-económica en niños preescolares del Gran Mendoza. Material y método: la población estuvo constituida por escolares en una muestra intencionada de 155 niños de nivel inicial residentes en la provincia de Mendoza, pertenecientes al ámbito escolar urbano- marginal. Se registraron los siguientes índices: ceod, CPOD, ceos, CPOS, y sus componentes discriminados, ICDAS II, íNTC (Bordoni, 1998) e índice de placa (Silness y Löe, 1967). Fue aplicado un cuestionario de percepción parental de salud bucal (ECOHIS) y se realizaron encuestas estructuradas sobre tipología de la demanda de atención odontológica y de condiciones socioeconómicas (NBI). Fue determinada la distribución de frecuencias y los intervalos de confianza para cada variable, las medidas de tendencia central y dispersión y se realizaron comparaciones entre grupos mediante la prueba de chi cuadrado con p=0.05. Resultados: 85.8% de la muestra presentó experiencia de caries. Para cada indicador se registraron los siguientes valores: ceod+CPOD= 5.716 +/- 4.08; cd+CD =5,39+3.79; ed+PD= 0.25+- 0.72; y od+OD= 0.08+-0.34; ceos+CPOS=8.89+-8.39; cs+CS=7.63+-6.25; es+PS= 1.23+-3.62; y os+OS= 0.12+0.46; IP= 1.04+-0.48; y INTC=5.65+-3.19. No se observaron diferencias significativas al agrupar los niños por sexo. Al analizar la demanda de atención bucal se observó que el 54,9% efectuó una consulta odontológica, 25% en el último año y 74% en el subsistema de salud pública. El análisis del cuestionario ECOHIS reveló que obtuvo el máximo porcentaje de respuestas cuando se ordenó según la categoría nunca. El único ítem que se relacionó con el estado dental en forma estadísticamente significativa fue el dolor. Conclusiones: Se observa alta prevalencia de caries dental sin que la demanda de atención odontológica haya producido impacto positivo sobre el estado dentario ni sobre la percepción de los padres respecto de la salud bucal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En Mendoza se realizó un estudio clínico de intervención, prospectivo de dos años, dirigido a preescolares en riesgo social con alto índice de caries con el objetivo de evaluar la eficacia y efectividad de un programa preventivo basado en fluoruros. El programa preventivo se basó en acciones de educación para la salud, enseñanza de técnicas de higiene bucal y aplicación tópica de flúor fosfato acidulado realizadas dos veces durante el ciclo escolar. La muestra intencionada sumó 96 niños de sala de 4 años (2009) que fueron evaluados en su cursado posterior en sala de 5 años (2010) y en 1er año de EGB durante 2011. Niños asistentes a sala de 5 años y primer año EGB al momento del examen basal (2009) conformaron el grupo control. Se les aplicó el mismo programa por razones éticas. A 12 y 24 meses de aplicado el programa se evaluó: porcentaje de libres de caries, ceod+CPOD, cpos+CPOS y sus valores discriminados, medias de categorías ICDAS II, índice de Placa Bacteriana de Löe y Silness e índice de necesidad de tratamiento de caries de Bordoni. Se determinó la distribución de frecuencias e intervalos de confianza para cada variable; medidas de tendencia central y dispersión y se realizaron comparaciones entre grupos mediante la prueba T de Student y chi cuadrado con un nivel de p=0.05. Resultados: Comparando sala 5 años 2010 / sala de 5 años 2009: disminuyeron significativamente las medias de ceod +CPOD, ICDAS 6, Índice Placa Löe e índice de necesidad de tratamiento. Comparando 1er año 2011 / 1er año 2009: disminuyeron significativamente las medias de cs+CS, ceos+CPOS e ICDAS 4. El resto de los valores no mostró diferencias significativas. Conclusión: Un programa preventivo basado en fluoruros es efectivo y tiene efectos positivos sobre la prevalencia de caries en preescolares de Mendoza.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El Síndrome de Burnout (SBO) es definido por Thomaé, Ayala, Sphan y Stortti como una respuesta al stress laboral crónico que se caracteriza por tres síntomas principales: agotamiento emocional, despersonalización y baja realización personal. Suele darse con más frecuencia en aquellos trabajadores que interactúan constantemente con los usuarios directos: servicios de salud, atención, asistencia social. Se trata de una experiencia subjetiva interna que agrupa sentimientos y actitudes y que tiene un cáliz negativo para el sujeto, dado que implica alteraciones, problemas y disfunciones psicofisiológicas. El actual informe se enmarca dentro del proyecto acreditado 'Identificación de factores asociados a la re - intervención en problemáticas asistenciales de jóvenes II', que se está realizando en el Grupo de Investigación GIPJURI de Psicología Jurídica de la Facultad de Psicología de la Universidad Nacional de Mar del Plata. Para la consecución de sus objetivos acudimos a los Centros de Protección de los Derechos del Niño (CPDeN) que son unidades técnico operativas con una o más sedes, creadas por la ley nacional 26.061 de Protección Integral de los Derechos de las niñas, niños y adolescentes; y la ley provincial 13.298 de la Promoción y Protección de los Derechos de los Niños, que desempeñan las funciones de facilitar que el niño que tenga amenazados o violados sus derechos, pueda acceder a los programas y planes disponibles en su comunidad . El trabajo que dimos en llamar 'Factores de riesgo asociados en la aparición del SBO en nuevas instituciones', además de enmarcarse en dicho proyecto, se presenta a continuación y en base a los datos recolectados para un informe previo denominado 'El Síndrome de Burnout (SBO) en nuevas instituciones'. Este último se realizó durante el año 2010 a modo de sondeo de situación en relación al SBO en los Centros de Protección de los Derechos de los Niños del partido de General Pueyrredón. Se evaluaron tres escalas de manera anónima mediante el inventario de Maslach, éstas fueron 'agotamiento emocional' (EE), 'despersonalización' (D) y 'realización personal' (PA). De una población total de 30 profesionales se tomó una muestra de 25 que accedieron a responder al cuestionario de manera voluntaria. Los datos obtenidos revelan en general un alto nivel de EE, así como también de PA. Por otro lado contamos con una serie de entrevistas semiestructuradas administradas a 28 de los 30 profesionales a través de las cuales obtuvimos información de tipo cualitativa; con la cual nos proponemos arribar a hipótesis acerca de las variables que puedan estar interviniendo en relación al síndrome con el fin de, en un futuro proyecto, pensar en medidas o acciones institucionales para prevenir su aparición o detener su proliferación

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El Síndrome de Burnout (SBO) es definido por Thomaé, Ayala, Sphan y Stortti como una respuesta al stress laboral crónico que se caracteriza por tres síntomas principales: agotamiento emocional, despersonalización y baja realización personal. Suele darse con más frecuencia en aquellos trabajadores que interactúan constantemente con los usuarios directos: servicios de salud, atención, asistencia social. Se trata de una experiencia subjetiva interna que agrupa sentimientos y actitudes y que tiene un cáliz negativo para el sujeto, dado que implica alteraciones, problemas y disfunciones psicofisiológicas. El actual informe se enmarca dentro del proyecto acreditado 'Identificación de factores asociados a la re - intervención en problemáticas asistenciales de jóvenes II', que se está realizando en el Grupo de Investigación GIPJURI de Psicología Jurídica de la Facultad de Psicología de la Universidad Nacional de Mar del Plata. Para la consecución de sus objetivos acudimos a los Centros de Protección de los Derechos del Niño (CPDeN) que son unidades técnico operativas con una o más sedes, creadas por la ley nacional 26.061 de Protección Integral de los Derechos de las niñas, niños y adolescentes; y la ley provincial 13.298 de la Promoción y Protección de los Derechos de los Niños, que desempeñan las funciones de facilitar que el niño que tenga amenazados o violados sus derechos, pueda acceder a los programas y planes disponibles en su comunidad . El trabajo que dimos en llamar 'Factores de riesgo asociados en la aparición del SBO en nuevas instituciones', además de enmarcarse en dicho proyecto, se presenta a continuación y en base a los datos recolectados para un informe previo denominado 'El Síndrome de Burnout (SBO) en nuevas instituciones'. Este último se realizó durante el año 2010 a modo de sondeo de situación en relación al SBO en los Centros de Protección de los Derechos de los Niños del partido de General Pueyrredón. Se evaluaron tres escalas de manera anónima mediante el inventario de Maslach, éstas fueron 'agotamiento emocional' (EE), 'despersonalización' (D) y 'realización personal' (PA). De una población total de 30 profesionales se tomó una muestra de 25 que accedieron a responder al cuestionario de manera voluntaria. Los datos obtenidos revelan en general un alto nivel de EE, así como también de PA. Por otro lado contamos con una serie de entrevistas semiestructuradas administradas a 28 de los 30 profesionales a través de las cuales obtuvimos información de tipo cualitativa; con la cual nos proponemos arribar a hipótesis acerca de las variables que puedan estar interviniendo en relación al síndrome con el fin de, en un futuro proyecto, pensar en medidas o acciones institucionales para prevenir su aparición o detener su proliferación

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El Síndrome de Burnout (SBO) es definido por Thomaé, Ayala, Sphan y Stortti como una respuesta al stress laboral crónico que se caracteriza por tres síntomas principales: agotamiento emocional, despersonalización y baja realización personal. Suele darse con más frecuencia en aquellos trabajadores que interactúan constantemente con los usuarios directos: servicios de salud, atención, asistencia social. Se trata de una experiencia subjetiva interna que agrupa sentimientos y actitudes y que tiene un cáliz negativo para el sujeto, dado que implica alteraciones, problemas y disfunciones psicofisiológicas. El actual informe se enmarca dentro del proyecto acreditado 'Identificación de factores asociados a la re - intervención en problemáticas asistenciales de jóvenes II', que se está realizando en el Grupo de Investigación GIPJURI de Psicología Jurídica de la Facultad de Psicología de la Universidad Nacional de Mar del Plata. Para la consecución de sus objetivos acudimos a los Centros de Protección de los Derechos del Niño (CPDeN) que son unidades técnico operativas con una o más sedes, creadas por la ley nacional 26.061 de Protección Integral de los Derechos de las niñas, niños y adolescentes; y la ley provincial 13.298 de la Promoción y Protección de los Derechos de los Niños, que desempeñan las funciones de facilitar que el niño que tenga amenazados o violados sus derechos, pueda acceder a los programas y planes disponibles en su comunidad . El trabajo que dimos en llamar 'Factores de riesgo asociados en la aparición del SBO en nuevas instituciones', además de enmarcarse en dicho proyecto, se presenta a continuación y en base a los datos recolectados para un informe previo denominado 'El Síndrome de Burnout (SBO) en nuevas instituciones'. Este último se realizó durante el año 2010 a modo de sondeo de situación en relación al SBO en los Centros de Protección de los Derechos de los Niños del partido de General Pueyrredón. Se evaluaron tres escalas de manera anónima mediante el inventario de Maslach, éstas fueron 'agotamiento emocional' (EE), 'despersonalización' (D) y 'realización personal' (PA). De una población total de 30 profesionales se tomó una muestra de 25 que accedieron a responder al cuestionario de manera voluntaria. Los datos obtenidos revelan en general un alto nivel de EE, así como también de PA. Por otro lado contamos con una serie de entrevistas semiestructuradas administradas a 28 de los 30 profesionales a través de las cuales obtuvimos información de tipo cualitativa; con la cual nos proponemos arribar a hipótesis acerca de las variables que puedan estar interviniendo en relación al síndrome con el fin de, en un futuro proyecto, pensar en medidas o acciones institucionales para prevenir su aparición o detener su proliferación

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta segunda y última parte del artículo habla de cómo a pesar de existir reglamentación no es hasta despues de ocurrir una nueva tragedia cuando se toman las medidas necesarias. Hoy en día sigue ocurriendo lo mismo, después de grandes catástrofes se revisan las normas e instalaciones.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tras el devastador terremoto del 12 de enero de 2010 en Puerto Príncipe, Haití, las autoridades locales, numerosas ONGs y organismos nacionales e internacionales están trabajando en el desarrollo de estrategias para minimizar el elevado riesgo sísmico existente en el país. Para ello es necesario, en primer lugar, estimar dicho riesgo asociado a eventuales terremotos futuros que puedan producirse, evaluando el grado de pérdidas que podrían generar, para dimensionar la catástrofe y actuar en consecuencia, tanto en lo referente a medidas preventivas como a adopción de planes de emergencia. En ese sentido, este Trabajo Fin de Master aporta un análisis detallado del riesgo sísmico asociado a un futuro terremoto que podría producirse con probabilidad razonable, causando importantes daños en Puerto Príncipe. Se propone para ello una metodología de cálculo del riesgo adaptada a los condicionantes de la zona, con modelos calibrados empleando datos del sismo de 2010. Se ha desarrollado en el marco del proyecto de cooperación Sismo-Haití, financiado por la Universidad Politécnica de Madrid, que comenzó diez meses después del terremoto de 2010 como respuesta a una petición de ayuda del gobierno haitiano. El cálculo del riesgo requiere la consideración de dos inputs: la amenaza sísmica o movimiento esperado por el escenario definido (sismo de cierta magnitud y localización) y los elementos expuestos a esta amenaza (una clasificación del parque inmobiliario en diferentes tipologías constructivas, así como su vulnerabilidad). La vulnerabilidad de estas tipologías se describe por medio de funciones de daño: espectros de capacidad, que representan su comportamiento ante las fuerzas horizontales motivadas por los sismos, y curvas de fragilidad, que representan la probabilidad de que las estructuras sufran daños al alcanzar el máximo desplazamiento horizontal entre plantas debido a la mencionada fuerza horizontal. La metodología que se propone especifica determinadas pautas y criterios para estimar el movimiento, asignar la vulnerabilidad y evaluar el daño, cubriendo los tres estados del proceso. Por una parte, se consideran diferentes modelos de movimiento fuerte incluyendo el efecto local, y se identifican los que mejor ajustan a las observaciones de 2010. Por otra se clasifica el parque inmobiliario en diferentes tipologías constructivas, en base a la información extraída en una campaña de campo y utilizando además una base de datos aportada por el Ministerio de Obras Públicas de Haití. Ésta contiene información relevante de todos los edificios de la ciudad, resultando un total de 6 tipologías. Finalmente, para la estimación del daño se aplica el método capacidad-demanda implementado en el programa SELENA (Molina et al., 2010). En primer lugar, utilizado los datos de daño del terremoto de 2010, se ha calibrado el modelo propuesto de cálculo de riesgo sísmico: cuatro modelos de movimiento fuerte, tres modelos de tipo de suelo y un conjunto de funciones de daño. Finalmente, con el modelo calibrado, se ha simulado un escenario sísmico determinista correspondiente a un posible terremoto con epicentro próximo a Puerto Príncipe. Los resultados muestran que los daños estructurales serán considerables y podrán llevar a pérdidas económicas y humanas que causen un gran impacto en el país, lo que pone de manifiesto la alta vulnerabilidad estructural existente. Este resultado será facilitado a las autoridades locales, constituyendo una base sólida para toma de decisiones y adopción de políticas de prevención y mitigación del riesgo. Se recomienda dirigir esfuerzos hacia la reducción de la vulnerabilidad estructural - mediante refuerzo de edificios vulnerables y adopción de una normativa sismorresistente- y hacia el desarrollo de planes de emergencia. Abstract After the devastating 12 January 2010 earthquake that hit the city of Port-au-Prince, Haiti, strategies to minimize the high seismic risk are being developed by local authorities, NGOs, and national and international institutions. Two important tasks to reach this objective are, on the one hand, the evaluation of the seismic risk associated to possible future earthquakes in order to know the dimensions of the catastrophe; on the other hand, the design of preventive measures and emergency plans to minimize the consequences of such events. In this sense, this Master Thesis provides a detailed estimation of the damage that a possible future earthquake will cause in Port-au-Prince. A methodology to calculate the seismic risk is proposed, adapted to the study area conditions. This methodology has been calibrated using data from the 2010 earthquake. It has been conducted in the frame of the Sismo-Haiti cooperative project, supported by the Technical University of Madrid, which started ten months after the 2010 earthquake as an answer to an aid call of the Haitian government. The seismic risk calculation requires two inputs: the seismic hazard (expected ground motion due to a scenario earthquake given by magnitude and location) and the elements exposed to the hazard (classification of the building stock into building typologies, as well as their vulnerability). This vulnerability is described through the damage functions: capacity curves, which represent the structure performance against the horizontal forces caused by the seisms; and fragility curves, which represent the probability of damage as the structure reaches the maximum spectral displacement due to the horizontal force. The proposed methodology specifies certain guidelines and criteria to estimate the ground motion, assign the vulnerability, and evaluate the damage, covering the whole process. Firstly, different ground motion prediction equations including the local effect are considered, and the ones that have the best correlation with the observations of the 2010 earthquake, are identified. Secondly, the classification of building typologies is made by using the information collected during a field campaign, as well as a data base provided by the Ministry of Public Works of Haiti. This data base contains relevant information about all the buildings in the city, leading to a total of 6 different typologies. Finally, the damage is estimated using the capacity-spectrum method as implemented in the software SELENA (Molina et al., 2010). Data about the damage caused by the 2010 earthquake have been used to calibrate the proposed calculation model: different choices of ground motion relationships, soil models, and damage functions. Then, with the calibrated model, a deterministic scenario corresponding to an epicenter close to Port-au-Prince has been simulated. The results show high structural damage, and therefore, they point out the high structural vulnerability in the city. Besides, the economic and human losses associated to the damage would cause a great impact in the country. This result will be provided to the Haitian Government, constituting a scientific base for decision making and for the adoption of measures to prevent and mitigate the seismic risk. It is highly recommended to drive efforts towards the quality control of the new buildings -through reinforcement and construction according to a seismic code- and the development of emergency planning.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tras el terremoto ocurrido en Haití el 12 de enero de 2010, con un epicentro próximo a la capital, Puerto Príncipe (25 km), de magnitud Mw 7,0 y profundidad de 13 km, el país ha quedado en una situación catastrófica y de extrema pobreza, con necesidades básicas de salud, nutrición, educación y habitabilidad. Los efectos del terremoto han sido devastadores en la población, con más de 300.000 personas que han perdido la vida, otras tantas que han resultado heridas y 1,3 millones de personas que han quedado sin hogar y viviendo en campamentos. En cuanto a los efectos materiales, el sismo ha dejado cerca de 100.000 residencias totalmente destruidas y casi 200.000 dañadas fuertemente (fuente: USGS). Este terremoto ha sido el más fuerte registrado en la zona desde el acontecido en 1770. Además, el sismo fue perceptible en países cercanos como Cuba, Jamaica y República Dominicana, donde provocó temor y evacuaciones preventivas. La reconstrucción del país es un tema prioritario en el marco de la cooperación internacional y el presente proyecto, SISMO-HAITÍ, se ha desarrollado con el fin de aportar conocimiento e información para facilitar la toma de medidas preventivas ante el riesgo sísmico existente, tratando de evitar que un terremoto futuro en el país produzca una catástrofe como el recientemente vivido. En el caso de Haití, no existía ninguna institución responsable del monitoreo sísmico, pero se ha establecido contacto directo con el Observatorio Nacional de Medio Ambiente y Vulnerabilidad de Haití (ONEV) a través de su director Dwinel Belizaire Ing. M. Sc. Director, que es precisamente quien ha solicitado la ayuda que ha motivado la presente propuesta. El fin último de este proyecto es el estudio de acciones de mitigación del elevado riesgo existente, contribuyendo al desarrollo sostenible de la región. Para ello, se ha evaluado la amenaza sísmica en Haití, en base a la cual se pretenden establecer criterios de diseño sismorresistente para la reconstrucción del país, que se podrán recoger en la primera normativa antisísmica, así como el riesgo sísmico en Puerto Príncipe, cuyos resultados servirán de base para elaborar los planes de emergencia ante este riesgo natural. Los objetivos específicos alcanzados son: • Evaluación de amenaza sísmica en Haití, resultando mapas de distintos parámetros de movimiento para diferentes probabilidades de excedencia (lo que supone conocer la probabilidad asociada a movimientos por futuros terremotos). • Evaluación del efecto local en Puerto Príncipe y elaboración de un mapa de microzonación de la ciudad. • Estudio de vulnerabilidad sísmica a escala local en Puerto Príncipe • Estimación del riesgo sísmico en Puerto Príncipe • Medidas de mitigación del riesgo y de diseño sismorresistente En este informe se resumen las actividades desarrolladas y los resultados obtenidos a lo largo del año 2011 durante la ejecución del presente proyecto. El grupo de trabajo es un equipo multidisciplinar, compuesto por investigadores de diferentes universidades (Universidad Politécnica de Madrid- UPM-, U. Complutense de Madrid -UCM-, U. Alicante -UA-, U. Almería -UAL-, U. Autónoma de Santo Domingo -UASD- y U. de Mayagüez de Puerto Rico -UPRM-) que cubren todas las ramas involucradas en la ejecución del proyecto: geología, sismología, ingeniería sísmica, arquitectura y gestión de geoinformación. Todos los miembros de este equipo han trabajado conjuntamente durante todo el año, manteniendo reuniones, jornadas de trabajo y videoconferencias, además de realizar una visita a Puerto Príncipe en julio de 2011 para llevar a cabo la primera toma de datos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La vulnerabilidad de los sistemas ganaderos de pastoreo pone en evidencia la necesidad de herramientas para evaluar y mitigar los efectos de la sequía. El avance en la teledetección ha despertado el interés por explotar potenciales aplicaciones, y está dando lugar a un intenso desarrollo de innovaciones en distintos campos. Una de estas áreas es la gestión del riesgo climático, en donde la utilización de índices de vegetación permite la evaluación de la sequía. En esta investigación, se analiza el impacto de la sequía y se evalúa el potencial de nuevas tecnologías como la teledetección para la gestión del riesgo de sequía en sistemas de ganadería extensiva. Para ello, se desarrollan tres aplicaciones: (i) evaluar el impacto económico de la sequía en una explotación ganadera extensiva de la dehesa de Andalucía, (ii) elaborar mapas de vulnerabilidad a la sequía en pastos de Chile y (iii) diseñar y evaluar el potencial de un seguro indexado para sequía en pastos en la región de Coquimbo en Chile. En la primera aplicación, se diseña un modelo dinámico y estocástico que integra aspectos climáticos, ecológicos, agronómicos y socioeconómicos para evaluar el riesgo de sequía. El modelo simula una explotación ganadera tipo de la dehesa de Andalucía para el período 1999-2010. El método de Análisis Histórico y la simulación de MonteCarlo se utilizan para identificar los principales factores de riesgo de la explotación, entre los que destacan, los periodos de inicios del verano e inicios de invierno. Los resultados muestran la existencia de un desfase temporal entre el riesgo climático y riesgo económico, teniendo este último un periodo de duración más extenso en el tiempo. También, revelan que la intensidad, frecuencia y duración son tres atributos cruciales que determinan el impacto económico de la sequía. La estrategia de reducción de la carga ganadera permite aminorar el riesgo, pero conlleva una disminución en el margen bruto de la explotación. La segunda aplicación está dedicada a la elaboración de mapas de vulnerabilidad a la sequia en pastos de Chile. Para ello, se propone y desarrolla un índice de riesgo económico (IRESP) sencillo de interpretar y replicable, que integra factores de riesgo y estrategias de adaptación para obtener una medida del Valor en Riesgo, es decir, la máxima pérdida esperada en un año con un nivel de significación del 5%.La representación espacial del IRESP pone en evidencia patrones espaciales y diferencias significativas en la vulnerabilidad a la sequía a lo largo de Chile. Además, refleja que la vulnerabilidad no siempre esta correlacionada con el riesgo climático y demuestra la importancia de considerar las estrategias de adaptación. Las medidas de autocorrelación espacial revelan que el riesgo sistémico es considerablemente mayor en el sur que en el resto de zonas. Los resultados demuestran que el IRESP transmite información pertinente y, que los mapas de vulnerabilidad pueden ser una herramienta útil en el diseño de políticas y toma de decisiones para la gestión del riesgo de sequía. La tercera aplicación evalúa el potencial de un seguro indexado para sequía en pastos en la región de Coquimbo en Chile. Para lo cual, se desarrolla un modelo estocástico para estimar la prima actuarialmente justa del seguro y se proponen y evalúan pautas alternativas para mejorar el diseño del contrato. Se aborda el riesgo base, el principal problema de los seguros indexados identificado en la literatura y, que está referido a la correlación imperfecta del índice con las pérdidas de la explotación. Para ello, se sigue un enfoque bayesiano que permite evaluar el impacto en el riesgo base de las pautas de diseño propuestas: i) una zonificación por clúster que considera aspectos espacio-temporales, ii) un período de garantía acotado a los ciclos fenológicos del pasto y iii) umbral de garantía. Los resultados muestran que tanto la zonificación como el periodo de garantía reducen el riesgo base considerablemente. Sin embargo, el umbral de garantía tiene un efecto ambiguo sobre el riesgo base. Por otra parte, la zonificación por clúster contribuye a aminorar el riesgo sistémico que enfrentan las aseguradoras. Estos resultados han puesto de manifiesto que un buen diseño de contrato puede tener un doble dividendo, por un lado aumentar su utilidad y, por otro, reducir el coste del seguro. Un diseño de contrato eficiente junto con los avances en la teledetección y un adecuado marco institucional son los pilares básicos para el buen funcionamiento de un programa de seguro. Las nuevas tecnologías ofrecen un importante potencial para la innovación en la gestión del riesgo climático. Los avances en este campo pueden proporcionar importantes beneficios sociales en los países en desarrollo y regiones vulnerables, donde las herramientas para gestionar eficazmente los riesgos sistémicos como la sequía pueden ser de gran ayuda para el desarrollo. The vulnerability of grazing livestock systems highlights the need for tools to assess and mitigate the adverse impact of drought. The recent and rapid progress in remote sensing has awakened an interest for tapping into potential applications, triggering intensive efforts to develop innovations in a number of spheres. One of these areas is climate risk management, where the use of vegetation indices facilitates assessment of drought. This research analyzes drought impacts and evaluates the potential of new technologies such as remote sensing to manage drought risk in extensive livestock systems. Three essays in drought risk management are developed to: (i) assess the economic impact of drought on a livestock farm in the Andalusian Dehesa, (ii) build drought vulnerability maps in Chilean grazing lands, and (iii) design and evaluate the potential of an index insurance policy to address the risk of drought in grazing lands in Coquimbo, Chile. In the first essay, a dynamic and stochastic farm model is designed combining climate, agronomic, socio-economic and ecological aspects to assess drought risk. The model is developed to simulate a representative livestock farm in the Dehesa of Andalusia for the time period 1999-2010. Burn analysis and MonteCarlo simulation methods are used to identify the significance of various risk sources at the farm. Most notably, early summer and early winter are identified as periods of peak risk. Moreover, there is a significant time lag between climate and economic risk and this later last longer than the former. It is shown that intensity, frequency and duration of the drought are three crucial attributes that shape the economic impact of drought. Sensitivity analysis is conducted to assess the sustainability of farm management strategies and demonstrates that lowering the stocking rate reduces farmer exposure to drought risk but entails a reduction in the expected gross margin. The second essay, mapping drought vulnerability in Chilean grazing lands, proposes and builds an index of economic risk (IRESP) that is replicable and simple to interpret. This methodology integrates risk factors and adaptation strategies to deliver information on Value at Risk, maximum expected losses at 5% significance level. Mapping IRESP provides evidence about spatial patterns and significant differences in drought vulnerability across Chilean grazing lands. Spatial autocorrelation measures reveal that systemic risk is considerably larger in the South as compared to Northern or Central Regions. Furthermore, it is shown that vulnerability is not necessarily correlated with climate risk and that adaptation strategies do matter. These results show that IRESP conveys relevant information and that vulnerability maps may be useful tools to assess policy design and decision-making in drought risk management. The third essay develops a stochastic model to estimate the actuarially fair premium and evaluates the potential of an indexed insurance policy to manage drought risk in Coquimbo, a relevant livestock farming region of Chile. Basis risk refers to the imperfect correlation of the index and farmer loses and is identified in the literature as a main limitation of index insurance. A Bayesian approach is proposed to assess the impact on basis risk of alternative guidelines in contract design: i) A cluster zoning that considers space-time aspects, ii) A guarantee period bounded to fit phenological cycles, and iii) the triggering index threshold. Results show that both the proposed zoning and guarantee period considerably reduces basis risk. However, the triggering index threshold has an ambiguous effect on basis risk. On the other hand, cluster zoning contributes to ameliorate systemic risk faced by the insurer. These results highlighted that adequate contract design is important and may result in double dividend. On the one hand, increasing farmers’ utility and, secondly, reducing the cost of insurance. An efficient contract design coupled with advances in remote sensing and an appropriate institutional framework are the basis for an efficient operation of an insurance program. The new technologies offer significant potential for innovation in climate risk managements. Progress in this field is capturing increasing attention and may provide important social gains in developing countries and vulnerable regions where the tools to efficiently manage systemic risks, such as drought, may be a means to foster development.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudio está dedicado al tramo del río Valdemembra a su paso por Motilla del Palancar, el cual pertenece a la Confederación Hidrográfica del río Júcar (CHJ). A través de un estudio histórico, se determinará la magnitud de inundaciones pasadas, así como los puntos más propicios al desbordamiento, obteniendo la información de fuentes bibliográficas, pero sobre todo, de los testimonios de los vecinos de Motilla del Palancar. Posteriormente se realizará un estudio geomorfológico, que se podría dividir en dos fases. En la primera de ellas se determinará una aproximación de la extensión de la llanura de inundación, a través de la estratigrafía de la zona. El tercer y último estudio, sería el estudio hidráulico. En él, utilizando las ecuaciones fundamentales de la hidráulica, se calculará la mancha de inundación asociada a los períodos de retorrno de 10, 100 y 500 años, así como el Dominio Público Hidráulico, con la finalidad de poder elaborar posteriormente los mapas de peligrosidad de inundación, además de los mapas de riesgo de inundación. Para ello, utilizaremos dos software de cálculo hidráulico. El primero se conoce con el nombre de HecRas y realiza los cálculos de manera unidimensional, el segundo se llama Iber, este calcula flujos bidimensionales, por lo que ofrece resultados más precisos. Por último, realizaremos un Plan de Gestión del Riesgo de Inundación que permitirá disminuir los daños humanos y materiales ocasionados por las avenidas futuras,tomando las medidas estructurales o no estructurales necesarias.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo presenta un análisis de diferentes aspectos relacionados con el sismo principal del 11 de Mayo de 2011, con epicentro en las proximidades de Lorca, que abarcan desde el movimiento fuerte registrado hasta el daño observado en diferentes tipologías constructivas, contrastando todo ello con los resultados de estudios previos de peligrosidad y riesgo sísmico en la provincia de Murcia. La cuestión esencial que se plantea en el análisis es si tanto el movimiento como el daño entraban dentro de lo esperado o pueden considerarse anómalos en el marco del riesgo sísmico del sureste de España. A este respecto se hacen una serie de reflexiones y se extraen lecciones aprendidas del terremoto, que llevan a proponer recomendaciones de cara a la revisión de la Norma Sismorresistente Española, así como a definir medidas para la reducción del riesgo sísmico en la región. Abstract: An analysis of the different aspects related to the May 11th, 2011 Lorca earthquake is presented,covering recorded ground motions, damage observed in different building typologies, and contrasting these observations with previous results on seismic hazard and seismic risk obtained in the province of Murcia. The essential question addressed in the analysis is whether observed ground motions and physical damage can be considered as expected or as anomalous in the frame of seismic risk in southeastern Spain. In this respect, a number of reflections are carried out and several learned lessons from the earthquake are extracted, which leads to the proposal of different recommendations for the future revision of the Spanish earthquake-resistant provisions, as well as for defining risk reduction measurements in the region.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo pretende proyectar los diferentes contagios de cólera en Haití. Cólera es una de las grandes epidemias más graves a nivel mundial capaz de provocar gran cantidad de mortalidad en una población que no esté preparada para enfrentarla, ya sea previniéndola o tratando la enfermedad. La amplia experiencia con el cólera ha demostrado que es imposible evitar su introducción en un país, pero si puede evitarse mediante medidas de control apropiadas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La acción producida por fenómenos naturales catastróficos en entornos urbanos supone un riesgo importante, pues conlleva innumerables pérdidas, tanto económicas como humanas. Los terremotos son uno de los fenómenos que mayor cantidad de pérdidas ha producido en todo el mundo, debido a su aleatoriedad y su complicada predicción exacta. Por este motivo, el conocimiento del riesgo sísmico de una zona es fundamental para la adopción de medidas de prevención conducentes a la mitigación del riesgo. En España residen cerca de 47.000.000 de habitantes, en un área de, aproximadamente, 500.000 km2. Casi 3.000.000 de edificios residenciales fueron construidos (suponiendo el 33% del total) cuando no existían los códigos de diseño antisísmico. En la actualidad, estos edificios antiguos coexisten con nuevas construcciones que han aplicado el diseño sismorresistente, especialmente en ciudades situadas en zonas sísmicamente activas, que pueden presentar un alto riesgo incluso bajo los efectos de un terremoto moderado. La evaluación del riesgo sísmico es un método de valorar los posibles daños que puede provocar una acción sísmica. Para su estimación, se precisaevaluar la peligrosidad sísmica de la zona,y la vulnerabilidad de los elementos expuestos. Si bien la peligrosidad responde a un proceso natural que no se puede controlar, la vulnerabilidad sí se puede reducir (por ejemplo, ejecutando medidas de construcción sismorresistente). En definitiva, el conocimiento del riesgo sísmico de una zona puede servir para aumentar la conciencia sísmica en las ciudades e impulsar el desarrollo de planes de acción necesarios para la reducción del riesgo sísmico. La presente memoria expone de forma detallada todos los aspectos técnicos y metodológicos en los que nos hemos servido para la realización de este Trabajo Final de Grado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis aborda metodologías para el cálculo de riesgo de colisión de satélites. La minimización del riesgo de colisión se debe abordar desde dos puntos de vista distintos. Desde el punto de vista operacional, es necesario filtrar los objetos que pueden presentar un encuentro entre todos los objetos que comparten el espacio con un satélite operacional. Puesto que las órbitas, del objeto operacional y del objeto envuelto en la colisión, no se conocen perfectamente, la geometría del encuentro y el riesgo de colisión deben ser evaluados. De acuerdo con dicha geometría o riesgo, una maniobra evasiva puede ser necesaria para evitar la colisión. Dichas maniobras implican un consumo de combustible que impacta en la capacidad de mantenimiento orbital y por tanto de la visa útil del satélite. Por tanto, el combustible necesario a lo largo de la vida útil de un satélite debe ser estimado en fase de diseño de la misión para una correcta definición de su vida útil, especialmente para satélites orbitando en regímenes orbitales muy poblados. Los dos aspectos, diseño de misión y aspectos operacionales en relación con el riesgo de colisión están abordados en esta tesis y se resumen en la Figura 3. En relación con los aspectos relacionados con el diseño de misión (parte inferior de la figura), es necesario evaluar estadísticamente las características de de la población espacial y las teorías que permiten calcular el número medio de eventos encontrados por una misión y su capacidad de reducir riesgo de colisión. Estos dos aspectos definen los procedimientos más apropiados para reducir el riesgo de colisión en fase operacional. Este aspecto es abordado, comenzando por la teoría descrita en [Sánchez-Ortiz, 2006]T.14 e implementada por el autor de esta tesis en la herramienta ARES [Sánchez-Ortiz, 2004b]T.15 proporcionada por ESA para la evaluación de estrategias de evitación de colisión. Esta teoría es extendida en esta tesis para considerar las características de los datos orbitales disponibles en las fases operacionales de un satélite (sección 4.3.3). Además, esta teoría se ha extendido para considerar riesgo máximo de colisión cuando la incertidumbre de las órbitas de objetos catalogados no es conocida (como se da el caso para los TLE), y en el caso de querer sólo considerar riesgo de colisión catastrófico (sección 4.3.2.3). Dichas mejoras se han incluido en la nueva versión de ARES [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 puesta a disposición a través de [SDUP,2014]R.60. En fase operacional, los catálogos que proporcionan datos orbitales de los objetos espaciales, son procesados rutinariamente, para identificar posibles encuentros que se analizan en base a algoritmos de cálculo de riesgo de colisión para proponer maniobras de evasión. Actualmente existe una única fuente de datos públicos, el catálogo TLE (de sus siglas en inglés, Two Line Elements). Además, el Joint Space Operation Center (JSpOC) Americano proporciona mensajes con alertas de colisión (CSM) cuando el sistema de vigilancia americano identifica un posible encuentro. En función de los datos usados en fase operacional (TLE o CSM), la estrategia de evitación puede ser diferente debido a las características de dicha información. Es preciso conocer las principales características de los datos disponibles (respecto a la precisión de los datos orbitales) para estimar los posibles eventos de colisión encontrados por un satélite a lo largo de su vida útil. En caso de los TLE, cuya precisión orbital no es proporcionada, la información de precisión orbital derivada de un análisis estadístico se puede usar también en el proceso operacional así como en el diseño de la misión. En caso de utilizar CSM como base de las operaciones de evitación de colisiones, se conoce la precisión orbital de los dos objetos involucrados. Estas características se han analizado en detalle, evaluando estadísticamente las características de ambos tipos de datos. Una vez concluido dicho análisis, se ha analizado el impacto de utilizar TLE o CSM en las operaciones del satélite (sección 5.1). Este análisis se ha publicado en una revista especializada [Sánchez-Ortiz, 2015b]T.3. En dicho análisis, se proporcionan recomendaciones para distintas misiones (tamaño del satélite y régimen orbital) en relación con las estrategias de evitación de colisión para reducir el riesgo de colisión de manera significativa. Por ejemplo, en el caso de un satélite en órbita heliosíncrona en régimen orbital LEO, el valor típico del ACPL que se usa de manera extendida es 10-4. Este valor no es adecuado cuando los esquemas de evitación de colisión se realizan sobre datos TLE. En este caso, la capacidad de reducción de riesgo es prácticamente nula (debido a las grandes incertidumbres de los datos TLE) incluso para tiempos cortos de predicción. Para conseguir una reducción significativa del riesgo, sería necesario usar un ACPL en torno a 10-6 o inferior, produciendo unas 10 alarmas al año por satélite (considerando predicciones a un día) o 100 alarmas al año (con predicciones a tres días). Por tanto, la principal conclusión es la falta de idoneidad de los datos TLE para el cálculo de eventos de colisión. Al contrario, usando los datos CSM, debido a su mejor precisión orbital, se puede obtener una reducción significativa del riesgo con ACPL en torno a 10-4 (considerando 3 días de predicción). Incluso 5 días de predicción pueden ser considerados con ACPL en torno a 10-5. Incluso tiempos de predicción más largos se pueden usar (7 días) con reducción del 90% del riesgo y unas 5 alarmas al año (en caso de predicciones de 5 días, el número de maniobras se mantiene en unas 2 al año). La dinámica en GEO es diferente al caso LEO y hace que el crecimiento de las incertidumbres orbitales con el tiempo de propagación sea menor. Por el contrario, las incertidumbres derivadas de la determinación orbital son peores que en LEO por las diferencias en las capacidades de observación de uno y otro régimen orbital. Además, se debe considerar que los tiempos de predicción considerados para LEO pueden no ser apropiados para el caso de un satélite GEO (puesto que tiene un periodo orbital mayor). En este caso usando datos TLE, una reducción significativa del riesgo sólo se consigue con valores pequeños de ACPL, produciendo una alarma por año cuando los eventos de colisión se predicen a un día vista (tiempo muy corto para implementar maniobras de evitación de colisión).Valores más adecuados de ACPL se encuentran entre 5•10-8 y 10-7, muy por debajo de los valores usados en las operaciones actuales de la mayoría de las misiones GEO (de nuevo, no se recomienda en este régimen orbital basar las estrategias de evitación de colisión en TLE). Los datos CSM permiten una reducción de riesgo apropiada con ACPL entre 10-5 y 10-4 con tiempos de predicción cortos y medios (10-5 se recomienda para predicciones a 5 o 7 días). El número de maniobras realizadas sería una en 10 años de misión. Se debe notar que estos cálculos están realizados para un satélite de unos 2 metros de radio. En el futuro, otros sistemas de vigilancia espacial (como el programa SSA de la ESA), proporcionarán catálogos adicionales de objetos espaciales con el objetivo de reducir el riesgo de colisión de los satélites. Para definir dichos sistemas de vigilancia, es necesario identificar las prestaciones del catalogo en función de la reducción de riesgo que se pretende conseguir. Las características del catálogo que afectan principalmente a dicha capacidad son la cobertura (número de objetos incluidos en el catalogo, limitado principalmente por el tamaño mínimo de los objetos en función de las limitaciones de los sensores utilizados) y la precisión de los datos orbitales (derivada de las prestaciones de los sensores en relación con la precisión de las medidas y la capacidad de re-observación de los objetos). El resultado de dicho análisis (sección 5.2) se ha publicado en una revista especializada [Sánchez-Ortiz, 2015a]T.2. Este análisis no estaba inicialmente previsto durante la tesis, y permite mostrar como la teoría descrita en esta tesis, inicialmente definida para facilitar el diseño de misiones (parte superior de la figura 1) se ha extendido y se puede aplicar para otros propósitos como el dimensionado de un sistema de vigilancia espacial (parte inferior de la figura 1). La principal diferencia de los dos análisis se basa en considerar las capacidades de catalogación (precisión y tamaño de objetos observados) como una variable a modificar en el caso de un diseño de un sistema de vigilancia), siendo fijas en el caso de un diseño de misión. En el caso de las salidas generadas en el análisis, todos los aspectos calculados en un análisis estadístico de riesgo de colisión son importantes para diseño de misión (con el objetivo de calcular la estrategia de evitación y la cantidad de combustible a utilizar), mientras que en el caso de un diseño de un sistema de vigilancia, los aspectos más importantes son el número de maniobras y falsas alarmas (fiabilidad del sistema) y la capacidad de reducción de riesgo (efectividad del sistema). Adicionalmente, un sistema de vigilancia espacial debe ser caracterizado por su capacidad de evitar colisiones catastróficas (evitando así in incremento dramático de la población de basura espacial), mientras que el diseño de una misión debe considerar todo tipo de encuentros, puesto que un operador está interesado en evitar tanto las colisiones catastróficas como las letales. Del análisis de las prestaciones (tamaño de objetos a catalogar y precisión orbital) requeridas a un sistema de vigilancia espacial se concluye que ambos aspectos han de ser fijados de manera diferente para los distintos regímenes orbitales. En el caso de LEO se hace necesario observar objetos de hasta 5cm de radio, mientras que en GEO se rebaja este requisito hasta los 100 cm para cubrir las colisiones catastróficas. La razón principal para esta diferencia viene de las diferentes velocidades relativas entre los objetos en ambos regímenes orbitales. En relación con la precisión orbital, ésta ha de ser muy buena en LEO para poder reducir el número de falsas alarmas, mientras que en regímenes orbitales más altos se pueden considerar precisiones medias. En relación con los aspectos operaciones de la determinación de riesgo de colisión, existen varios algoritmos de cálculo de riesgo entre dos objetos espaciales. La Figura 2 proporciona un resumen de los casos en cuanto a algoritmos de cálculo de riesgo de colisión y como se abordan en esta tesis. Normalmente se consideran objetos esféricos para simplificar el cálculo de riesgo (caso A). Este caso está ampliamente abordado en la literatura y no se analiza en detalle en esta tesis. Un caso de ejemplo se proporciona en la sección 4.2. Considerar la forma real de los objetos (caso B) permite calcular el riesgo de una manera más precisa. Un nuevo algoritmo es definido en esta tesis para calcular el riesgo de colisión cuando al menos uno de los objetos se considera complejo (sección 4.4.2). Dicho algoritmo permite calcular el riesgo de colisión para objetos formados por un conjunto de cajas, y se ha presentado en varias conferencias internacionales. Para evaluar las prestaciones de dicho algoritmo, sus resultados se han comparado con un análisis de Monte Carlo que se ha definido para considerar colisiones entre cajas de manera adecuada (sección 4.1.2.3), pues la búsqueda de colisiones simples aplicables para objetos esféricos no es aplicable a este caso. Este análisis de Monte Carlo se considera la verdad a la hora de calcular los resultados del algoritmos, dicha comparativa se presenta en la sección 4.4.4. En el caso de satélites que no se pueden considerar esféricos, el uso de un modelo de la geometría del satélite permite descartar eventos que no son colisiones reales o estimar con mayor precisión el riesgo asociado a un evento. El uso de estos algoritmos con geometrías complejas es más relevante para objetos de dimensiones grandes debido a las prestaciones de precisión orbital actuales. En el futuro, si los sistemas de vigilancia mejoran y las órbitas son conocidas con mayor precisión, la importancia de considerar la geometría real de los satélites será cada vez más relevante. La sección 5.4 presenta un ejemplo para un sistema de grandes dimensiones (satélite con un tether). Adicionalmente, si los dos objetos involucrados en la colisión tienen velocidad relativa baja (y geometría simple, Caso C en la Figura 2), la mayor parte de los algoritmos no son aplicables requiriendo implementaciones dedicadas para este caso particular. En esta tesis, uno de estos algoritmos presentado en la literatura [Patera, 2001]R.26 se ha analizado para determinar su idoneidad en distintos tipos de eventos (sección 4.5). La evaluación frete a un análisis de Monte Carlo se proporciona en la sección 4.5.2. Tras este análisis, se ha considerado adecuado para abordar las colisiones de baja velocidad. En particular, se ha concluido que el uso de algoritmos dedicados para baja velocidad son necesarios en función del tamaño del volumen de colisión proyectado en el plano de encuentro (B-plane) y del tamaño de la incertidumbre asociada al vector posición entre los dos objetos. Para incertidumbres grandes, estos algoritmos se hacen más necesarios pues la duración del intervalo en que los elipsoides de error de los dos objetos pueden intersecar es mayor. Dicho algoritmo se ha probado integrando el algoritmo de colisión para objetos con geometrías complejas. El resultado de dicho análisis muestra que este algoritmo puede ser extendido fácilmente para considerar diferentes tipos de algoritmos de cálculo de riesgo de colisión (sección 4.5.3). Ambos algoritmos, junto con el método Monte Carlo para geometrías complejas, se han implementado en la herramienta operacional de la ESA CORAM, que es utilizada para evaluar el riesgo de colisión en las actividades rutinarias de los satélites operados por ESA [Sánchez-Ortiz, 2013a]T.11. Este hecho muestra el interés y relevancia de los algoritmos desarrollados para la mejora de las operaciones de los satélites. Dichos algoritmos han sido presentados en varias conferencias internacionales [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1. ABSTRACT This document addresses methodologies for computation of the collision risk of a satellite. Two different approaches need to be considered for collision risk minimisation. On an operational basis, it is needed to perform a sieve of possible objects approaching the satellite, among all objects sharing the space with an operational satellite. As the orbits of both, satellite and the eventual collider, are not perfectly known but only estimated, the miss-encounter geometry and the actual risk of collision shall be evaluated. In the basis of the encounter geometry or the risk, an eventual manoeuvre may be required to avoid the conjunction. Those manoeuvres will be associated to a reduction in the fuel for the mission orbit maintenance, and thus, may reduce the satellite operational lifetime. Thus, avoidance manoeuvre fuel budget shall be estimated, at mission design phase, for a better estimation of mission lifetime, especially for those satellites orbiting in very populated orbital regimes. These two aspects, mission design and operational collision risk aspects, are summarised in Figure 3, and covered along this thesis. Bottom part of the figure identifies the aspects to be consider for the mission design phase (statistical characterisation of the space object population data and theory computing the mean number of events and risk reduction capability) which will define the most appropriate collision avoidance approach at mission operational phase. This part is covered in this work by starting from the theory described in [Sánchez-Ortiz, 2006]T.14 and implemented by this author in ARES tool [Sánchez-Ortiz, 2004b]T.15 provided by ESA for evaluation of collision avoidance approaches. This methodology has been now extended to account for the particular features of the available data sets in operational environment (section 4.3.3). Additionally, the formulation has been extended to allow evaluating risk computation approached when orbital uncertainty is not available (like the TLE case) and when only catastrophic collisions are subject to study (section 4.3.2.3). These improvements to the theory have been included in the new version of ESA ARES tool [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 and available through [SDUP,2014]R.60. At the operation phase, the real catalogue data will be processed on a routine basis, with adequate collision risk computation algorithms to propose conjunction avoidance manoeuvre optimised for every event. The optimisation of manoeuvres in an operational basis is not approached along this document. Currently, American Two Line Element (TLE) catalogue is the only public source of data providing orbits of objects in space to identify eventual conjunction events. Additionally, Conjunction Summary Message (CSM) is provided by Joint Space Operation Center (JSpOC) when the American system identifies a possible collision among satellites and debris. Depending on the data used for collision avoidance evaluation, the conjunction avoidance approach may be different. The main features of currently available data need to be analysed (in regards to accuracy) in order to perform estimation of eventual encounters to be found along the mission lifetime. In the case of TLE, as these data is not provided with accuracy information, operational collision avoidance may be also based on statistical accuracy information as the one used in the mission design approach. This is not the case for CSM data, which includes the state vector and orbital accuracy of the two involved objects. This aspect has been analysed in detail and is depicted in the document, evaluating in statistical way the characteristics of both data sets in regards to the main aspects related to collision avoidance. Once the analysis of data set was completed, investigations on the impact of those features in the most convenient avoidance approaches have been addressed (section 5.1). This analysis is published in a peer-reviewed journal [Sánchez-Ortiz, 2015b]T.3. The analysis provides recommendations for different mission types (satellite size and orbital regime) in regards to the most appropriate collision avoidance approach for relevant risk reduction. The risk reduction capability is very much dependent on the accuracy of the catalogue utilized to identify eventual collisions. Approaches based on CSM data are recommended against the TLE based approach. Some approaches based on the maximum risk associated to envisaged encounters are demonstrated to report a very large number of events, which makes the approach not suitable for operational activities. Accepted Collision Probability Levels are recommended for the definition of the avoidance strategies for different mission types. For example for the case of a LEO satellite in the Sun-synchronous regime, the typically used ACPL value of 10-4 is not a suitable value for collision avoidance schemes based on TLE data. In this case the risk reduction capacity is almost null (due to the large uncertainties associated to TLE data sets, even for short time-to-event values). For significant reduction of risk when using TLE data, ACPL on the order of 10-6 (or lower) seems to be required, producing about 10 warnings per year and mission (if one-day ahead events are considered) or 100 warnings per year (for three-days ahead estimations). Thus, the main conclusion from these results is the lack of feasibility of TLE for a proper collision avoidance approach. On the contrary, for CSM data, and due to the better accuracy of the orbital information when compared with TLE, ACPL on the order of 10-4 allows to significantly reduce the risk. This is true for events estimated up to 3 days ahead. Even 5 days ahead events can be considered, but ACPL values down to 10-5 should be considered in such case. Even larger prediction times can be considered (7 days) for risk reduction about 90%, at the cost of larger number of warnings up to 5 events per year, when 5 days prediction allows to keep the manoeuvre rate in 2 manoeuvres per year. Dynamics of the GEO orbits is different to that in LEO, impacting on a lower increase of orbits uncertainty along time. On the contrary, uncertainties at short prediction times at this orbital regime are larger than those at LEO due to the differences in observation capabilities. Additionally, it has to be accounted that short prediction times feasible at LEO may not be appropriate for a GEO mission due to the orbital period being much larger at this regime. In the case of TLE data sets, significant reduction of risk is only achieved for small ACPL values, producing about a warning event per year if warnings are raised one day in advance to the event (too short for any reaction to be considered). Suitable ACPL values would lay in between 5•10-8 and 10-7, well below the normal values used in current operations for most of the GEO missions (TLE-based strategies for collision avoidance at this regime are not recommended). On the contrary, CSM data allows a good reduction of risk with ACPL in between 10-5 and 10-4 for short and medium prediction times. 10-5 is recommended for prediction times of five or seven days. The number of events raised for a suitable warning time of seven days would be about one in a 10-year mission. It must be noted, that these results are associated to a 2 m radius spacecraft, impact of the satellite size are also analysed within the thesis. In the future, other Space Situational Awareness Systems (SSA, ESA program) may provide additional catalogues of objects in space with the aim of reducing the risk. It is needed to investigate which are the required performances of those catalogues for allowing such risk reduction. The main performance aspects are coverage (objects included in the catalogue, mainly limited by a minimum object size derived from sensor performances) and the accuracy of the orbital data to accurately evaluate the conjunctions (derived from sensor performance in regards to object observation frequency and accuracy). The results of these investigations (section 5.2) are published in a peer-reviewed journal [Sánchez-Ortiz, 2015a]T.2. This aspect was not initially foreseen as objective of the thesis, but it shows how the theory described in the thesis, initially defined for mission design in regards to avoidance manoeuvre fuel allocation (upper part of figure 1), is extended and serves for additional purposes as dimensioning a Space Surveillance and Tracking (SST) system (bottom part of figure below). The main difference between the two approaches is the consideration of the catalogue features as part of the theory which are not modified (for the satellite mission design case) instead of being an input for the analysis (in the case of the SST design). In regards to the outputs, all the features computed by the statistical conjunction analysis are of importance for mission design (with the objective of proper global avoidance strategy definition and fuel allocation), whereas for the case of SST design, the most relevant aspects are the manoeuvre and false alarm rates (defining a reliable system) and the Risk Reduction capability (driving the effectiveness of the system). In regards to the methodology for computing the risk, the SST system shall be driven by the capacity of providing the means to avoid catastrophic conjunction events (avoiding the dramatic increase of the population), whereas the satellite mission design should consider all type of encounters, as the operator is interested on avoiding both lethal and catastrophic collisions. From the analysis of the SST features (object coverage and orbital uncertainty) for a reliable system, it is concluded that those two characteristics are to be imposed differently for the different orbital regimes, as the population level is different depending on the orbit type. Coverage values range from 5 cm for very populated LEO regime up to 100 cm in the case of GEO region. The difference on this requirement derives mainly from the relative velocity of the encounters at those regimes. Regarding the orbital knowledge of the catalogues, very accurate information is required for objects in the LEO region in order to limit the number of false alarms, whereas intermediate orbital accuracy can be considered for higher orbital regimes. In regards to the operational collision avoidance approaches, several collision risk algorithms are used for evaluation of collision risk of two pair of objects. Figure 2 provides a summary of the different collision risk algorithm cases and indicates how they are covered along this document. The typical case with high relative velocity is well covered in literature for the case of spherical objects (case A), with a large number of available algorithms, that are not analysed in detailed in this work. Only a sample case is provided in section 4.2. If complex geometries are considered (Case B), a more realistic risk evaluation can be computed. New approach for the evaluation of risk in the case of complex geometries is presented in this thesis (section 4.4.2), and it has been presented in several international conferences. The developed algorithm allows evaluating the risk for complex objects formed by a set of boxes. A dedicated Monte Carlo method has also been described (section 4.1.2.3) and implemented to allow the evaluation of the actual collisions among a large number of simulation shots. This Monte Carlo runs are considered the truth for comparison of the algorithm results (section 4.4.4). For spacecrafts that cannot be considered as spheres, the consideration of the real geometry of the objects may allow to discard events which are not real conjunctions, or estimate with larger reliability the risk associated to the event. This is of particular importance for the case of large spacecrafts as the uncertainty in positions of actual catalogues does not reach small values to make a difference for the case of objects below meter size. As the tracking systems improve and the orbits of catalogued objects are known more precisely, the importance of considering actual shapes of the objects will become more relevant. The particular case of a very large system (as a tethered satellite) is analysed in section 5.4. Additionally, if the two colliding objects have low relative velocity (and simple geometries, case C in figure above), the most common collision risk algorithms fail and adequate theories need to be applied. In this document, a low relative velocity algorithm presented in the literature [Patera, 2001]R.26 is described and evaluated (section 4.5). Evaluation through comparison with Monte Carlo approach is provided in section 4.5.2. The main conclusion of this analysis is the suitability of this algorithm for the most common encounter characteristics, and thus it is selected as adequate for collision risk estimation. Its performances are evaluated in order to characterise when it can be safely used for a large variety of encounter characteristics. In particular, it is found that the need of using dedicated algorithms depend on both the size of collision volume in the B-plane and the miss-distance uncertainty. For large uncertainties, the need of such algorithms is more relevant since for small uncertainties the encounter duration where the covariance ellipsoids intersect is smaller. Additionally, its application for the case of complex satellite geometries is assessed (case D in figure above) by integrating the developed algorithm in this thesis with Patera’s formulation for low relative velocity encounters. The results of this analysis show that the algorithm can be easily extended for collision risk estimation process suitable for complex geometry objects (section 4.5.3). The two algorithms, together with the Monte Carlo method, have been implemented in the operational tool CORAM for ESA which is used for the evaluation of collision risk of ESA operated missions, [Sánchez-Ortiz, 2013a]T.11. This fact shows the interest and relevance of the developed algorithms for improvement of satellite operations. The algorithms have been presented in several international conferences, [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1.