68 resultados para ESTRATIFICACIÓN DEL RIESGO
Resumo:
Tras el terremoto ocurrido en Haití el 12 de enero de 2010, con un epicentro próximo a la capital, Puerto Príncipe (25 km), de magnitud Mw 7,0 y profundidad de 13 km, el país ha quedado en una situación catastrófica y de extrema pobreza, con necesidades básicas de salud, nutrición, educación y habitabilidad. Los efectos del terremoto han sido devastadores en la población, con más de 300.000 personas que han perdido la vida, otras tantas que han resultado heridas y 1,3 millones de personas que han quedado sin hogar y viviendo en campamentos. En cuanto a los efectos materiales, el sismo ha dejado cerca de 100.000 residencias totalmente destruidas y casi 200.000 dañadas fuertemente (fuente: USGS). Este terremoto ha sido el más fuerte registrado en la zona desde el acontecido en 1770. Además, el sismo fue perceptible en países cercanos como Cuba, Jamaica y República Dominicana, donde provocó temor y evacuaciones preventivas. La reconstrucción del país es un tema prioritario en el marco de la cooperación internacional y el presente proyecto, SISMO-HAITÍ, se ha desarrollado con el fin de aportar conocimiento e información para facilitar la toma de medidas preventivas ante el riesgo sísmico existente, tratando de evitar que un terremoto futuro en el país produzca una catástrofe como el recientemente vivido. En el caso de Haití, no existía ninguna institución responsable del monitoreo sísmico, pero se ha establecido contacto directo con el Observatorio Nacional de Medio Ambiente y Vulnerabilidad de Haití (ONEV) a través de su director Dwinel Belizaire Ing. M. Sc. Director, que es precisamente quien ha solicitado la ayuda que ha motivado la presente propuesta. El fin último de este proyecto es el estudio de acciones de mitigación del elevado riesgo existente, contribuyendo al desarrollo sostenible de la región. Para ello, se ha evaluado la amenaza sísmica en Haití, en base a la cual se pretenden establecer criterios de diseño sismorresistente para la reconstrucción del país, que se podrán recoger en la primera normativa antisísmica, así como el riesgo sísmico en Puerto Príncipe, cuyos resultados servirán de base para elaborar los planes de emergencia ante este riesgo natural. Los objetivos específicos alcanzados son: • Evaluación de amenaza sísmica en Haití, resultando mapas de distintos parámetros de movimiento para diferentes probabilidades de excedencia (lo que supone conocer la probabilidad asociada a movimientos por futuros terremotos). • Evaluación del efecto local en Puerto Príncipe y elaboración de un mapa de microzonación de la ciudad. • Estudio de vulnerabilidad sísmica a escala local en Puerto Príncipe • Estimación del riesgo sísmico en Puerto Príncipe • Medidas de mitigación del riesgo y de diseño sismorresistente En este informe se resumen las actividades desarrolladas y los resultados obtenidos a lo largo del año 2011 durante la ejecución del presente proyecto. El grupo de trabajo es un equipo multidisciplinar, compuesto por investigadores de diferentes universidades (Universidad Politécnica de Madrid- UPM-, U. Complutense de Madrid -UCM-, U. Alicante -UA-, U. Almería -UAL-, U. Autónoma de Santo Domingo -UASD- y U. de Mayagüez de Puerto Rico -UPRM-) que cubren todas las ramas involucradas en la ejecución del proyecto: geología, sismología, ingeniería sísmica, arquitectura y gestión de geoinformación. Todos los miembros de este equipo han trabajado conjuntamente durante todo el año, manteniendo reuniones, jornadas de trabajo y videoconferencias, además de realizar una visita a Puerto Príncipe en julio de 2011 para llevar a cabo la primera toma de datos.
Resumo:
Los incendios forestales son la principal causa de mortalidad de árboles en la Europa mediterránea y constituyen la amenaza más seria para los ecosistemas forestales españoles. En la Comunidad Valenciana, diariamente se despliega cerca de un centenar de vehículos de vigilancia, cuya distribución se apoya, fundamentalmente, en un índice de riesgo de incendios calculado en función de las condiciones meteorológicas. La tesis se centra en el diseño y validación de un nuevo índice de riesgo integrado de incendios, especialmente adaptado a la región mediterránea y que facilite el proceso de toma de decisiones en la distribución diaria de los medios de vigilancia contra incendios forestales. El índice adopta el enfoque de riesgo integrado introducido en la última década y que incluye dos componentes de riesgo: el peligro de ignición y la vulnerabilidad. El primero representa la probabilidad de que se inicie un fuego y el peligro potencial para que se propague, mientras que la vulnerabilidad tiene en cuenta las características del territorio y los efectos potenciales del fuego sobre el mismo. Para el cálculo del peligro potencial se han identificado indicadores relativos a los agentes naturales y humanos causantes de incendios, la ocurrencia histórica y el estado de los combustibles, extremo muy relacionado con la meteorología y las especies. En cuanto a la vulnerabilidad se han empleado indicadores representativos de los efectos potenciales del incendio (comportamiento del fuego, infraestructuras de defensa), como de las características del terreno (valor, capacidad de regeneración…). Todos estos indicadores constituyen una estructura jerárquica en la que, siguiendo las recomendaciones de la Comisión europea para índices de riesgo de incendios, se han incluido indicadores representativos del riesgo a corto plazo y a largo plazo. El cálculo del valor final del índice se ha llevado a cabo mediante la progresiva agregación de los componentes que forman cada uno de los niveles de la estructura jerárquica del índice y su integración final. Puesto que las técnicas de decisión multicriterio están especialmente orientadas a tratar con problemas basados en estructuras jerárquicas, se ha aplicado el método TOPSIS para obtener la integración final del modelo. Se ha introducido en el modelo la opinión de los expertos, mediante la ponderación de cada uno de los componentes del índice. Se ha utilizado el método AHP, para obtener las ponderaciones de cada experto y su integración en un único peso por cada indicador. Para la validación del índice se han empleado los modelos de Ecuaciones de Estimación Generalizadas, que tienen en cuenta posibles respuestas correlacionadas. Para llevarla a cabo se emplearon los datos de oficiales de incendios ocurridos durante el período 1994 al 2003, referenciados a una cuadrícula de 10x10 km empleando la ocurrencia de incendios y su superficie, como variables dependientes. Los resultados de la validación muestran un buen funcionamiento del subíndice de peligro de ocurrencia con un alto grado de correlación entre el subíndice y la ocurrencia, un buen ajuste del modelo logístico y un buen poder discriminante. Por su parte, el subíndice de vulnerabilidad no ha presentado una correlación significativa entre sus valores y la superficie de los incendios, lo que no descarta su validez, ya que algunos de sus componentes tienen un carácter subjetivo, independiente de la superficie incendiada. En general el índice presenta un buen funcionamiento para la distribución de los medios de vigilancia en función del peligro de inicio. No obstante, se identifican y discuten nuevas líneas de investigación que podrían conducir a una mejora del ajuste global del índice. En concreto se plantea la necesidad de estudiar más profundamente la aparente correlación que existe en la provincia de Valencia entre la superficie forestal que ocupa cada cuadrícula de 10 km del territorio y su riesgo de incendios y que parece que a menor superficie forestal, mayor riesgo de incendio. Otros aspectos a investigar son la sensibilidad de los pesos de cada componente o la introducción de factores relativos a los medios potenciales de extinción en el subíndice de vulnerabilidad. Summary Forest fires are the main cause of tree mortality in Mediterranean Europe and the most serious threat to the Spanisf forest. In the Spanish autonomous region of Valencia, forest administration deploys a mobile fleet of 100 surveillance vehicles in forest land whose allocation is based on meteorological index of wildlandfire risk. This thesis is focused on the design and validation of a new Integrated Wildland Fire Risk Index proposed to efficient allocation of vehicles and specially adapted to the Mediterranean conditions. Following the approaches of integrated risk developed last decade, the index includes two risk components: Wildland Fire Danger and Vulnerability. The former represents the probability a fire ignites and the potential hazard of fire propagation or spread danger, while vulnerability accounts for characteristics of the land and potential effects of fire. To calculate the Wildland Fire Danger, indicators of ignition and spread danger have been identified, including human and natural occurrence agents, fuel conditions, historical occurrence and spread rate. Regarding vulnerability se han empleado indicadores representativos de los efectos potenciales del incendio (comportamiento del fuego, infraestructurasd de defensa), como de las características del terreno (valor, capacidad de regeneración…). These indicators make up the hierarchical structure for the index, which, following the criteria of the European Commission both short and long-term indicators have been included. Integration consists of the progressive aggregation of the components that make up every level in risk the index and, after that, the integration of these levels to obtain a unique value for the index. As Munticriteria methods are oriented to deal with hierarchically structured problems and with situations in which conflicting goals prevail, TOPSIS method is used in the integration of components. Multicriteria methods were also used to incorporate expert opinion in weighting of indicators and to carry out the aggregation process into the final index. The Analytic Hierarchy Process method was used to aggregate experts' opinions on each component into a single value. Generalized Estimation Equations, which account for possible correlated responses, were used to validate the index. Historical records of daily occurrence for the period from 1994 to 2003, referred to a 10x10-km-grid cell, as well as the extent of the fires were the dependant variables. The results of validation showed good Wildland Fire Danger component performance, with high correlation degree between Danger and occurrence, a good fit of the logistic model used and a good discrimination power. The vulnerability component has not showed a significant correlation between their values and surface fires, which does not mean the index is not valid, because of the subjective character of some of its components, independent of the surface of the fires. Overall, the index could be used to optimize the preventing resources allocation. Nevertheless, new researching lines are identified and discussed to improve the overall performance of the index. More specifically the need of study the inverse relationship between the value of the wildfire Fire Danger component and the forested surface of each 10 - km cell is set out. Other points to be researched are the sensitivity of the index component´s weight and the possibility of taking into account indicators related to fire fighting resources to make up the vulnerability component.
Resumo:
Este trabajo presenta un análisis de diferentes aspectos relacionados con el sismo principal del 11 de Mayo de 2011, con epicentro en las proximidades de Lorca, que abarcan desde el movimiento fuerte registrado hasta el daño observado en diferentes tipologías constructivas, contrastando todo ello con los resultados de estudios previos de peligrosidad y riesgo sísmico en la provincia de Murcia. La cuestión esencial que se plantea en el análisis es si tanto el movimiento como el daño entraban dentro de lo esperado o pueden considerarse anómalos en el marco del riesgo sísmico del sureste de España. A este respecto se hacen una serie de reflexiones y se extraen lecciones aprendidas del terremoto, que llevan a proponer recomendaciones de cara a la revisión de la Norma Sismorresistente Española, así como a definir medidas para la reducción del riesgo sísmico en la región. Abstract: An analysis of the different aspects related to the May 11th, 2011 Lorca earthquake is presented,covering recorded ground motions, damage observed in different building typologies, and contrasting these observations with previous results on seismic hazard and seismic risk obtained in the province of Murcia. The essential question addressed in the analysis is whether observed ground motions and physical damage can be considered as expected or as anomalous in the frame of seismic risk in southeastern Spain. In this respect, a number of reflections are carried out and several learned lessons from the earthquake are extracted, which leads to the proposal of different recommendations for the future revision of the Spanish earthquake-resistant provisions, as well as for defining risk reduction measurements in the region.
Resumo:
En el año 2008 la Universidad Politécnica de Madrid y la empresa Gas Natural Fenosa firmaron un acuerdo por el que se creaba el Aula José Cabrera en el Departamento de Ingeniería Nuclear de la UPM. Dicho aula cuenta con el simulador gráfico interactivo de la central nuclear José Cabrera, que es un simulador de alcance total de una central nuclear PWR de un lazo. El objetivo de la ponencia es demostrar la gran aplicación didáctica que tiene dicho aula. El simulador es una herramienta de uso interactivo para trabajo individual o en grupo con los alumnos. Dentro de la asignatura de “Fiabilidad y Análisis del Riesgo” del Máster Ciencia y Tecnología Nuclear de la ETSII-UPM, se propuso la realización de un árbol de eventos para un accidente propuesto por los alumnos. El trabajo que se presenta en esta ponencia ha consistido en el análisis del accidente de rotura de tubos en el generador de vapor usando el simulador gráfico interactivo.
Resumo:
El incremento de los intercambios comerciales y del parque de vehículos ha provocado una continua exigencia sobre las condiciones del trazado de carreteras que ha influido en el aumento del número de túneles. Los accidentes catastróficos concentrados alrededor del nuevo siglo han dado lugar al cambio de paradigma sobre las exigencias de seguridad, y han aumentado el énfasis sobre la importancia de la toma de decisiones basada explícitamente en criterios objetivos de determinación del riesgo, tal como obliga la Directiva Europea 2004/54/EC de la Unión Europea. Cada país ha intentado adecuarse a ella recomendando tipos de procedimientos diferentes. En este artículo se trata de poner en perspectiva la situación y describir algunos enfoques de los que se dispone actualmente.
Resumo:
El relieve natural de las islas volcánicas montañosas tiene profundos barrancos taludes rocosos de pronunciadas pendientes y elevados acantilados costeros. Las formaciones geológicas de origen volcánico incluyen materiales rocosos y suelos muy heterogéneos en cuanto a su disposición espacial y comportamiento geomecánico. Además, en las zonas del sur de Gran Canaria y Fuerteventura, con frecuencia las construcciones civiles y de edificación muestran altos taludes practicados en el terreno y, como resultado en diversos puntos se ven afectados por desprendimientos de rocas y deslizamientos En el presente trabajo se muestran dos casos de estudio: 1) Estudio del riesgo de desprendimientos de rocas y métodos de estabilización aplicados en el talud de Los Teques, T.M. de Mogán, sur de Gran Canaria, y 2) Estudio geológico-geotécnico para el proyecto de construcción del paseo peatonal en el acantilado costero de Morro Jable T.M. de Pájara, sur de Fuerteventura. La variación espacial de las formaciones volcamcas, su grado de soldadura y alteración variables y la dificultad de establecer familias de fracturas características, han hecho que los métodos clásicos de clasificación geomecanica resultaran poco eficaces. En estos casos, el reconocimiento geológico detallado y una estimación del comportamiento geomecánico de los materiales ha sido el método empleado para definir y evaluar las zonas inestables en los taludes y para establecer los métodos de estabilización más convenientes.
Resumo:
El presente proyecto surge de la estancia de la alumna en el proyecto “Mejora y adecuación participativa del ambiente urbano del Barrio de la Balanza”, desarrollado por el grupo de Habitabilidad Básica de la ETSAM perteneciente al DUYOT de la ETSAM y la asociación CITIO (Ciudad Transdisciplinar) de la Universidad Nacional de Ingeniería de Lima. Dicha estancia se realiza como becaria del programa Proyectos Fin de Carrera de Cooperación al Desarrollo de la UPM durante seis meses. PROPLAN PROducción y PLANificación del espacio público de la periferia limeña, caso del Barrio de la Balanza, Comas. ¿Cómo intervenir en el espacio público en un lugar en el que todo ha sido autoconstruido sin arquitectos? Aquí no bastan los planos para intervenir; es necesario buscar herramientas que introduzcan al arquitecto como un gestor más de la ciudad. Se desarrolló, tras una analítica de la periferia limeña y más detallada del barrio de la Balanza de Comas, PROPLAN, una propuesta que no es meramente una serie de diseños, sino un conjunto de herramientas que sirvan para intervenir participativamente en la regeneración de barriadas actuando en sus espacios públicos. Se propone un sistema en el que las numerosas PYMES locales de la construcción se asocien para crear productos para el espacio público. Los productos se insertan en base a estrategias de planificación y gestión, creando centralidades y redes y apoyándose en las asociaciones locales. ¿Por qué un sistema? Lo que sucede en este barrio no es un caso aislado. Desde los años 40 la migración peruana se desplazó a las ciudades costeras, especialmente Lima, hasta un punto en el que casi un tercio de la población reside en la capital. Esto desbordó al estado; la necesidad de vivienda y empleo no la pudo absorber la administración central, provocando el acceso al suelo informal y surgiendo la autoconstrucción de la vivienda y el barrio, así como la creación de distritos periféricos desarticulados. ¿Por qué generar un sistema de producción con las PYMES locales? Las actividades económicas del distrito se dan principalmente a través de pequeñas y microempresas (PYMES) que posibilitan la generación de empleo mejorando los ingresos de las personas y regulan el precio del libre mercado. Por ello se considera primordial la asociación con las PYMES para la producción de la ciudad, lo que genera una auténtica participación y capacitación para que Comas y, especialmente las barriadas, generen su propio sistema de desarrollo y producción. Planificación con centralidades y redes Se crea una estructura de centralidades a todas las escalas que descentralicen creando más centralidades y que vayan ligadas como dice Jordi Borja a la accesibilidad, la visibilidad e identidad y a la disposición de espacios públicos cercanos. Se aprovecha la organización ya existente por Asentamientos, generando un subcentro para cada uno de ellos, fomentando la interacción social de los vecinos y el sentido de comunidad. El subcentro se convierte en el foco de una sociedad pequeña y coherente. Las estrategias de centralidad tratan a la ciudad como una textura de células. Pero planificar la ciudad como si fueran una serie de barriadas es superficial, además de poder generar segregación social. Son necesarias una serie de acciones transversales que den cohesión y continuidad a la totalidad del barrio, por lo que se proponen otra serie de estrategias integrales donde se incluyó la red viaria, de transporte público, programas de intercambio reciclaje-luz, programas de ampliación de la cobertura de agua y saneamiento un Plan de Emergencia para la Mitigación del Riesgo en Laderas y una red de parques regados por atrapanieblas. Participación en la implementación del sistema. El sistema se implanta en espacios públicos específicos en base a acuerdos y pactos ciudadanos que se desarrollaron con la asociación CITIO y el grupo Hab-ETSAM. A través de diversos talleres participativos los diferentes colectivos locales reunidos en el Comité Cívico del Parque Tahuantinsuyo fueron cediendo y obteniendo espacios hasta llegar a un pacto común.
Resumo:
El viento, como factor medio-ambiental, ha sido objeto de numerosos estudios por los efectos que induce tanto en vehículos como en estructuras. Dentro del ámbito ferroviario, las cargas aerodinámicas debidas a la acción del viento transversal pueden poner en compromiso la seguridad de los vehículos en circulación, pudiendo llegar a ocasionar el vuelco del mismo. Incluso el sistema de cables encargado de realizar el suministro eléctrico necesario para la tracción del tren, conocido como catenaria, es sensible a la acción del viento. De hecho, al igual que ocurre en ciertas estructuras de cables, la interacción entre las fuerzas aerodinámicas no estacionarias y la catenaria puede ocasionar la aparición de oscilaciones de gran amplitud debido al fenómeno de galope. Una forma sencilla de reducir los efectos no deseados de la acción del viento, es la instalación de barreras cortavientos aguas arriba de la zona que se desea proteger. La instalación de estos dispositivos, reduce la velocidad en la estela generada, pero también modifica las propiedades del flujo dentro de la misma. Esta alteración de las condiciones del flujo puede contribuir a la aparición del fenómeno de galope en estructuras caracterizadas por su gran flexibilidad, como la catenaria ferroviaria. Estos dos efectos contrapuestos hacen evidente la importancia de mantener cierta visión global del efecto introducido por la instalación de barreras cortavientos en la plataforma ferroviaria. A lo largo de este documento, se evalúa desde un enfoque multidisciplinar el efecto inducido por las barreras cortavientos en varios subsistemas ferroviarios. Por un lado se analizan las mejoras en la estabilidad lateral del vehículo mediante una serie de ensayos en túnel de viento. La medición de la distribución de presiones en la superficie de un modelo bidimensional de vehículo ferroviario proporciona una buena estimación del nivel de protección que se consigue en función de la altura de una barrera cortavientos. Por otra parte, se analiza la influencia del mismo juego de barreras cortavientos en las características del flujo situado sobre la plataforma ferroviaria, mediante la utilización de anemometría de hilo caliente (HWA) y velocimetría de imágenes de párticulas (PIV). En particular se centra la atención en las características en la posición correspondiente a los hilos conductores de la catenaria. En la última parte del documento, se realiza un análisis simplificado de la aparición oscilaciones en la catenaria, por el efecto de la inestabilidad de galope. La información obtenida sobre las características del flujo se combinan con las propiedades aerodinámicas del hilo de contacto, obtenidas en mediante una serie de ensayos en túnel de viento. De esta manera se realiza una evaluación del riesgo a la aparición de este tipo de inestabilidad aeroeslástica aplicada a una catenaria ferroviaria situada sobre un viaducto tipo. ABSTRACT Wind as an environmental factor may induce undesirable effects on vehicles and structures. The analysis of those effects has caught the attention of several researchers. Concerning the railway system, cross-wind induces aerodynamic loads on rolling stock that may increase the overturning risk of the vehicle, threatening its safe operation. Even the cable system responsible to provide the electric current required for the train traction, known as the railway overhead or catenary, is sensitive to the wind action. In fact, the interaction between the unsteady aerodynamic forces and the railway overhead may trigger the development of undamped oscillations due to galloping phenomena. The inclusion of windbreaks upstream the area that needs wind protection is a simple mean to palliate the undesirable effects caused by the wind action. Although the presence of this wind protection devices reduces the wind speed downstream, they also modify the flow properties inside their wake. This modification on the flow characteristics may ease the apparition of the galloping phenomena on flexible structures, such as the railway overhead. This two opposite effects require to maintain a global perspective on the analysis of the influence of the windbreak presence. In the present document, a multidisciplinary analysis on the effect induced by windbreaks on several railways subsystems is conducted. On the one hand, a set of wind tunnel tests is conducted to assess the improvement on the rolling stock lateral stability. The qualitative estimation of the shelter effect, as function of the windbreak height, is established through the pressure distribution measured on the surface of a two-dimensional train model. On the other hand, the flow properties above the railway platform are assessed using the same set of windbreaks. Two experimental techniques are used to measure the flow properties, hot-wire anemometry (HWA) and particle image velocimetry (PIV). In particular, the attention is focused on the flow characteristics on the contact wire location. A simplified analysis on the catenary oscillations due to galloping phenomena is conducted in the last part of the document. Both, the flow characterization performed via PIV and the aerodynamic properties of the contact wire cross-section are combined. In this manner, the risk of the aeroelastic instabilities on a railway overhead placed on a railway bridge is assessed through a practical application.
Resumo:
El frente de un túnel puede colapsar si la presión aplicada sobre el es inferior a un valor limite denominado presión “critica” o “de colapso”. En este trabajo se desarrolla y presenta un mecanismo de rotura rotacional generado punto a punto para el cálculo de la presión de colapso del frente de túneles excavados en terrenos estratificados o en materiales que siguen un criterio de rotura nolineal. La solución propuesta es una solución de contorno superior en el marco del Análisis Límite y supone una generalización del mecanismo de rotura mas reciente existente en la bibliografía. La presencia de un terreno estratificado o con un criterio de rotura no-lineal implica una variabilidad espacial de las propiedades resistentes. Debido a esto, se generaliza el mecanismo desarrollado por Mollon et al. (2011b) para suelos, de tal forma que se puedan considerar valores locales del ángulo de rozamiento y de la cohesión. Además, la estratificación del terreno permite una rotura parcial del frente, por lo que se implementa esta posibilidad en el mecanismo, siendo la primera solución que emplea un mecanismo de rotura que se ajusta a la estratigrafía del terreno. Por otro lado, la presencia de un material con un criterio de rotura no-lineal exige introducir en el modelo, como variable de estudio, el estado tensional en el frente, el cual se somete al mismo proceso de optimización que las variables geométricas del mecanismo. Se emplea un modelo numérico 3D para validar las predicciones del mecanismo de Análisis Limite, demostrando que proporciona, con un esfuerzo computacional significativamente reducido, buenas predicciones de la presión critica, del tipo de rotura (global o parcial) en terrenos estratificados y de la geometría de fallo. El mecanismo validado se utiliza para realizar diferentes estudios paramétricos sobre la influencia de la estratigrafía en la presión de colapso. Igualmente, se emplea para elaborar cuadros de diseño de la presión de colapso para túneles ejecutados con tuneladora en macizos rocosos de mala calidad y para analizar la influencia en la estabilidad del frente del método constructivo. Asimismo, se lleva a cabo un estudio de fiabilidad de la estabilidad del frente de un túnel excavado en un macizo rocoso altamente fracturado. A partir de el se analiza como afectan las diferentes hipótesis acerca de los tipos de distribución y de las estructuras de correlación a los resultados de fiabilidad. Se investiga también la sensibilidad de los índices de fiabilidad a los cambios en las variables aleatorias, identificando las mas relevantes para el diseño. Por ultimo, se lleva a cabo un estudio experimental mediante un modelo de laboratorio a escala reducida. El modelo representa medio túnel, lo cual permite registrar el movimiento del material mediante una técnica de correlación de imágenes fotográficas. El ensayo se realiza con una arena seca y se controla por deformaciones mediante un pistón que simula el frente. Los resultados obtenidos se comparan con las estimaciones de la solución de Análisis Límite, obteniéndose un ajuste razonable, de acuerdo a la literatura, tanto en la geometría de rotura como en la presión de colapso. A tunnel face may collapse if the applied support pressure is lower than a limit value called the ‘critical’ or ‘collapse’ pressure. In this work, an advanced rotational failure mechanism generated ‘‘point-by-point” is developed to compute the collapse pressure for tunnel faces in layered (or stratified) grounds or in materials that follow a non-linear failure criterion. The proposed solution is an upper bound solution in the framework of limit analysis which extends the most advanced face failure mechanism in the literature. The excavation of the tunnel in a layered ground or in materials with a non-linear failure criterion may lead to a spatial variability of the strength properties. Because of this, the rotational mechanism recently proposed by Mollon et al. (2011b) for Mohr-Coulomb soils is generalized so that it can consider local values of the friction angle and of the cohesion. For layered soils, the mechanism needs to be extended to consider the possibility for partial collapse. The proposed methodology is the first solution with a partial collapse mechanism that can fit to the stratification. Similarly, the use of a nonlinear failure criterion introduces the need to introduce new parameters in the optimization problem to consider the distribution of normal stresses along the failure surface. A 3D numerical model is employed to validate the predictions of the limit analysis mechanism, demonstrating that it provides, with a significantly reduced computational effort, good predictions of critical pressure, of the type of collapse (global or partial) in layered soils, and of its geometry. The mechanism is then employed to conduct parametric studies of the influence of several geometrical and mechanical parameters on face stability of tunnels in layered soils. Similarly, the methodology has been further employed to develop simple design charts that provide the face collapse pressure of tunnels driven by TBM in low quality rock masses and to study the influence of the construction method. Finally, a reliability analysis of the stability of a tunnel face driven in a highly fractured rock mass is performed. The objective is to analyze how different assumptions about distributions types and correlation structures affect the reliability results. In addition, the sensitivity of the reliability index to changes in the random variables is studied, identifying the most relevant variables for engineering design. Finally, an experimental study is carried out using a small-scale laboratory model. The problem is modeled in half, cutting through the tunnel axis vertically, so that displacements of soil particles can be recorded by a digital image correlation technique. The tests were performed with dry sand and displacements are controlled by a piston that supports the soil. The results of the model are compared with the predictions of the Limit Analysis mechanism. A reasonable agreement, according to literature, is obtained between the shapes of the failure surfaces and between the collapse pressures observed in the model tests and computed with the analytical solution.
Resumo:
El transporte aéreo es un sector estratégico para el crecimiento económico de cualquier país. La estabilidad y el desarrollo de este modo de transporte tienen un pilar fundamental en una operación segura, especialmente cuando las previsiones indican escenarios de crecimiento continuo del tráfico aéreo. La estimación del riesgo y, por tanto, del nivel de seguridad de un entorno operativo se ha basado en métodos indirectos como puede ser la cuantificación y análisis de los reportes voluntarios de incidentes o el uso de modelos de riesgo de colisión enfocados a escenarios operativos parciales, como puede ser un espacio aéreo oceánico. La operación en un área terminal de maniobra es compleja, con distintos flujos de tráfico de arribada y salida a uno o varios aeropuertos, con cambios frecuentes en el rumbo y velocidad de las aeronaves y con instrucciones tácticas del control de tráfico aéreo para secuenciar y separar las aeronaves El objetivo de la presente Tesis es complementar los actuales métodos de monitorización de la seguridad que presentan sus limitaciones, con el desarrollo de un modelo de riesgo de colisión para áreas terminales de alta densidad que se base en datos objetivos como son las trazar radar de las aeronaves y que tenga en cuenta la complejidad de la operación en un área terminal. Para evaluar el modelo desarrollado se ha implementado una herramienta prototipo en MATLAB© que permite procesar un número masivo de trazar radar para un escenario de área terminal y calcular un valor del riesgo de colisión para el escenario analizado. El prototipo ha sido utilizado para estimar la probabilidad de colisión para distintos escenarios del área terminal de Madrid. El uso de trazas radar permite monitorizar el nivel de riesgo de escenarios reales de manera periódica estableciendo niveles de alerta temprana si se detecta que el valor de riesgo se desvía en exceso, pero también permite evaluar el nivel de riesgo de diseños de espacio aéreo o de nuevos modos de operación a partir de las trazas radar obtenidas en las simulaciones en tiempo real o acelerado y actuar en fases tempranas de los proyectos. ABSTRACT The air transport is a strategic sector for the economic growth of any country. The stability and development of the transport mode have a fundamental pillar in a safe operation, especially when long-term forecasts show scenarios of continuous growth in air traffic. Risk estimation and therefore the level of safety in an operational airspace has been based on indirect methods such as the quantification and analysis of voluntary reports of safety incidents or use of collision risk models focused on partial or simple operational scenarios such as an oceanic airspace. The operation on a terminal maneuvering area is complex, with different traffic flows of arrival and departure at one or more airports, with frequent changes in direction and speed of aircraft and tactical instructions of air traffic control to sequence and separate aircraft. The objective of this Thesis is to complement existing methods of monitoring safety that have their limitations, with the development of a collision risk model for high-density terminal areas that is based on objective data such as aircraft radar tracks and taking into account the complexity of the operation in a terminal area. To evaluate the developed model a prototype tool was implemented with MATLAB© that can process massive numbers of radar tracks for a terminal area scenario and computing a collision risk value for that scenario. The prototype has been used to estimate the probability of collision for different scenarios of the terminal area of Madrid. The use of radar tracks allows to monitor the level of risk of real scenarios periodically establishing levels of early warning when the risk value deviates too much, but also to assess the risk level of airspace designs or modes of operations from the radar tracks obtained in real or fast time simulations and act in the early stages of projects.
Resumo:
INTRODUCCIÓN: El riesgo de padecer enfermedades cardiovasculares y los índices de obesidad infantil han ido en aumento durante los últimos años empobreciendo la salud de la población. La Teoría de Barker relaciona el estado de salud de la madre con el desarrollo fetal, asociando a un deficiente estado físico y hábitos de vida negativos de la mujer embarazada con el aumento del riesgo de padecer cardiopatías en la infancia y adolescencia, así como predisponer al recién nacido a padecer sobrepeso y/u obesidad en su vida posterior. Por otro lado los estudios efectuados sobre ejercicio físico durante el embarazo reportan beneficios para salud materna y fetal. Uno de los parámetros más utilizados para comprobar la salud fetal es su frecuencia cardiaca, mediante la que se comprueba el buen desarrollo del sistema nervioso autónomo. Si se observa este parámetro en presencia de ejercicio materno podría encontrarse una respuesta crónica del corazón fetal al ejercicio materno como consecuencia de una adaptación y mejora en el funcionamiento del sistema nervioso autónomo del feto. De esta forma podría mejorar su salud cardiovascular intrauterina, lo que podría mantenerse en su vida posterior descendiendo el riesgo de padecer enfermedades cardiovasculares en la edad adulta. OBJETIVOS: Conocer la influencia de un programa de ejercicio físico supervisado en la frecuencia cardiaca fetal (FCF) en reposo y después del ejercicio materno en relación con gestantes sedentarias mediante la realización de un protocolo específico. Conocer la influencia de un programa de ejercicio físico en el desarrollo del sistema nervioso autónomo fetal, relacionado con el tiempo de recuperación de la FCF. MATERIAL Y MÉTODO: Se diseñó un ensayo clínico aleatorizado multicéntrico en el que participaron 81 gestantes (GC=38, GE=43). El estudio fue aprobado por el comité ético de los hospitales que participaron en el estudio. Todas las gestantes fueron informadas y firmaron un consentimiento para su participación en el estudio. Las participantes del GE recibieron una intervención basada en un programa de ejercicio físico desarrollado durante la gestación (12-36 semanas de gestación) con una frecuencia de tres veces por semana. Todas las gestantes realizaron un protocolo de medida de la FCF entre las semanas 34-36 de gestación. Dicho protocolo consistía en dos test llevados a cabo caminando a diferentes intensidades (40% y 60% de la frecuencia cardiaca de reserva). De este protocolo se obtuvieron las principales variables de estudio: FCF en reposo, FCF posejercicio al 40 y al 60% de intensidad, tiempo de recuperación de la frecuencia cardiaca fetal en ambos esfuerzos. El material utilizado para la realización del protocolo fue un monitor de frecuencia cardiaca para controlar la frecuencia cardiaca de la gestante y un monitor fetal inalámbrico (telemetría fetal) para registrar el latido fetal durante todo el protocolo. RESULTADOS: No se encontraron diferencias estadísticamente significativas en la FCF en reposo entre grupos (GE=140,88 lat/min vs GC= 141,95 lat/min; p>,05). Se encontraron diferencias estadísticamente significativas en el tiempo de recuperación de la FCF entre los fetos de ambos grupos (GE=135,65 s vs GC=426,11 s esfuerzo al 40%; p<,001); (GE=180,26 s vs GC=565,61 s esfuerzo al 60%; p<,001). Se encontraron diferencias estadísticamente significativas en la FCF posejercicio al 40% (GE=139,93 lat/min vs GC=147,87 lat/min; p<,01). No se encontraron diferencias estadísticamente significativas en la FCF posejercicio al 60% (GE=143,74 lat/min vs GC=148,08 lat/min; p>,05). CONLUSIÓN: El programa de ejercicio físico desarrollado durante la gestación influyó sobre el corazón fetal de los fetos de las gestantes del GE en relación con el tiempo de recuperación de la FCF. Los resultados muestran un posible mejor funcionamiento del sistema nervioso autónomo en fetos de gestantes activas durante el embarazo. ABSTRACT INTRODUCTION: The risk to suffer cardiovascular diseases and childhood obesity index has grown in the last years worsening the health around the population. Barker´s Theory related maternal health with fetal development establishing an association between a poorly physical state and an unhealthy lifestyle in the pregnant woman with the risk to suffer heart disease during childhood and adolescence, childhood overweight and/or obese is related to maternal lifestyle. By the other way researches carried out about physical exercise and pregnancy show benefits in maternal and fetal health. One of the most studied parameters to check fetal health is its heart rate, correct fetal autonomic nervous system development and work is also corroborated by fetal heart rate. Looking at this parameter during maternal exercise a chronic response of fetal heart could be found due to an adaptation and improvement in the working of the autonomic nervous system. Therefore its cardiovascular health could be enhanced during its intrauterine life and maybe it could be maintained in its posterior life descending the risk to suffer cardiovascular diseases in adult life. OBJECTIVES: To know the influence of a supervised physical activity program in the fetal heart rate (FHR) at rest, FHR after maternal exercise related to sedentary pregnant women by a FHR assessment protocol. To know the influence of a physical activity program in the development of the autonomic nervous system related to FHR recovery time. MATERIAL AND METHOD: A multicentric randomized clinical trial was design in which 81 pregnant women participated (CG=38, EG=43). The study was approved by the ethics committee of all of the hospitals participating in the study. All of the participants signed an informed consent for their participation in the study. EG participants received an intervention based on a physical activity program carried out during gestation (12-36 gestation weeks) with a three days a week frequency. All of the participants were tested between 34-36 weeks of gestation by a specific FHR assessment protocol. The mentioned protocol consisted in two test performed walking and at a two different intensities (40% and 60% of the reserve heart rate). From this protocol we obtained the main research variables: FHR at rest, FHR post-exercise at 40% and 60% intensity, and FHR recovery time at both walking test. The material used to perform the protocol were a FH monitor to check maternal HR and a wireless fetal monitor (Telemetry) to register fetal beats during the whole protocol. RESULTS: There were no statistical differences in FHR at rest between groups (EG=140,88 beats/min vs CG= 141,95 beats/min; p>,05). There were statistical differences in FHR recovery time in both walking tests between groups (EG=135,65 s vs CG=426,11 s test at 40% intensity; p<,001); (EG=180,26 s vs CG=565,61 s test at 60% intensity; p<,001). Statistical differences were found in FHR post-exercise at 40% intensity between groups (EG=139,93 beats/min vs CG=147,87 beats/min; p<,01). No statistical differences were found in FHR at rest post-exercise at 60% intensity between groups (EG=143,74 beats/min vs CG=148,08 beats/min; p>,05). CONCLUSIONS: The physical activity program performed during gestation had an influence in fetal heart of the fetus from mother in the EG related to FHR recovery time. These results show a possible enhancement on autonomic nervous system working in fetus from active mothers during gestation.
Resumo:
Esta tesis aborda metodologías para el cálculo de riesgo de colisión de satélites. La minimización del riesgo de colisión se debe abordar desde dos puntos de vista distintos. Desde el punto de vista operacional, es necesario filtrar los objetos que pueden presentar un encuentro entre todos los objetos que comparten el espacio con un satélite operacional. Puesto que las órbitas, del objeto operacional y del objeto envuelto en la colisión, no se conocen perfectamente, la geometría del encuentro y el riesgo de colisión deben ser evaluados. De acuerdo con dicha geometría o riesgo, una maniobra evasiva puede ser necesaria para evitar la colisión. Dichas maniobras implican un consumo de combustible que impacta en la capacidad de mantenimiento orbital y por tanto de la visa útil del satélite. Por tanto, el combustible necesario a lo largo de la vida útil de un satélite debe ser estimado en fase de diseño de la misión para una correcta definición de su vida útil, especialmente para satélites orbitando en regímenes orbitales muy poblados. Los dos aspectos, diseño de misión y aspectos operacionales en relación con el riesgo de colisión están abordados en esta tesis y se resumen en la Figura 3. En relación con los aspectos relacionados con el diseño de misión (parte inferior de la figura), es necesario evaluar estadísticamente las características de de la población espacial y las teorías que permiten calcular el número medio de eventos encontrados por una misión y su capacidad de reducir riesgo de colisión. Estos dos aspectos definen los procedimientos más apropiados para reducir el riesgo de colisión en fase operacional. Este aspecto es abordado, comenzando por la teoría descrita en [Sánchez-Ortiz, 2006]T.14 e implementada por el autor de esta tesis en la herramienta ARES [Sánchez-Ortiz, 2004b]T.15 proporcionada por ESA para la evaluación de estrategias de evitación de colisión. Esta teoría es extendida en esta tesis para considerar las características de los datos orbitales disponibles en las fases operacionales de un satélite (sección 4.3.3). Además, esta teoría se ha extendido para considerar riesgo máximo de colisión cuando la incertidumbre de las órbitas de objetos catalogados no es conocida (como se da el caso para los TLE), y en el caso de querer sólo considerar riesgo de colisión catastrófico (sección 4.3.2.3). Dichas mejoras se han incluido en la nueva versión de ARES [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 puesta a disposición a través de [SDUP,2014]R.60. En fase operacional, los catálogos que proporcionan datos orbitales de los objetos espaciales, son procesados rutinariamente, para identificar posibles encuentros que se analizan en base a algoritmos de cálculo de riesgo de colisión para proponer maniobras de evasión. Actualmente existe una única fuente de datos públicos, el catálogo TLE (de sus siglas en inglés, Two Line Elements). Además, el Joint Space Operation Center (JSpOC) Americano proporciona mensajes con alertas de colisión (CSM) cuando el sistema de vigilancia americano identifica un posible encuentro. En función de los datos usados en fase operacional (TLE o CSM), la estrategia de evitación puede ser diferente debido a las características de dicha información. Es preciso conocer las principales características de los datos disponibles (respecto a la precisión de los datos orbitales) para estimar los posibles eventos de colisión encontrados por un satélite a lo largo de su vida útil. En caso de los TLE, cuya precisión orbital no es proporcionada, la información de precisión orbital derivada de un análisis estadístico se puede usar también en el proceso operacional así como en el diseño de la misión. En caso de utilizar CSM como base de las operaciones de evitación de colisiones, se conoce la precisión orbital de los dos objetos involucrados. Estas características se han analizado en detalle, evaluando estadísticamente las características de ambos tipos de datos. Una vez concluido dicho análisis, se ha analizado el impacto de utilizar TLE o CSM en las operaciones del satélite (sección 5.1). Este análisis se ha publicado en una revista especializada [Sánchez-Ortiz, 2015b]T.3. En dicho análisis, se proporcionan recomendaciones para distintas misiones (tamaño del satélite y régimen orbital) en relación con las estrategias de evitación de colisión para reducir el riesgo de colisión de manera significativa. Por ejemplo, en el caso de un satélite en órbita heliosíncrona en régimen orbital LEO, el valor típico del ACPL que se usa de manera extendida es 10-4. Este valor no es adecuado cuando los esquemas de evitación de colisión se realizan sobre datos TLE. En este caso, la capacidad de reducción de riesgo es prácticamente nula (debido a las grandes incertidumbres de los datos TLE) incluso para tiempos cortos de predicción. Para conseguir una reducción significativa del riesgo, sería necesario usar un ACPL en torno a 10-6 o inferior, produciendo unas 10 alarmas al año por satélite (considerando predicciones a un día) o 100 alarmas al año (con predicciones a tres días). Por tanto, la principal conclusión es la falta de idoneidad de los datos TLE para el cálculo de eventos de colisión. Al contrario, usando los datos CSM, debido a su mejor precisión orbital, se puede obtener una reducción significativa del riesgo con ACPL en torno a 10-4 (considerando 3 días de predicción). Incluso 5 días de predicción pueden ser considerados con ACPL en torno a 10-5. Incluso tiempos de predicción más largos se pueden usar (7 días) con reducción del 90% del riesgo y unas 5 alarmas al año (en caso de predicciones de 5 días, el número de maniobras se mantiene en unas 2 al año). La dinámica en GEO es diferente al caso LEO y hace que el crecimiento de las incertidumbres orbitales con el tiempo de propagación sea menor. Por el contrario, las incertidumbres derivadas de la determinación orbital son peores que en LEO por las diferencias en las capacidades de observación de uno y otro régimen orbital. Además, se debe considerar que los tiempos de predicción considerados para LEO pueden no ser apropiados para el caso de un satélite GEO (puesto que tiene un periodo orbital mayor). En este caso usando datos TLE, una reducción significativa del riesgo sólo se consigue con valores pequeños de ACPL, produciendo una alarma por año cuando los eventos de colisión se predicen a un día vista (tiempo muy corto para implementar maniobras de evitación de colisión).Valores más adecuados de ACPL se encuentran entre 5•10-8 y 10-7, muy por debajo de los valores usados en las operaciones actuales de la mayoría de las misiones GEO (de nuevo, no se recomienda en este régimen orbital basar las estrategias de evitación de colisión en TLE). Los datos CSM permiten una reducción de riesgo apropiada con ACPL entre 10-5 y 10-4 con tiempos de predicción cortos y medios (10-5 se recomienda para predicciones a 5 o 7 días). El número de maniobras realizadas sería una en 10 años de misión. Se debe notar que estos cálculos están realizados para un satélite de unos 2 metros de radio. En el futuro, otros sistemas de vigilancia espacial (como el programa SSA de la ESA), proporcionarán catálogos adicionales de objetos espaciales con el objetivo de reducir el riesgo de colisión de los satélites. Para definir dichos sistemas de vigilancia, es necesario identificar las prestaciones del catalogo en función de la reducción de riesgo que se pretende conseguir. Las características del catálogo que afectan principalmente a dicha capacidad son la cobertura (número de objetos incluidos en el catalogo, limitado principalmente por el tamaño mínimo de los objetos en función de las limitaciones de los sensores utilizados) y la precisión de los datos orbitales (derivada de las prestaciones de los sensores en relación con la precisión de las medidas y la capacidad de re-observación de los objetos). El resultado de dicho análisis (sección 5.2) se ha publicado en una revista especializada [Sánchez-Ortiz, 2015a]T.2. Este análisis no estaba inicialmente previsto durante la tesis, y permite mostrar como la teoría descrita en esta tesis, inicialmente definida para facilitar el diseño de misiones (parte superior de la figura 1) se ha extendido y se puede aplicar para otros propósitos como el dimensionado de un sistema de vigilancia espacial (parte inferior de la figura 1). La principal diferencia de los dos análisis se basa en considerar las capacidades de catalogación (precisión y tamaño de objetos observados) como una variable a modificar en el caso de un diseño de un sistema de vigilancia), siendo fijas en el caso de un diseño de misión. En el caso de las salidas generadas en el análisis, todos los aspectos calculados en un análisis estadístico de riesgo de colisión son importantes para diseño de misión (con el objetivo de calcular la estrategia de evitación y la cantidad de combustible a utilizar), mientras que en el caso de un diseño de un sistema de vigilancia, los aspectos más importantes son el número de maniobras y falsas alarmas (fiabilidad del sistema) y la capacidad de reducción de riesgo (efectividad del sistema). Adicionalmente, un sistema de vigilancia espacial debe ser caracterizado por su capacidad de evitar colisiones catastróficas (evitando así in incremento dramático de la población de basura espacial), mientras que el diseño de una misión debe considerar todo tipo de encuentros, puesto que un operador está interesado en evitar tanto las colisiones catastróficas como las letales. Del análisis de las prestaciones (tamaño de objetos a catalogar y precisión orbital) requeridas a un sistema de vigilancia espacial se concluye que ambos aspectos han de ser fijados de manera diferente para los distintos regímenes orbitales. En el caso de LEO se hace necesario observar objetos de hasta 5cm de radio, mientras que en GEO se rebaja este requisito hasta los 100 cm para cubrir las colisiones catastróficas. La razón principal para esta diferencia viene de las diferentes velocidades relativas entre los objetos en ambos regímenes orbitales. En relación con la precisión orbital, ésta ha de ser muy buena en LEO para poder reducir el número de falsas alarmas, mientras que en regímenes orbitales más altos se pueden considerar precisiones medias. En relación con los aspectos operaciones de la determinación de riesgo de colisión, existen varios algoritmos de cálculo de riesgo entre dos objetos espaciales. La Figura 2 proporciona un resumen de los casos en cuanto a algoritmos de cálculo de riesgo de colisión y como se abordan en esta tesis. Normalmente se consideran objetos esféricos para simplificar el cálculo de riesgo (caso A). Este caso está ampliamente abordado en la literatura y no se analiza en detalle en esta tesis. Un caso de ejemplo se proporciona en la sección 4.2. Considerar la forma real de los objetos (caso B) permite calcular el riesgo de una manera más precisa. Un nuevo algoritmo es definido en esta tesis para calcular el riesgo de colisión cuando al menos uno de los objetos se considera complejo (sección 4.4.2). Dicho algoritmo permite calcular el riesgo de colisión para objetos formados por un conjunto de cajas, y se ha presentado en varias conferencias internacionales. Para evaluar las prestaciones de dicho algoritmo, sus resultados se han comparado con un análisis de Monte Carlo que se ha definido para considerar colisiones entre cajas de manera adecuada (sección 4.1.2.3), pues la búsqueda de colisiones simples aplicables para objetos esféricos no es aplicable a este caso. Este análisis de Monte Carlo se considera la verdad a la hora de calcular los resultados del algoritmos, dicha comparativa se presenta en la sección 4.4.4. En el caso de satélites que no se pueden considerar esféricos, el uso de un modelo de la geometría del satélite permite descartar eventos que no son colisiones reales o estimar con mayor precisión el riesgo asociado a un evento. El uso de estos algoritmos con geometrías complejas es más relevante para objetos de dimensiones grandes debido a las prestaciones de precisión orbital actuales. En el futuro, si los sistemas de vigilancia mejoran y las órbitas son conocidas con mayor precisión, la importancia de considerar la geometría real de los satélites será cada vez más relevante. La sección 5.4 presenta un ejemplo para un sistema de grandes dimensiones (satélite con un tether). Adicionalmente, si los dos objetos involucrados en la colisión tienen velocidad relativa baja (y geometría simple, Caso C en la Figura 2), la mayor parte de los algoritmos no son aplicables requiriendo implementaciones dedicadas para este caso particular. En esta tesis, uno de estos algoritmos presentado en la literatura [Patera, 2001]R.26 se ha analizado para determinar su idoneidad en distintos tipos de eventos (sección 4.5). La evaluación frete a un análisis de Monte Carlo se proporciona en la sección 4.5.2. Tras este análisis, se ha considerado adecuado para abordar las colisiones de baja velocidad. En particular, se ha concluido que el uso de algoritmos dedicados para baja velocidad son necesarios en función del tamaño del volumen de colisión proyectado en el plano de encuentro (B-plane) y del tamaño de la incertidumbre asociada al vector posición entre los dos objetos. Para incertidumbres grandes, estos algoritmos se hacen más necesarios pues la duración del intervalo en que los elipsoides de error de los dos objetos pueden intersecar es mayor. Dicho algoritmo se ha probado integrando el algoritmo de colisión para objetos con geometrías complejas. El resultado de dicho análisis muestra que este algoritmo puede ser extendido fácilmente para considerar diferentes tipos de algoritmos de cálculo de riesgo de colisión (sección 4.5.3). Ambos algoritmos, junto con el método Monte Carlo para geometrías complejas, se han implementado en la herramienta operacional de la ESA CORAM, que es utilizada para evaluar el riesgo de colisión en las actividades rutinarias de los satélites operados por ESA [Sánchez-Ortiz, 2013a]T.11. Este hecho muestra el interés y relevancia de los algoritmos desarrollados para la mejora de las operaciones de los satélites. Dichos algoritmos han sido presentados en varias conferencias internacionales [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1. ABSTRACT This document addresses methodologies for computation of the collision risk of a satellite. Two different approaches need to be considered for collision risk minimisation. On an operational basis, it is needed to perform a sieve of possible objects approaching the satellite, among all objects sharing the space with an operational satellite. As the orbits of both, satellite and the eventual collider, are not perfectly known but only estimated, the miss-encounter geometry and the actual risk of collision shall be evaluated. In the basis of the encounter geometry or the risk, an eventual manoeuvre may be required to avoid the conjunction. Those manoeuvres will be associated to a reduction in the fuel for the mission orbit maintenance, and thus, may reduce the satellite operational lifetime. Thus, avoidance manoeuvre fuel budget shall be estimated, at mission design phase, for a better estimation of mission lifetime, especially for those satellites orbiting in very populated orbital regimes. These two aspects, mission design and operational collision risk aspects, are summarised in Figure 3, and covered along this thesis. Bottom part of the figure identifies the aspects to be consider for the mission design phase (statistical characterisation of the space object population data and theory computing the mean number of events and risk reduction capability) which will define the most appropriate collision avoidance approach at mission operational phase. This part is covered in this work by starting from the theory described in [Sánchez-Ortiz, 2006]T.14 and implemented by this author in ARES tool [Sánchez-Ortiz, 2004b]T.15 provided by ESA for evaluation of collision avoidance approaches. This methodology has been now extended to account for the particular features of the available data sets in operational environment (section 4.3.3). Additionally, the formulation has been extended to allow evaluating risk computation approached when orbital uncertainty is not available (like the TLE case) and when only catastrophic collisions are subject to study (section 4.3.2.3). These improvements to the theory have been included in the new version of ESA ARES tool [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 and available through [SDUP,2014]R.60. At the operation phase, the real catalogue data will be processed on a routine basis, with adequate collision risk computation algorithms to propose conjunction avoidance manoeuvre optimised for every event. The optimisation of manoeuvres in an operational basis is not approached along this document. Currently, American Two Line Element (TLE) catalogue is the only public source of data providing orbits of objects in space to identify eventual conjunction events. Additionally, Conjunction Summary Message (CSM) is provided by Joint Space Operation Center (JSpOC) when the American system identifies a possible collision among satellites and debris. Depending on the data used for collision avoidance evaluation, the conjunction avoidance approach may be different. The main features of currently available data need to be analysed (in regards to accuracy) in order to perform estimation of eventual encounters to be found along the mission lifetime. In the case of TLE, as these data is not provided with accuracy information, operational collision avoidance may be also based on statistical accuracy information as the one used in the mission design approach. This is not the case for CSM data, which includes the state vector and orbital accuracy of the two involved objects. This aspect has been analysed in detail and is depicted in the document, evaluating in statistical way the characteristics of both data sets in regards to the main aspects related to collision avoidance. Once the analysis of data set was completed, investigations on the impact of those features in the most convenient avoidance approaches have been addressed (section 5.1). This analysis is published in a peer-reviewed journal [Sánchez-Ortiz, 2015b]T.3. The analysis provides recommendations for different mission types (satellite size and orbital regime) in regards to the most appropriate collision avoidance approach for relevant risk reduction. The risk reduction capability is very much dependent on the accuracy of the catalogue utilized to identify eventual collisions. Approaches based on CSM data are recommended against the TLE based approach. Some approaches based on the maximum risk associated to envisaged encounters are demonstrated to report a very large number of events, which makes the approach not suitable for operational activities. Accepted Collision Probability Levels are recommended for the definition of the avoidance strategies for different mission types. For example for the case of a LEO satellite in the Sun-synchronous regime, the typically used ACPL value of 10-4 is not a suitable value for collision avoidance schemes based on TLE data. In this case the risk reduction capacity is almost null (due to the large uncertainties associated to TLE data sets, even for short time-to-event values). For significant reduction of risk when using TLE data, ACPL on the order of 10-6 (or lower) seems to be required, producing about 10 warnings per year and mission (if one-day ahead events are considered) or 100 warnings per year (for three-days ahead estimations). Thus, the main conclusion from these results is the lack of feasibility of TLE for a proper collision avoidance approach. On the contrary, for CSM data, and due to the better accuracy of the orbital information when compared with TLE, ACPL on the order of 10-4 allows to significantly reduce the risk. This is true for events estimated up to 3 days ahead. Even 5 days ahead events can be considered, but ACPL values down to 10-5 should be considered in such case. Even larger prediction times can be considered (7 days) for risk reduction about 90%, at the cost of larger number of warnings up to 5 events per year, when 5 days prediction allows to keep the manoeuvre rate in 2 manoeuvres per year. Dynamics of the GEO orbits is different to that in LEO, impacting on a lower increase of orbits uncertainty along time. On the contrary, uncertainties at short prediction times at this orbital regime are larger than those at LEO due to the differences in observation capabilities. Additionally, it has to be accounted that short prediction times feasible at LEO may not be appropriate for a GEO mission due to the orbital period being much larger at this regime. In the case of TLE data sets, significant reduction of risk is only achieved for small ACPL values, producing about a warning event per year if warnings are raised one day in advance to the event (too short for any reaction to be considered). Suitable ACPL values would lay in between 5•10-8 and 10-7, well below the normal values used in current operations for most of the GEO missions (TLE-based strategies for collision avoidance at this regime are not recommended). On the contrary, CSM data allows a good reduction of risk with ACPL in between 10-5 and 10-4 for short and medium prediction times. 10-5 is recommended for prediction times of five or seven days. The number of events raised for a suitable warning time of seven days would be about one in a 10-year mission. It must be noted, that these results are associated to a 2 m radius spacecraft, impact of the satellite size are also analysed within the thesis. In the future, other Space Situational Awareness Systems (SSA, ESA program) may provide additional catalogues of objects in space with the aim of reducing the risk. It is needed to investigate which are the required performances of those catalogues for allowing such risk reduction. The main performance aspects are coverage (objects included in the catalogue, mainly limited by a minimum object size derived from sensor performances) and the accuracy of the orbital data to accurately evaluate the conjunctions (derived from sensor performance in regards to object observation frequency and accuracy). The results of these investigations (section 5.2) are published in a peer-reviewed journal [Sánchez-Ortiz, 2015a]T.2. This aspect was not initially foreseen as objective of the thesis, but it shows how the theory described in the thesis, initially defined for mission design in regards to avoidance manoeuvre fuel allocation (upper part of figure 1), is extended and serves for additional purposes as dimensioning a Space Surveillance and Tracking (SST) system (bottom part of figure below). The main difference between the two approaches is the consideration of the catalogue features as part of the theory which are not modified (for the satellite mission design case) instead of being an input for the analysis (in the case of the SST design). In regards to the outputs, all the features computed by the statistical conjunction analysis are of importance for mission design (with the objective of proper global avoidance strategy definition and fuel allocation), whereas for the case of SST design, the most relevant aspects are the manoeuvre and false alarm rates (defining a reliable system) and the Risk Reduction capability (driving the effectiveness of the system). In regards to the methodology for computing the risk, the SST system shall be driven by the capacity of providing the means to avoid catastrophic conjunction events (avoiding the dramatic increase of the population), whereas the satellite mission design should consider all type of encounters, as the operator is interested on avoiding both lethal and catastrophic collisions. From the analysis of the SST features (object coverage and orbital uncertainty) for a reliable system, it is concluded that those two characteristics are to be imposed differently for the different orbital regimes, as the population level is different depending on the orbit type. Coverage values range from 5 cm for very populated LEO regime up to 100 cm in the case of GEO region. The difference on this requirement derives mainly from the relative velocity of the encounters at those regimes. Regarding the orbital knowledge of the catalogues, very accurate information is required for objects in the LEO region in order to limit the number of false alarms, whereas intermediate orbital accuracy can be considered for higher orbital regimes. In regards to the operational collision avoidance approaches, several collision risk algorithms are used for evaluation of collision risk of two pair of objects. Figure 2 provides a summary of the different collision risk algorithm cases and indicates how they are covered along this document. The typical case with high relative velocity is well covered in literature for the case of spherical objects (case A), with a large number of available algorithms, that are not analysed in detailed in this work. Only a sample case is provided in section 4.2. If complex geometries are considered (Case B), a more realistic risk evaluation can be computed. New approach for the evaluation of risk in the case of complex geometries is presented in this thesis (section 4.4.2), and it has been presented in several international conferences. The developed algorithm allows evaluating the risk for complex objects formed by a set of boxes. A dedicated Monte Carlo method has also been described (section 4.1.2.3) and implemented to allow the evaluation of the actual collisions among a large number of simulation shots. This Monte Carlo runs are considered the truth for comparison of the algorithm results (section 4.4.4). For spacecrafts that cannot be considered as spheres, the consideration of the real geometry of the objects may allow to discard events which are not real conjunctions, or estimate with larger reliability the risk associated to the event. This is of particular importance for the case of large spacecrafts as the uncertainty in positions of actual catalogues does not reach small values to make a difference for the case of objects below meter size. As the tracking systems improve and the orbits of catalogued objects are known more precisely, the importance of considering actual shapes of the objects will become more relevant. The particular case of a very large system (as a tethered satellite) is analysed in section 5.4. Additionally, if the two colliding objects have low relative velocity (and simple geometries, case C in figure above), the most common collision risk algorithms fail and adequate theories need to be applied. In this document, a low relative velocity algorithm presented in the literature [Patera, 2001]R.26 is described and evaluated (section 4.5). Evaluation through comparison with Monte Carlo approach is provided in section 4.5.2. The main conclusion of this analysis is the suitability of this algorithm for the most common encounter characteristics, and thus it is selected as adequate for collision risk estimation. Its performances are evaluated in order to characterise when it can be safely used for a large variety of encounter characteristics. In particular, it is found that the need of using dedicated algorithms depend on both the size of collision volume in the B-plane and the miss-distance uncertainty. For large uncertainties, the need of such algorithms is more relevant since for small uncertainties the encounter duration where the covariance ellipsoids intersect is smaller. Additionally, its application for the case of complex satellite geometries is assessed (case D in figure above) by integrating the developed algorithm in this thesis with Patera’s formulation for low relative velocity encounters. The results of this analysis show that the algorithm can be easily extended for collision risk estimation process suitable for complex geometry objects (section 4.5.3). The two algorithms, together with the Monte Carlo method, have been implemented in the operational tool CORAM for ESA which is used for the evaluation of collision risk of ESA operated missions, [Sánchez-Ortiz, 2013a]T.11. This fact shows the interest and relevance of the developed algorithms for improvement of satellite operations. The algorithms have been presented in several international conferences, [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1.
Resumo:
El crecimiento urbano descontrolado en países en vía de desarrollo conlleva grandes desafíos para la gestión del territorio frente al riesgo de inundaciones, aún más en relación al cambio climático. El propósito de la presente comunicación es describir los aspectos más generales y relevantes del proyecto Adaptación Urbana Verde. El software MODCEL© fue adoptado para realizar simulaciones de distintas alternativas de solución y así determinar zonas inundadas y viviendas afectadas de Riohacha, elementos clave para comparar alternativas. El software MODCEL soporta una familia de modelos matemáticos hidráulicos cuasi 3D, discretizando el territorio en ?céldas?. Las salidas de simulación se han reportado en un sistema de información geográfica para la visualización y análisis. A través de un proceso participativo, apoyado en una evaluación de tipo multicriterio, se ha llegado a generar un plan urbano integrado contra las inundaciones con medidas no convencionales estructurales, destacándose el uso de elementos peculiares del territorio como lo son los humedales (naturales y e intervenidos) de Riohacha. Los resultados conseguidos pretenden ser un referente local para la adaptación al cambio climático con visibilidad nacional en la reducción del riesgo de desastres.
Resumo:
El riesgo asociado a la rotura de un depósito de agua en entorno urbano (como la ocurrida, por ejemplo, en la Ciudad Autónoma de Melilla en Noviembre de 1997) y los potenciales daños que puede causar, pone en duda la seguridad de este tipo de infraestructuras que, por necesidades del servicio de abastecimiento de agua, se construyen habitualmente en puntos altos y cercanos a los núcleos de población a los que sirven. Sin embargo, la baja probabilidad de que se produzca una rotura suele rebajar los niveles de alerta asociados a los depósitos, haciéndose hincapié en la mejora de los métodos constructivos sin elaborar metodologías que, como en el caso de las presas y las balsas de riego, establezcan la necesidad de clasificar el riesgo potencial de estas infraestructuras en función de su emplazamiento y de estudiar la posible construcción de medidas mitigadoras de una posible rotura. Por otro lado, para establecer los daños que pueden derivarse de una rotura de este tipo, se hace imprescindible la modelización bidimensional de la ola de rotura por cuanto la malla urbana a la que afectaran no es susceptible de simulaciones unidimensionales, dado que no hay un cauce que ofrezca un camino preferente al agua. Este tipo de simulación requiere de una inversión económica que no siempre está disponible en la construcción de depósitos de pequeño y mediano tamaño. Esta tesis doctoral tiene como objetivo el diseño de una metodología simplificada que, por medio de graficas y atendiendo a las variables principales del fenómeno, pueda estimar un valor para el riesgo asociado a una posible rotura y sirva como guía para establecer si un deposito (existente o de nueva implantación) requiere de un modelo de detalle para estimar el riesgo y si es conveniente implantar alguna medida mitigadora de la energía producida en una rotura de este tipo. Con carácter previo se ha establecido que las variables que intervienen en la definición de riesgo asociado a la rotura, son el calado y la velocidad máxima en cada punto sensible de sufrir daños (daños asociados al vuelco y arrastre de personas principalmente), por lo que se ha procedido a estudiar las ecuaciones que rigen el problema de la rotura del depósito y de la transmisión de la onda de rotura por la malla urbana adyacente al mismo, así como los posibles métodos de resolución de las mismas y el desarrollo informático necesario para una primera aproximación a los resultados. Para poder analizar las condiciones de contorno que influyen en los valores resultantes de velocidad y calado, se ha diseñado una batería de escenarios simplificados que, tras una modelización en detalle y un análisis adimensional, han dado como resultado que las variables que influyen en los valores de calado y velocidad máximos en cada punto son: la altura de la lamina de agua del depósito, la pendiente del terreno, la rugosidad, la forma del terreno (en términos de concavidad) y la distancia del punto de estudio al deposito. Una vez definidas las variables que influyen en los resultados, se ha llevado a cabo una segunda batería de simulaciones de escenarios simplificados que ha servido para la discusión y desarrollo de las curvas que se presentan como producto principal de la metodología simplificada. Con esta metodología, que solamente necesita de unos cálculos simples para su empleo, se obtiene un primer valor de calado y velocidad introduciendo la altura de la lámina de agua máxima de servicio del depósito cuyo riesgo se quiere evaluar. Posteriormente, y utilizando el ábaco propuesto, se obtienen coeficientes correctores de los valores obtenidos para la rugosidad y pendiente media del terreno que se esta evaluando, así como para el grado de concavidad del mismo (a través de la pendiente transversal). Con los valores obtenidos con las curvas anteriores se obtienen los valores de calado y velocidad en el punto de estudio y, aplicando la formulación propuesta, se obtiene una estimación del riesgo asociado a la rotura de la infraestructura. Como corolario a la metodología mencionada, se propone una segunda serie de gráficos para evaluar, también de forma simplificada, la reducción del riesgo que se obtendría con la construcción de alguna medida mitigadora como puede ser un dique o murete perimetral al depósito. Este método de evaluación de posible medidas mitigadoras, aporta una guía para analizar la posibilidad de disminuir el riesgo con la construcción de estos elementos, o la necesidad de buscar otro emplazamiento que, si bien pueda ser no tan favorable desde el punto de vista de la explotación del depósito, presente un menor riesgo asociado a su rotura. Como complemento a la metodología simplificada propuesta, y además de llevar a cabo la calibración de la misma con los datos obtenidos tras la rotura del depósito de agua de Melilla, se ha realizado una serie de ejemplos de utilización de la metodología para, además de servir de guía de uso de la misma, poder analizar la diferencia entre los resultados que se obtendrían con una simulación bidimensional detallada de cada uno de los casos y el método simplificado aplicado a los mismos. The potential risk of a catastrophic collapse of a water supply reservoir in an urban area (such as the one occurred in Melilla in November 1997) and the damages that can cause, make question the security in this kind of infrastructures, which, by operational needs, are frequently built in high elevations and close to the urban areas they serve to. Since the likelihood of breakage is quite low, the alert levels associated to those infrastructures have also been downgraded focussing on the improvement of the constructive methods without developing methodologies (like the ones used in the case of dams or irrigation ponds) where there is a need of classifying the potential risk of those tanks and also of installing mitigating measures. Furthermore, to establish the damages related to a breakage of this kind, a twodimensional modelling of the breakage wave becomes imperative given that the urban layout does not provide a preferential way to the water. This kind of simulation requires financial investment that is not always available in the construction of small and medium sized water tanks. The purpose of this doctoral thesis is to design a simplified methodology, by means of charts and attending to the main variables of the phenomenon, that could estimate a value to the risk associated to a possible breakage. It can also be used as a guidance to establish if a reservoir (existing or a new one) requires a detailed model to estimate the risk of a breakage and the benefits of installing measures to mitigate the breakage wave effects. Previously, it has been established that the variables involved in the risk associated to a breakage are the draft and the maximum speed in every point susceptible to damages (mainly damages related to people). Bellow, the equations ruling the problem of the reservoir breakage have been studied as well as the transmission of the breakage wave through the urban network of the city and the possible methods to solve the equations and the computer development needed to a first approach to the results. In order to be able to analyse the boundary conditions affecting the values resulting (speed and draft), a set of scenarios have been designed. After a detailed modelling and a dimensionless analysis it has been proved that the variables that influence the operational draughts and the maximum speed in every point are the water level in the tank, the slope, the roughness and form (in terms of concavity) of the terrain and the distance between the tank and the control point. Having defined the involving variables, a second set of simulations of the simplified scenarios has been carried out and has helped to discuss and develop the curves that are here presented as the final product of the simplified methodology. This methodology only needs some simple calculations and gives a first value of draft and speed by introducing the maximum water level of the tank being evaluated. Subsequently, using the suggested charts, the method gives correction coefficients of the measured values for roughness and average slope of the assessed terrain as well as the degree of concavity (through transverse gradient).With the values from the previous curves (operational draughts and speed at the point of survey) and applying the proposed formulation, an estimation of the risk associated to the breakage of the infrastructure is finally obtained. As a corollary of the mentioned methodology, another set of diagrams is proposed in order to evaluate, in a simplified manner also, the risk reduction that could be gained with the construction of some mitigating measures such as dikes or retaining walls around the reservoir. This evaluating method provides a guide to analyse the possibility to reduce the risk, constructing those elements or even looking for a different site that could be worse in terms of exploitation of the tank but much safer. As a complement to the simplified methodology here proposed, and apart from completing its calibration with the obtained data after the reservoir breakage in Melilla, a number of examples of the use of the methodology have been made to be used as a user guide of the methodology itself, as well as giving the possibility of analysing the different results that can be obtained from a thorough two-dimensional simulation or from the simplified method applied to the examples.
Resumo:
En el presente trabajo de tesis se desarrolla, en primer lugar, un estudio de peligrosidad sísmica en Ecuador continental, siguiendo una metodología probabilista zonificada. El estudio se plantea a escala regional y presenta como principales aportaciones: 1) la elaboración de un Estado del Arte sobre Tectónica y Geología de Ecuador, concluyendo con la identificación de las principales fuentes sísmicas; 2) La confección de un Catálogo Sísmico de proyecto, recopilando información de distintas agencias, que ha sido homogeneizado a magnitud momento, Mw, depurado de réplicas y premonitores y corregido por la falta de completitud para la estimación de tasas en diferentes rangos de magnitud; 3) la propuesta de un nueva zonificación sísmica, definiendo las zonas sismogenéticas en tres regímenes tectónicos: cortical, subducción interfase y subducción in-slab; 4) la caracterización sísmica de cada zona estimando los parámetros de recurrencia y Magnitud Máxima (Mmax), considerando para este último parámetro una distribución de valores posibles en función de la sismicidad y tectónica, tras un exhaustivo análisis de los datos existentes; 5) la generación de mapas de peligrosidad sísmica de Ecuador continental en términos de aceleración pico (PGA) y espectral SA (T= 1s) , en ambos casos para periodos de retorno (PR) de 475, 975 y 2475 años; 6) La estimación de espectros de peligrosidad uniforme (UHS) y sismos de control mediante desagregación de la peligrosidad, para PR de 475 y 2475 años en 4 capitales de provincia: Quito, Esmeraldas, Guayaquil y Loja. Una segunda parte del trabajo se destina al cálculo del riesgo sísmico en el Barrio Mariscal Sucre de Quito, lo que supone incidir ya a una escala municipal. Como principales contribuciones de este trabajo se destacan: 1) definición del escenario sísmico que más contribuye a la peligrosidad en Quito, que actuará como input de cálculo del riesgo; 2) caracterización de la acción sísmica asociada a ese escenario, incluyendo resultados de microzonación y efecto local en la zona de estudio; 3) Elaboración de una Base de Datos partiendo de información catastral e identificación de las tipologías dominantes; 4) Asignación de clases de vulnerabilidad y obtención de porcentajes de daño esperado en cada clase ante la acción sísmica definida previamente, con la consiguiente representación de mapas de vulnerabilidad y daño; 5) mapas de indicadores globales del riesgo sísmico; 6) Base de datos georreferenciada con toda la información generada en el estudio. Cabe destacar que el trabajo, aunque no formula nuevos métodos, si plantea una metodología integral de cálculo del riesgo sísmico, incorporando avances en cada fase abordada, desde la estimación de la peligrosidad o la definición de escenarios sísmicos con carácter hibrido (probabilista-determinista), hasta la asignación de vulnerabilidades y estimación de escenarios de daño. Esta tesis trata de presentar contribuciones hacia el mejor conocimiento de la peligrosidad sísmica en Ecuador y el riesgo sísmico en Quito, siendo uno de los primeros estudios de tesis que se desarrolla sobre estos temas en el país. El trabajo puede servir de ejemplo y punto de partida para estudios futuros; además de ser replicable en otras ciudades y municipios de Ecuador. -------------------- ABSTRACT: ------------------ This thesis first develops a study of seismic hazard in mainland Ecuador, following a zoned, probabilistic methodology. The study considers a regional scale and presents as main contributions: 1) The development of a State of Art on the Tectonics and Geology of Ecuador, concluding with the identification of the main seismic sources; 2) The creation of a Seismic Catalog project, collecting information from different agencies, which has been homogenized to Moment magnitude, Mw, purged from aftershocks and premonitories and corrected for the lack of completeness to estimate rates in different maggnitude ranges; 3) The proposal of a new seismic zoning, defining the seismogenic zones in three tectonic regimes: cortical, subduction interface and subduction in-slab; 4) The seismic characterization of each zone, estimating the parameters of recurrence and Maximum Magnitude (Mmax), considering the latter as a distribution of possible values, depending on the seismicity and tectonics, and after a thorough analysis of the existing data; 5) Seismic hazard maps of continental Ecuador in terms of peak ground acceleration (PGA) and spectral SA(T=1), and return periods (PR) of 475, 975 and 2475 years; 6) Uniform hazard spectra (UHS) and control earthquakes obtained by hazard disaggregation, for PR 475 and 2475 years in four provincial capitals: Quito, Esmeraldas, Guayaquil and Loja. The second section focuses on the calculation of seismic risk in the Quito Mariscal Sucre parish, which is already supposed to be influencing at a municipal level. The main contributions here are the: 1) Definition of the seismic scenario that contributes most to the hazard in Quito, which acts as an input in the risk calculation; 2) Characterization of the seismic action associated with that scenario, including results of micro-zoning and local effect in the study area; 3) Development of a database, based on cadastral data and identification of key typologies; 4) Allocation of vulnerability classes and obtaining percentages of damage expected in each class faced with the seismic action previously defined, with the consequent representation of maps of vulnerability and damage; 5) Global maps of seismic risk indicators; 6) Geo-referenced database with all the information generated in the study. It should be noted that although new methods are not prescribed, this study does set a comprehensive methodology for the calculation of seismic risk, incorporating advances in each phase approached, from the hazard estimation, or definition of seismic scenarios applying a hybrid (deterministic-probabilistic) method, to the allocation of vulnerabilities and estimation of damage scenarios. This thesis aims to present contributions leading to a better understanding of seismic hazard in Ecuador and seismic risk in Quito, and is one of the first studies in the country to develop such themes. This study can serve as an example and starting point for future studies, which could replicate this methodology in other cities and municipalities.