38 resultados para Terremotos-Alcoi


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La construcción de una obra subterránea con las características de un túnel o condución de cualquier tipo afecta las propiedades del medio en el que se realiza, poniendo de manifiesto un problema que sólo en épocas relativamente recientes ha recibido antención: la interacción terreno-estructura. Si en las construcciones exteriores (edificios, presas etc.) la importancia de la interacción sólo existe en los casos de grandes obras, aquí la cuestión se plantea como algo intrínseco a la naturaleza del problema. La inclusión de las características del terreno en el análisis dinámico no es un problema sencillo, debido tanto a las irregularidades geométricas posibles, como a la incertidumbre respecto a las propiedades mecánicas. Por si fuera poco la aleatoriedad de las solicitaciones que estudiamos; terremotos, explosiones etc. exige un tratamiento estadístico de los resultados que se obtengan. Aunque se han realizado intentos analíticos para la resolución del problema, tropiezan siempre con la dificultad de las drásticas simplificaciones que es preciso suponer para hacer tratable el problema; estas simplificaciones pueden falsear los resultados deseados. De hecho, el único medio de introducir las numerosas variantes que aparecen es recurrir a los métodos numéricos de discretización. En este estudio hemos tanteado dos posibilidades. Finalmente, el método de los elementos finitos (F.E.M.)aparece como el más adecuado por su versatilidad y rápidez. El análisis dinámico mediante elementos finitos presenta algunos problemas, relativos fundamentalmente al modelado del medio. En efecto, la discretización introduce problemas al pretender simular la propagacíón de las ondas, y la presencia de contornos a distancia finita hace que se presenten problemas a menos que se dispongan medios como contornos absorbentes o cualquier otro procedimiento que elimine las reflexiones en los bordes. El problema es grave, pues se precisa disponer de un número muy grande de elementos lo que, limitado por la capacidad de la máquina, puede provocar una malla inadecuada para la representación de la estructura, siendo así que esta es nuestra preocupación básica. Por otro lado, si se utiliza la técnica modal, los dos o tres primeros modos del sistema global pueden no dar una representación apropiada del comportamiento de la estructura. El objetivo de este trabajo es la puesta a punto de un método que permita solventar estas dificultades y obtener la respuesta estructural con la precisión que se desee. Dado el carácter aleatorio de la solicitacion se ha dado un paso más y lo que se ha finalizado es con un estudio estadístico de la respuesta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se presenta un procedimiento para el estudio de los efectos dinámicos en revestimentos de túneles sometidos a terremotos. La interacción terreno-estructura se plantea en el dominio de la frecuencia mediante el uso de la F.F.T. y la definición de una matriz de rigidez dinámica del terreno. La solicitación es un conjunto de terremotos simulados en ordenador. Se plantea una solución aproximada mediante el uso de los modos de un sistema asociado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The modal analysis of a structural system consists on computing its vibrational modes. The experimental way to estimate these modes requires to excite the system with a measured or known input and then to measure the system output at different points using sensors. Finally, system inputs and outputs are used to compute the modes of vibration. When the system refers to large structures like buildings or bridges, the tests have to be performed in situ, so it is not possible to measure system inputs such as wind, traffic, . . .Even if a known input is applied, the procedure is usually difficult and expensive, and there are still uncontrolled disturbances acting at the time of the test. These facts led to the idea of computing the modes of vibration using only the measured vibrations and regardless of the inputs that originated them, whether they are ambient vibrations (wind, earthquakes, . . . ) or operational loads (traffic, human loading, . . . ). This procedure is usually called Operational Modal Analysis (OMA), and in general consists on to fit a mathematical model to the measured data assuming the unobserved excitations are realizations of a stationary stochastic process (usually white noise processes). Then, the modes of vibration are computed from the estimated model. The first issue investigated in this thesis is the performance of the Expectation- Maximization (EM) algorithm for the maximum likelihood estimation of the state space model in the field of OMA. The algorithm is described in detail and it is analysed how to apply it to vibration data. After that, it is compared to another well known method, the Stochastic Subspace Identification algorithm. The maximum likelihood estimate enjoys some optimal properties from a statistical point of view what makes it very attractive in practice, but the most remarkable property of the EM algorithm is that it can be used to address a wide range of situations in OMA. In this work, three additional state space models are proposed and estimated using the EM algorithm: • The first model is proposed to estimate the modes of vibration when several tests are performed in the same structural system. Instead of analyse record by record and then compute averages, the EM algorithm is extended for the joint estimation of the proposed state space model using all the available data. • The second state space model is used to estimate the modes of vibration when the number of available sensors is lower than the number of points to be tested. In these cases it is usual to perform several tests changing the position of the sensors from one test to the following (multiple setups of sensors). Here, the proposed state space model and the EM algorithm are used to estimate the modal parameters taking into account the data of all setups. • And last, a state space model is proposed to estimate the modes of vibration in the presence of unmeasured inputs that cannot be modelled as white noise processes. In these cases, the frequency components of the inputs cannot be separated from the eigenfrequencies of the system, and spurious modes are obtained in the identification process. The idea is to measure the response of the structure corresponding to different inputs; then, it is assumed that the parameters common to all the data correspond to the structure (modes of vibration), and the parameters found in a specific test correspond to the input in that test. The problem is solved using the proposed state space model and the EM algorithm. Resumen El análisis modal de un sistema estructural consiste en calcular sus modos de vibración. Para estimar estos modos experimentalmente es preciso excitar el sistema con entradas conocidas y registrar las salidas del sistema en diferentes puntos por medio de sensores. Finalmente, los modos de vibración se calculan utilizando las entradas y salidas registradas. Cuando el sistema es una gran estructura como un puente o un edificio, los experimentos tienen que realizarse in situ, por lo que no es posible registrar entradas al sistema tales como viento, tráfico, . . . Incluso si se aplica una entrada conocida, el procedimiento suele ser complicado y caro, y todavía están presentes perturbaciones no controladas que excitan el sistema durante el test. Estos hechos han llevado a la idea de calcular los modos de vibración utilizando sólo las vibraciones registradas en la estructura y sin tener en cuenta las cargas que las originan, ya sean cargas ambientales (viento, terremotos, . . . ) o cargas de explotación (tráfico, cargas humanas, . . . ). Este procedimiento se conoce en la literatura especializada como Análisis Modal Operacional, y en general consiste en ajustar un modelo matemático a los datos registrados adoptando la hipótesis de que las excitaciones no conocidas son realizaciones de un proceso estocástico estacionario (generalmente ruido blanco). Posteriormente, los modos de vibración se calculan a partir del modelo estimado. El primer problema que se ha investigado en esta tesis es la utilización de máxima verosimilitud y el algoritmo EM (Expectation-Maximization) para la estimación del modelo espacio de los estados en el ámbito del Análisis Modal Operacional. El algoritmo se describe en detalle y también se analiza como aplicarlo cuando se dispone de datos de vibraciones de una estructura. A continuación se compara con otro método muy conocido, el método de los Subespacios. Los estimadores máximo verosímiles presentan una serie de propiedades que los hacen óptimos desde un punto de vista estadístico, pero la propiedad más destacable del algoritmo EM es que puede utilizarse para resolver un amplio abanico de situaciones que se presentan en el Análisis Modal Operacional. En este trabajo se proponen y estiman tres modelos en el espacio de los estados: • El primer modelo se utiliza para estimar los modos de vibración cuando se dispone de datos correspondientes a varios experimentos realizados en la misma estructura. En lugar de analizar registro a registro y calcular promedios, se utiliza algoritmo EM para la estimación conjunta del modelo propuesto utilizando todos los datos disponibles. • El segundo modelo en el espacio de los estados propuesto se utiliza para estimar los modos de vibración cuando el número de sensores disponibles es menor que vi Resumen el número de puntos que se quieren analizar en la estructura. En estos casos es usual realizar varios ensayos cambiando la posición de los sensores de un ensayo a otro (múltiples configuraciones de sensores). En este trabajo se utiliza el algoritmo EM para estimar los parámetros modales teniendo en cuenta los datos de todas las configuraciones. • Por último, se propone otro modelo en el espacio de los estados para estimar los modos de vibración en la presencia de entradas al sistema que no pueden modelarse como procesos estocásticos de ruido blanco. En estos casos, las frecuencias de las entradas no se pueden separar de las frecuencias del sistema y se obtienen modos espurios en la fase de identificación. La idea es registrar la respuesta de la estructura correspondiente a diferentes entradas; entonces se adopta la hipótesis de que los parámetros comunes a todos los registros corresponden a la estructura (modos de vibración), y los parámetros encontrados en un registro específico corresponden a la entrada en dicho ensayo. El problema se resuelve utilizando el modelo propuesto y el algoritmo EM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El reacondicionamiento de estructuras surge como reacción a la mejora de conocimientos, tanto en cuanto a la peligrosidad sísmica del emplazamiento, como a la vulnerabilidad de ciertas tipologías o detalles constructivos. En el caso particular de los puentes, la situación es debida a las continuas llamadas de atención que los grandes terremotos recientes están realizando respecto a estructuras tradicionalmente consideradas perfectas. El reacondicionamiento, desde un punto de vista social, es una respuesta activa frente a los daños previsibles, y una forma de minimizarlos con criterios ingenieriles. La actuación se articula alrededor de un Catálogo de estructuras, que se clasifican en forma que permite la toma de decisiones de acuerdo con los fondos disponibles. Tras un primer cribado que separa los puentes que, previsiblemente, no sufrirán problemas, se aplican métodos de cálculo capaces de prever los daños, y estimar las zonas en que aquellos pueden producirse, lo que permite contribuir a la ordenación precitada. Finalmente se establecen métodos que corrijan las deficiencias estructurales y ayuden a mejorar la respuesta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artículo describe un método simplificado para el estudio de la importancia de los modos locales en el establecimiento de las cargas para el dimensionamiento de las pilas de puentes. El cálculo sísmico de puentes es un tema de moda tras los espectaculares fallos acaecidos durante terremotos recientes y la continua construcción de obras de infraestructura en regiones sísmicas. Los problemas dinámicos planteados por los puentes son cualitativamente diferentes de los de edificación, incluso para el caso más sencillo de vibraciones longitudinales en pasos superiores rectos. A pesar de ello, las normas actuales proponen un método simplificado de "fuerzas equivalentes" basado en la aplicación del método de Rayleigh que no es de aplicación inmediata al cálculo de movimientos transversales o verticales, ya que está basado en un sólo modo; además, como se indica mas adelante, la introducción de apoyos elásticos entre tablero y pilas puede inducir modos locales que son de importancia capital para el cálculo de los esfuerzos en los pilares y que el calculista puede olvidar si aplica a ciegas las reglas habituales de truncamiento modal (por ejemplo, el criterio del 90% de la masa movilizada). El objetivo del artículo es desarrollar un modelo de dos grados de libertad con el que se muestre la importancia de la vobración de los pilares siguiendo un desarrollo asintótico propuesto por Kelly (1988) en otro contexto. Es interesante observar que el método propuesto permite una estimación cualitativa de la importancia de los modos cuya contribución a la solicitación de las columnas puede ser definitiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una solución para conseguir minimizar los daños que los terremotos causan en los puentes consiste en el aislamiento sísmico en la base, utilizando apoyos deslizantes entre pilas y tablero que transmitan únicamente las cargas verticales, mientras que los esfuerzos horizontales son transmitidos por unos dispositivos especiales que proporcionan flexibilidad horizontal, fuerzas de reacción y disipación de energía. En este trabajo se desarrolla un método para definir cuales serían las características ideales que deberían tener esos dispositivos de aislamiento para conseguir que las fuerzas horizontales transmitidas a las pilas sean inferiores a su límite elástico, minimizando los desplazamientos permitidos del tablero, y consiguiendo idénticas deformaciones en todos los puntos de la estructura en cada momento. Este método se desarrollará para todo tipo de puentes y se particularizará para tipos propuestos en los estudios realizados en la elaboración del Eurocódigo Sísmico analizándose las variables que intervienen, y las respuestas dinámicas esperadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La República de El Salvador está localizada al norte de Centroamérica, limita al norte con Honduras, al este con Honduras y Nicaragua en el Golfo de Fonseca, al oeste con Guatemala y al sur con el Océano Pacífico. Con una población de casi 6.3 millones de habitantes (2012) y una extensión territorial de algo más de 21.000 km2, es el país más pequeño de toda Centroamérica, con la densidad de población más alta (292 habitantes por km2) y una tasa de pobreza que supera el 34%. Actualmente el 63.2% de la población del país se concentra en las ciudades, y más de la cuarta parte de la población se asienta en el Área Metropolitana de El Salvador (AMSS), lo que supone un área de alrededor del 2.6% del territorio salvadoreño. Según el Banco Mundial, el país tiene un PIB per cápita de 3790 dólares (2012). Asimismo, desde hace ya varios años el elemento clave en la economía salvadoreña ha sido las remesas del exterior, las cuales en el 2006 representaron el 15% del PIB, manteniéndose por varios años consecutivos como la más importante fuente de ingresos externos con que cuenta el país (Comisión Económica para América Latina‐CEPAL, 2007). La inestabilidad económica, la desigual distribución de la riqueza, así como la brecha entre los ámbitos urbano y rural, son las principales causas que limitan las capacidades de desarrollo social del país. El Salvador es uno de los países ecológicamente más devastado de América Latina. Más del 95% de sus bosques tropicales de hojas caducas han sido destruidos y más del 70% de la tierra sufre una severa erosión. Según la FAO el país se encuentra en un franco proceso de desertificación. Como consecuencia de ello, casi todas las especies de animales salvajes se han extinguido o están al borde de la extinción, sin que hasta ahora haya indicios de revertir tal proceso. Por otra parte, en el AMSS el 13% de la población habita sobre terrenos en riesgo por derrumbes o demasiado próximos a fuentes de contaminación (Mansilla, 2009). Por su ubicación geográfica, dinámica natural y territorial, El Salvador ha estado sometido históricamente a diferentes amenazas de origen natural, como terremotos, tormentas tropicales, sequías, actividad volcánica, inundaciones y deslizamientos, los que, sumados a los procesos sociales de transformación (la deforestación, los cambios de uso del suelo y la modificación de los cauces naturales), propician condiciones de riesgo y plantean altas posibilidades de que ocurran desastres. Es evidente que la suma del deterioro económico, social y ambiental, combinado con la multiplicidad de amenazas a las que puede verse sometido el territorio, hacen al país sumamente vulnerable a la ocurrencia de desastres de distintas magnitudes e impactos. En la historia reciente de El Salvador se han producido numerosos eventos de gran magnitud, tales como los terremotos de enero y febrero de 2001. El 13 de enero de 2001 El Salvador sufrió un terremoto de magnitud Mw 7.7 relacionado con la zona de subducción de la placa del Coco bajo la placa Caribe, dejando alrededor de 900 muertos y numerosos daños materiales. A este terremoto le siguió un mes después, el 13 de febrero de 2001, otro de magnitud Mw 6.6 de origen continental que sumó más de 300 víctimas mortales y terminó de derribar gran cantidad de casas ya dañadas por el terremoto anterior. Ambos eventos dispararon enormes deslizamientos de tierra, que fueron los responsables de la mayoría de las muertes. Como se observó durante el terremoto de 2001, este tipo de sismicidad implica un alto riesgo para la sociedad salvadoreña debido a la gran concentración de población en zonas con fuertes pendientes y muy deforestadas susceptibles de sufrir deslizamientos, y debido también a la escasez de planes urbanísticos. La complicada evolución sociopolítica del país durante los últimos 50 años, con una larga guerra civil, ha influido que hayan sido escasas las investigaciones científicas relacionadas con la sismotectónica y el riesgo sísmico asociada a la geología local. La ocurrencia de los terremotos citados disparó un interés a nivel internacional en la adquisición e interpretación de nuevos datos de tectónica activa que con los años han dado lugar a diferentes trabajos. Fue precisamente a partir del interés en estos eventos del 2001 cuando comenzó la colaboración de la Dra. Benito y el Dr. Martínez‐Díaz (directores de esta tesis) en El Salvador (Benito et al. 2004), lo que dio lugar a distintos proyectos de cooperación e investigación que han tenido lugar hasta la actualidad, y que se han centrado en el desarrollo de estudios geológicos, sismológicos para mejorar el cálculo de la amenaza sísmica en El Salvador. Según Martínez‐Díaz et al. (2004) la responsable del terremoto de febrero de 2001 fue la que se denomina como Zona de Falla de El Salvador (ZFES), una zona de falla que atraviesa el país de este a oeste que no había sido descrita con anterioridad. Con el fin de estudiar y caracterizar el comportamiento de este sistema de fallas para su introducción en la evaluación de la amenaza sísmica de la zona se plantean diferentes estudios sismotectónicos y paleosísmicos, y, entre ellos, esta tesis que surge de la necesidad de estudiar el comportamiento cinemático actual de la ZFES, mediante la aplicación de técnicas geodésicas (GNSS) y su integración con datos geológicos y sismológicos. Con el objetivo de reconocer la ZFES y estudiar la viabilidad de la aplicación de estas técnicas en la zona de estudio, realicé mi primer viaje a El Salvador en septiembre de 2006. A raíz de este viaje, en 2007, comienza el proyecto ZFESNet (Staller et al., 2008) estableciendo las primeras estaciones y realizando la primera campaña de observación en la ZFES. Han sido 6 años de mediciones e intenso trabajo de lo que hoy se obtienen los primeros resultados. El interés que despiertan los terremotos y sus efectos, así como la vulnerabilidad que tiene El Salvador a estos eventos, ha sido para la autora un aliciente añadido a su trabajo, animándola a perseverar en el desarrollo de su tesis, a pesar de la multitud de imprevistos y problemas que han surgido durante su transcurso. La aportación de esta tesis al conocimiento actual de la ZFES se espera que sea un germen para futuras investigaciones y en particular para mejorar la evaluación de la amenaza sísmica de la zona. No obstante, se hace hincapié en que tan importante como el conocimiento de las fuentes sísmicas es su uso en la planificación urbanística del terreno y en la elaboración de normas sismoresistentes y su aplicación por parte de los responsables, lo cual ayudaría a paliar los efectos de fenómenos naturales como el terremoto, el cual no podemos evitar. El proyecto ZFESNet ha sido financiado fundamentalmente por tres proyectos de las convocatorias anuales de Ayudas para la realización de actividades con Latinoamérica de la UPM, de los que la autora de esta tesis ha sido la responsable, estos son: “Establecimiento de una Red de Control GPS en la Zona de Falla de El Salvador”, “Determinación de deformaciones y desplazamientos en la Zona de Falla de El Salvador” y “Determinación de deformaciones y desplazamientos en la Zona de Falla de El Salvador II”, y parcialmente por el proyecto de la Agencia Española de Cooperación y Desarrollo (AECID); “Desarrollo de estudios geológicos y sismológicos en El Salvador dirigidos a la mitigación del riesgo sísmico”, y el Proyecto Nacional I+D+i SISMOCAES: “Estudios geológicos y sísmicos en Centroamérica y lecciones hacia la evaluación del riesgo sísmico en el sur de España”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este capítulo se pretende estudiar el efecto combinado de las características elásticas y de inercia del terreno y la estructura sobre él construida. Desde el punto de vista de esta última, los efectos más llamativos son la alteración de los valores de las frecuencias aparentes, debido justamente a la participación del suelo en el fenómeno vibratorio, y del amortiguamiento general pues la radiación de energía y el amortiguamiento propio del suelo tienen unos valores importantes cuando se comparan con los propios de la estructura. Ambos fenómenos tienen lógicamente su reflejo en el valor de las amplitudes del movimiento, que serán distintas de las que se producirían en el caso de base rígida. El fenómeno era conocido desde antiguo por los constructores de cimientos de máquinas y su consideración en otras construcciones se ha producido cuando se ha ido a estructuras singulares como rascacielos, centrales nucleares, etc. En este sentido los primeros resultados llamativos fueron los presentados por AKINO,OTA y YAMAHARA (1969) donde se comunicaban los resultados obtenidos de la instrumentación de pequeños modelos muy rígidos de edificios de contención de reactores. Los registros obtenidos en ensayos forzados con vibradores, así como los resultados de pequeños terremotos reales indicaban diferencias apreciables del movimiento del suelo según la cota de observación, con lo que se planteó el problema de elegir cuál debería escogerse para analizar el modelo matemático de la realidad. Desde entonces han sido numerosísimos los trabajos de investigación del tema; trabajos que, al coincidir con el desarrollo de los nuevos métodos de cálculo, los han usado e impulsado a perfeccionarse. Paradójicamente el resultado final es la existencia de varias escuelas de pensamiento que, impulsadas por razones extracientíficas, han radicalizado sus diferencias. Con ello el establecimiento objetivo de un estado del arte actual es realmente dificil como lo prueba la tendencia fluctuante de la normativa yankee, al respecto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente, diversos terremotos han puesto de manifiesto la importancia de planificar las ciudades y la gran influencia que tiene el comportamiento de los edificios como consecuencia de los resultados de pérdidas humanas y económicas. Ante la imposibilidad de evitar la ocurrencia de terremotos y de predecirlos con un margen pequeño de tiempo para tomar acciones a corto plazo, la reducción de la vulnerabilidad de los elementos expuestos es la medida más eficaz para prevenir los daños y para evitar el desastre. Existen varios estudios anteriores de Norman B. Green (1980), Teresa Guevara López (2009 y 2012) que recogen criterios ya generalizados dentro de la bibliografía sísmica y algunos aspectos procedentes de norma sísmicas precursoras en este campo (por ejemplo, las peruanas) para establecer inicialmente unos principios urbanístico-sísmicos. Además, varios proyectos relacionados con el riesgo sísmico, RisK-Ue (2003), SERAMAR (Lars Abrahamczyk et al., 2013) han desarrollado metodologías que clasifican la vulnerabilidad de los edificios teniendo en cuenta modificadores por comportamientos y configuraciones irregulares sísmicamente. El presente trabajo desarrolla una metodología empírica para identificar y caracterizar los parámetros urbanísticos que determinan una respuesta sísmica irregular de las edificaciones, graduar su relación con el daño tras un terremoto y poder así disminuir la vulnerabilidad sísmica de las ciudades. La metodología desarrollada en esta tesis doctoral se aplica en la ciudad de Lorca, Región de Murcia. Se realiza un trabajo de campo donde se clasifican los edificios según su tipología estructural y sus parámetros urbanísticos. A través de un estudio estadístico se analiza la correlación con el daño de las edificaciones tras el terremoto del 11 de mayo de 2011. Previamente se ha hecho una clasificación de los edificios según la clase de suelo en la que se encuentran según el Eurocódigo8 (Navarro et al, 2012). Por último, se aplica la metodología para obtener una estimación de la habitabilidad de los edificios en Lorca post sismo. Para esta clasificación se ha adoptado el criterio recogido en diversas recomendaciones internacionales, la mayoría de las cuales se basan en la documentación generada por el ATC- Applied Technology Council, distinguiendo entre edificios habitables (no daño-daño no estructural) y edificios no habitables (daño estructural). ABSTRACT Currently, various earthquakes have made clear first, the importance of city planning and secondly, the great influence that has the behaviour of buildings as a consequence of the results of human and economic losses. Faced with the impossibility of avoiding the occurrence of earthquakes and predicting its with a small margin of time to take action in the short term, the reduction of the vulnerability of exposed elements is the most effective measure to prevent damage and to prevent the disaster. There are several previous studies, Norman B. Green (1980), Teresa Guevara López (2009-2012) collecting criteria already widespread within the seismic bibliography and we can find some aspects from standard seismic precursor in this field (for example, the Peruvian) to initially establish urban - seismic principles. In addition, several projects related to seismic risk, RisK-EU (2003), SERAMAR (Lars Abrahamczyk et al., 2013) have developed methodologies that classify the vulnerability of buildings taking into account modifiers for behaviours and irregular configurations in seismical terms. This paper develops an empirical methodology to identify and characterize the irregular urban parameters seismically, graduate its relationship with the building damages after an earthquake and thus reduce the seismic vulnerability of cities. The methodology developed in this thesis applies in the city of Lorca, Region of Murcia. Fieldwork where buildings are classified according to their structural type and its urban performance parameters. Through a statistical study the correlation with damage of buildings is analyzed after the earthquake of May 11, 2011. Previously a classification of the buildings has been made according to the kind of soil according to the Eurocodigo 8 (Navarro et al, 2012). Finally, you get an estimate of the building habitability in Lorca. As a result, this classification adopted the criterion contained in various international recommendations, most of which are based on the documentation published by the ATC - Applied Technology Council, habitable buildings (not damage -damage non-structural) and non habitable buildings (structural damage).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el primer capítulo se analizan las generalidades relativas al sismo. Tras algunas consideraciones sobre los fenómenos que aparecen durante un terremoto se describen algunos ejemplos históricos que han sido determinantes en el desarrollo del conocimiento y, finalmente, se plantean algunos problemas típicos de la ingeniería sísmica. En el siguiente capítulo se resumen algunos conceptos utilizados en la descripción física de la acción. Se trata de una presentación muy somera de temas en continua evolución. Se comienza con unas indicaciones sobre tectónica global que permiten hacerse una idea del origen de los terremotos en un marco general. A continuación se recuerdan algunos conceptos imprescindibles sobre propagación de ondas en medios elásticos, lo que permite comentar la composición de los acelerogramas, la estructura interna de la tierra y la localización de terremotos. Finalmente se incluyen las definiciones fenomenológicas e instrumentales utilizadas para describir el sismo, así como algunas correlaciones habituales entre ellas. En el capítulo posterior se desarrollan los criterios que permiten fijar la importancia de la acción sísmica en un emplazamiento determinado. Aunque aquéllos son semejantes para una cuantificación global y local se va a poner especial énfasis en la explicación de los métodos que han llevado al establecimiento del mapa sísmico español. En general cabe decir que el proyectista necesita evaluar los riesgos de diferentes niveles de daño con objeto de comparar soluciones alternativas. Para ello se precisa ser capaz de cuantificar y localizar la importancia de los sismos, el daño que producen en las estructuras así como cuantificar el coste generalizado (coste inicial+ beneficios+ coste de reparación) de la construcción. Tradicionalmente se ha empleado un enfoque determinista en que la solicitación sísmica se tomaba semejante a la máxima registrada históricamente. Tan solo en épocas recientes se ha impuesto una filosofía probabilista basada fundamentalmente en ideas expuestas por Cornell y Esteva en los años sesenta. En ambos casos se recurre a un estudio detallado de la estructura geotectónica de la región, en especial sus fallas activas, así como a la historia sísmica con localización de epicentros y asignación de intensidades que en nuestro país se puede basar en los catálogos existentes. En el caso determinista se postula que el máximo sismo histórico de cada falla se produce en la zona más próxima al emplazamiento, y utilizando fórmulas de atenuación se obtiene la característica de interés en aquel. En el último capítulo se van a describir métodos que, además de su aplicabilidad a sismos concretos han permitido la identificación de propiedades globales y, por tanto, la definición de la acción en función de un número limitado de parámetros. Aunque en un principio la descripción temporal fue la más usada, se ha observado que el contenido en frecuencias tiene una importancia capital y por ello se presentan sucesivamente ambos enfoques. Se dedica un apartado especial al concepto de espectro de respuesta elástica ya que está en la base de la mayoría de las recomendaciones de la normativa y recoge en forma muy sencilla una impresionante cantidad de información. Finalmente, se realizan breves indicaciones sobre los procedimientos utilizados para generar acelerogramas sintéticos que gocen de algunas de las propiedades globales puestas de manifiesto por las representaciones anteriores. Conviene remarcar que la importancia de los conceptos de densidad espectral o espectro de respuesta, radican no sólo en su capacidad para representar propiedades de un sismo dado sino, a través de su correspondiente normalización y promediación. En el último capítulo se incluyen algunas observaciones de interés sobre las modificaciones que las condiciones locales del suelo introducen en el movimiento sísmico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto consiste en el estudio y dimensionado inicial del sistema de potencia de un satélite de observación, que sirva de ayuda a otros sistemas de mayor precisión a la hora de detectar posibles terremotos y actividad volcánica mediante el análisis de señales electromagnéticas presentes en la ionosfera. Para ello el satélite incorpora, entre otros elementos sensores eléctricos, un analizador de plasma, y un detector de partículas. Con esta instrumentación se pretenden detectar los cambios que se producen en el campo electromagnético terrestre como consecuencia del movimiento de las placas tectónicas, y descubrir así las posibles anomalías que preceden a un seísmo. Para no sobrepasar el presupuesto con el que se ha ideado el proyecto se utilizarán sistemas que permitan la lectura de datos de la forma más simple, pudiendo ocurrir que los datos recogidos no se transmitan al control de Tierra en tiempo real, impidiendo a los científicos analizar los datos recogidos hasta unos días después, de ahí que este satélite experimental deba emplearse, en principio, como apoyo a programas de detención de terremotos más sofisticados y con mayores medios técnicos. Evidentemente, con este sistema también se podrán recoger datos tras los seísmos y examinarlos posteriormente. La órbita del satélite será una órbita LEO (Low Earth Orbit) de una altitud aproximada de 670 Km, estimándose el tiempo de vida del satélite en 5 años. Intentando emplear la mayor parte de los recursos económicos en el equipamiento científico, la estructura será la más simple posible, esto es, un paralelepípedo de dimensiones compactas con un peso aproximado de 185 kg, contando con paneles solares desplegables y en su interior con baterías que proporcionarán potencia al satélite durante la fase de lanzamiento y en momentos concretos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rotura de las geoestructuras puede ser causada por cambios en las tensiones efectivas debidos bien por cargas externas (terremotos, por ejemplo), bien por variación de las presiones intersticiales (lluvia), o cambios en la geometría (erosión), así como por una disminución de las propiedades resistentes de los materiales (meteorización, ataque químico, etc). El caso particular de los deslizamientos es interesante, existiendo diversas clasificaciones que tienen en cuenta su forma, velocidad de propagación, etc. Dos de estos casos son los deslizamientos propiamente dichos y los flujos. En el primer caso, la deformación se concentra en zonas de pequeño espesor, que se idealiza como una superficie (superficie de rotura). La cinemática de esta rotura se puede considerar como el movimiento relativo de dos masas cuyas deformaciones no son grandes. Este mecanismo está usualmente asociado a materiales sobreconsolidados que presentan reblandecimiento. Los flujos se producen generalmente en materiales de baja densidad y estructura metaestable, con tendencia a compactar, de forma que se generan presiones intersticiales que aumentan el ángulo de rozamiento movilizado, pudiéndose llegar en algunos casos a la licuefacción. Este mecanismo de rotura se conoce como rotura difusa, y no ha sido tan estudiado como el de localización a pesar de se trata frecuentemente de roturas de tipo catastrófico. De hecho, el suelo pasa de un estado sólido a un estado fluidificado, con una gran movilidad. Es importante para el ingeniero predecir tanto el comportamiento de las geoestructuras bajo las cargas de cálculo como las condiciones en las que se producirá la rotura. De esta manera, en algunos casos, se podrán reforzar las zonas más débiles aumentando así su seguridad. En otros casos, no se podrá realizar este refuerzo (grandes deslizamientos como avalanchas, lahares, etc), pero sí se podrán conocer las consecuencias de la rotura: velocidad de propagación, alcance, espesores, etc. La modelización de estos problemas es compleja, ya que aparecen dificultades en los modelos matemáticos, constitutivos o reológicos y numéricos. Dado que en los geomateriales aparece una interacción fuerte entre el esqueleto sólido y los fluidos intersticiales, esto debe ser tenido en cuenta en los modelos matemáticos. En este trabajo se describirán, pues, el desarrollo y aplicación de técnicas avanzadas de modelización; matemática, constitutiva/reológica y numérica. Se dedicará especial atención a los problemas de transición entre suelos y suelos fluidificados, que hoy en día se estudian en una gran mayoría de los casos con modelos diferentes. Así por ejemplo, se emplean modelos constitutivos para el comportamiento previo a la rotura, y reológicos para los materiales fluidificados. En lo que respecta a los modelos matemáticos, existen formulaciones nuevas en velocidades (o desplazamientos), tensiones, y presiones de aire y agua intersticial, de los que se pueden obtener modelos simplificados integrados en profundidad para deslizamientos rápidos. Respecto de los modelos constitutivos, es interesante la teoría de la Plasticidad Generalizada (modelo básico de Pastor-Zienkiewicz y extensiones a suelos no saturados). Se estudiará la extensión de estos modelos elastoplásticos a la viscoplasticidad (Perzyna y consistente), explorando la posibilidad de emplearlos tanto antes como después de la rotura. Finalmente, en lo que a modelos numéricos se refiere, se describirá la implementación de los modelos matemáticos y constitutivos desarrollados en (i) modelos clásicos de elementos finitos, como el GeHoMadrid desarrollado en los grupo investigador M2i al que pertenece el autor de este trabajo, (ii) Métodos de tipo Taylor Galerkin, y (iii) métodos sin malla como el SPH y el Material Point Model. Estos modelos se aplicarán, principalmente a (i) Licuefacción de estructuras cimentadas en el fondo marino (ii) presas de residuos mineros (iii) deslizamientos rápidos de laderas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad existe un gran conocimiento en la caracterización de rellenos hidráulicos, tanto en su caracterización estática, como dinámica. Sin embargo, son escasos en la literatura estudios más generales y globales de estos materiales, muy relacionados con sus usos y principales problemáticas en obras portuarias y mineras. Los procedimientos semi‐empíricos para la evaluación del efecto silo en las celdas de cajones portuarios, así como para el potencial de licuefacción de estos suelos durantes cargas instantáneas y terremotos, se basan en estudios donde la influencia de los parámetros que los rigen no se conocen en gran medida, dando lugar a resultados con considerable dispersión. Este es el caso, por ejemplo, de los daños notificados por el grupo de investigación del Puerto de Barcelona, la rotura de los cajones portuarios en el Puerto de Barcelona en 2007. Por estos motivos y otros, se ha decidido desarrollar un análisis para la evaluación de estos problemas mediante la propuesta de una metodología teórico‐numérica y empírica. El enfoque teórico‐numérico desarrollado en el presente estudio se centra en la determinación del marco teórico y las herramientas numéricas capaces de solventar los retos que presentan estos problemas. La complejidad del problema procede de varios aspectos fundamentales: el comportamiento no lineal de los suelos poco confinados o flojos en procesos de consolidación por preso propio; su alto potencial de licuefacción; la caracterización hidromecánica de los contactos entre estructuras y suelo (camino preferencial para el flujo de agua y consolidación lateral); el punto de partida de los problemas con un estado de tensiones efectivas prácticamente nulo. En cuanto al enfoque experimental, se ha propuesto una metodología de laboratorio muy sencilla para la caracterización hidromecánica del suelo y las interfaces, sin la necesidad de usar complejos aparatos de laboratorio o procedimientos excesivamente complicados. Este trabajo incluye por tanto un breve repaso a los aspectos relacionados con la ejecución de los rellenos hidráulicos, sus usos principales y los fenómenos relacionados, con el fin de establecer un punto de partida para el presente estudio. Este repaso abarca desde la evolución de las ecuaciones de consolidación tradicionales (Terzaghi, 1943), (Gibson, English & Hussey, 1967) y las metodologías de cálculo (Townsend & McVay, 1990) (Fredlund, Donaldson and Gitirana, 2009) hasta las contribuciones en relación al efecto silo (Ranssen, 1985) (Ravenet, 1977) y sobre el fenómeno de la licuefacción (Casagrande, 1936) (Castro, 1969) (Been & Jefferies, 1985) (Pastor & Zienkiewicz, 1986). Con motivo de este estudio se ha desarrollado exclusivamente un código basado en el método de los elementos finitos (MEF) empleando el programa MATLAB. Para ello, se ha esablecido un marco teórico (Biot, 1941) (Zienkiewicz & Shiomi, 1984) (Segura & Caron, 2004) y numérico (Zienkiewicz & Taylor, 1989) (Huerta & Rodríguez, 1992) (Segura & Carol, 2008) para resolver problemas de consolidación multidimensional con condiciones de contorno friccionales, y los correspondientes modelos constitutivos (Pastor & Zienkiewicz, 1986) (Fiu & Liu, 2011). Asimismo, se ha desarrollado una metodología experimental a través de una serie de ensayos de laboratorio para la calibración de los modelos constitutivos y de la caracterización de parámetros índice y de flujo (Castro, 1969) (Bahda 1997) (Been & Jefferies, 2006). Para ello se han empleado arenas de Hostun como material (relleno hidráulico) de referencia. Como principal aportación se incluyen una serie de nuevos ensayos de corte directo para la caracterización hidromecánica de la interfaz suelo – estructura de hormigón, para diferentes tipos de encofrados y rugosidades. Finalmente, se han diseñado una serie de algoritmos específicos para la resolución del set de ecuaciones diferenciales de gobierno que definen este problema. Estos algoritmos son de gran importancia en este problema para tratar el procesamiento transitorio de la consolidación de los rellenos hidráulicos, y de otros efectos relacionados con su implementación en celdas de cajones, como el efecto silo y la licuefacciones autoinducida. Para ello, se ha establecido un modelo 2D axisimétrico, con formulación acoplada u‐p para elementos continuos y elementos interfaz (de espesor cero), que tratan de simular las condiciones de estos rellenos hidráulicos cuando se colocan en las celdas portuarias. Este caso de estudio hace referencia clara a materiales granulares en estado inicial muy suelto y con escasas tensiones efectivas, es decir, con prácticamente todas las sobrepresiones ocasionadas por el proceso de autoconsolidación (por peso propio). Por todo ello se requiere de algoritmos numéricos específicos, así como de modelos constitutivos particulares, para los elementos del continuo y para los elementos interfaz. En el caso de la simulación de diferentes procedimientos de puesta en obra de los rellenos se ha requerido la modificacion de los algoritmos empleados para poder así representar numéricamente la puesta en obra de estos materiales, además de poder realizar una comparativa de los resultados para los distintos procedimientos. La constante actualización de los parámetros del suelo, hace también de este algoritmo una potente herramienta que permite establecer un interesante juego de perfiles de variables, tales como la densidad, el índice de huecos, la fracción de sólidos, el exceso de presiones, y tensiones y deformaciones. En definitiva, el modelo otorga un mejor entendimiento del efecto silo, término comúnmente usado para definir el fenómeno transitorio del gradiente de presiones laterales en las estructuras de contención en forma de silo. Finalmente se incluyen una serie de comparativas entre los resultados del modelo y de diferentes estudios de la literatura técnica, tanto para el fenómeno de las consolidaciones por preso propio (Fredlund, Donaldson & Gitirana, 2009) como para el estudio del efecto silo (Puertos del Estado, 2006, EuroCódigo (2006), Japan Tech, Stands. (2009), etc.). Para concluir, se propone el diseño de un prototipo de columna de decantación con paredes friccionales, como principal propuesta de futura línea de investigación. Wide research is nowadays available on the characterization of hydraulic fills in terms of either static or dynamic behavior. However, reported comprehensive analyses of these soils when meant for port or mining works are scarce. Moreover, the semi‐empirical procedures for assessing the silo effect on cells in floating caissons, and the liquefaction potential of these soils during sudden loads or earthquakes are based on studies where the underlying influence parameters are not well known, yielding results with significant scatter. This is the case, for instance, of hazards reported by the Barcelona Liquefaction working group, with the failure of harbor walls in 2007. By virtue of this, a complex approach has been undertaken to evaluate the problem by a proposal of numerical and laboratory methodology. Within a theoretical and numerical scope, the study is focused on the numerical tools capable to face the different challenges of this problem. The complexity is manifold; the highly non‐linear behavior of consolidating soft soils; their potentially liquefactable nature, the significance of the hydromechanics of the soil‐structure contact, the discontinuities as preferential paths for water flow, setting “negligible” effective stresses as initial conditions. Within an experimental scope, a straightforward laboratory methodology is introduced for the hydromechanical characterization of the soil and the interface without the need of complex laboratory devices or cumbersome procedures. Therefore, this study includes a brief overview of the hydraulic filling execution, main uses (land reclamation, filled cells, tailing dams, etc.) and the underlying phenomena (self‐weight consolidation, silo effect, liquefaction, etc.). It comprises from the evolution of the traditional consolidation equations (Terzaghi, 1943), (Gibson, English, & Hussey, 1967) and solving methodologies (Townsend & McVay, 1990) (Fredlund, Donaldson and Gitirana, 2009) to the contributions in terms of silo effect (Ranssen, 1895) (Ravenet, 1977) and liquefaction phenomena (Casagrande, 1936) (Castro, 1969) (Been & Jefferies, 1985) (Pastor & Zienkiewicz, 1986). The novelty of the study lies on the development of a Finite Element Method (FEM) code, exclusively formulated for this problem. Subsequently, a theoretical (Biot, 1941) (Zienkiewicz and Shiomi, 1984) (Segura and Carol, 2004) and numerical approach (Zienkiewicz and Taylor, 1989) (Huerta, A. & Rodriguez, A., 1992) (Segura, J.M. & Carol, I., 2008) is introduced for multidimensional consolidation problems with frictional contacts and the corresponding constitutive models (Pastor & Zienkiewicz, 1986) (Fu & Liu, 2011). An experimental methodology is presented for the laboratory test and material characterization (Castro 1969) (Bahda 1997) (Been & Jefferies 2006) using Hostun sands as reference hydraulic fill. A series of singular interaction shear tests for the interface calibration is included. Finally, a specific model algorithm for the solution of the set of differential equations governing the problem is presented. The process of consolidation and settlements involves a comprehensive simulation of the transient process of decantation and the build‐up of the silo effect in cells and certain phenomena related to self‐compaction and liquefaction. For this, an implementation of a 2D axi‐syimmetric coupled model with continuum and interface elements, aimed at simulating conditions and self‐weight consolidation of hydraulic fills once placed into floating caisson cells or close to retaining structures. This basically concerns a loose granular soil with a negligible initial effective stress level at the onset of the process. The implementation requires a specific numerical algorithm as well as specific constitutive models for both the continuum and the interface elements. The simulation of implementation procedures for the fills has required the modification of the algorithm so that a numerical representation of these procedures is carried out. A comparison of the results for the different procedures is interesting for the global analysis. Furthermore, the continuous updating of the model provides an insightful logging of variable profiles such as density, void ratio and solid fraction profiles, total and excess pore pressure, stresses and strains. This will lead to a better understanding of complex phenomena such as the transient gradient in lateral pressures due to silo effect in saturated soils. Interesting model and literature comparisons for the self‐weight consolidation (Fredlund, Donaldson, & Gitirana, 2009) and the silo effect results (Puertos del Estado (2006), EuroCode (2006), Japan Tech, Stands. (2009)). This study closes with the design of a decantation column prototype with frictional walls as the main future line of research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto fin de carrera trata del estudio de los parámetros de sismicidad en la Península Ibérica y América Central, realizando un análisis de su variación en el espacio y en el tiempo. Con estos análisis se podrá determinar la continuidad temporal y la homogeneidad espacial de los parámetros sísmicas de los territorios de estudio, de acuerdo con la información contenida en los catálogos sísmicos. En este proyecto se parte del estudio de los catálogos sísmicos disponibles (catálogo del Instituto Geográfico Nacional de España y catálogo del proyecto RESIS II) y se realizan los análisis de completitud pertinentes, a fin de eliminar información de los catálogos que pueda desvirtuar los resultados obtenidos. Se considera que la sismicidad sigue modelo de Gutenberg-Richter, que establece que la distribución de frecuencias de terremotos con la magnitud responde a una relación lineal entre el (logaritmo del) número acumulado de eventos y la magnitud. De este modelo se obtienen tres parámetros que caracterizan la sismicidad de una zona: el parámetro beta, la tasa acumulada de ocurrencia de terremotos y la magnitud máxima. Se diseña un método para calcular el valor de estos parámetros sísmicos en los territorios considerados, y se implementan diferentes filtros espaciales y temporales para poder determinar la variabilidad espacial y temporal de los valores de los parámetros de sismicidad. Se aplica el método de estimación de parámetros de sismicidad en dos zonas de diferentes características sísmicas: una como la Península Ibérica, donde hay menos actividad sísmica pero hay datos de un periodo de tiempo mayor; y América Central,donde el catálogo no es tan extenso temporalmente, y sin embargo, hay una mayor actividad sísmica. Los resultados del estudio serán de utilidad para la caracterización de fuentes sísmicas en estudios de peligrosidad sísmica, bien sea siguiendo modelos zonificados que consideran que la sismicidad es un proceso de Poisson (para lo cual se necesita un catálogo depurado, como el que se usa en este proyecto para América Central), bien sea para modelos no zonificados, que se nutren de un catálogo sin depurar de réplicas y premonitores (como el que se usa en este proyecto para España).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existe una creciente preocupación por las catástrofes de origen natural que están por llegar, motivo por el que se están realizando estudios desde prácticamente todas las ramas de la ciencia. La razón para ello se puede encontrar en el miedo a que los eventos futuros puedan dificultar las actividades humanas, aunque no es el único factor. Por todo ello, se produce una dispersión muy importante incluso en los conceptos más elementales como qué debe ser considerado o cómo debe llamarse y catalogarse uno u otro elemento. En consecuencia, los métodos para comprender los riesgos naturales también son muy diferentes, rara vez encontrándose enfoques realmente multidisciplinares. Se han realizado algunos esfuerzos para crear un marco de entendimiento común como por ejemplo, la "Directiva sobre inundaciones" o, más recientemente, la Directiva Inspire. Las entidades aseguradoras y reaseguradoras son un actor importante entre los muchos involucrados en los estudios de riesgos. Su interés radica en el hecho de que terminan pagando la mayor parte de la factura, si no toda. Pero, a cuánto puede ascender esa factura, no es una pregunta fácil de responder aún en casos muy concretos, y sin embargo, es la pregunta que constantemente se plantea por parte de los tomadores de decisiones a todos los niveles. Este documento resume las actividades de investigación que han llevado a cabo al objeto de sentar un marco de referencia, implementando de enfoques numéricos capaces de hacer frente a algunas de las cuestiones más relevantes que se encuentran en casi todos los estudios de riesgos naturales, ensayando conceptos de manera pragmática. Para ello, se escogió un lugar experimental de acuerdo a diferentes criterios, como la densidad de población, la facilidad de proporcionar los límites geográficos claros, la presencia de tres de los procesos geológicos más importantes (inundaciones, terremotos y vulcanismo) y la disponibilidad de datos. El modelo aquí propuesto aprovecha fuentes de datos muy diversas para evaluar los peligros naturales, poniendo de relieve la necesidad de un enfoque multidisciplinar y emplea un catálogo de datos único, unificado, independiente (no orientado), coherente y homogéneo para estimar el valor de las propiedades. Ahora bien, los datos se explotan de manera diferente según cada tipo de peligro, manteniendo sin variación los conceptos subyacentes. Durante esta investigación, se ha encontrado una gran brecha en la relación entre las pérdidas reales y las probabilidades del peligro, algo contrario a lo que se ha pensado que debía ser el comportamiento más probable de los riesgos naturales, demostrando que los estudios de riesgo tienen vida útil muy limitada. En parte debido ello, el modelo propuesto en este estudio es el de trabajar con escenarios, fijando una probabilidad de ocurrencia, lo que es contrario al modelo clásico de evaluar funciones continuas de riesgo. Otra razón para abordar la cuestión mediante escenarios es forzar al modelo para proporcionar unas cifras creíbles de daño máximo fijando cuestiones como la ubicación espacial de un evento y sus probabilidades, aportando una nueva visión del "peor escenario posible” de probabilidad conocida. ABSTRACT There is a growing concern about catastrophes of natural origin about to come hence many studies are being carried out from almost any science branch. Even though it is not the only one, fear for the upcoming events that might jeopardize any given human activity is the main motive. A forking effect is therefore heavily present even on the basic concepts of what is to be considered or how should it be named and catalogued; as a consequence, methods towards understanding natural risks also show great differences and a multidisciplinary approach has seldomly been followed. Some efforts were made to create a common understanding of such a matter, the “Floods Directive” or more recently the Inspire Directive, are a couple of examples. The insurance sector is an important actor among the many involved. Their interest relies on the fact that, eventually, they pay most of the bill if not all. But how much could that be is not an easy question to be answerd even in a very specific case, and it is almost always the question posed by decision makers at all levels. This document summarizes research activities that have being carried out in order to put some solid ground to be followed, implementing numerical approaches that are capable of coping with some of the most relevant issues found in almost all natural risk studies, testing concepts pragmatically. In order to do so, an experimental site was selected according to different criteria, such as population density, the ease of providing clear geographical boundaries, the presence of three of the most important geological processes (floods, earthquakes and volcanism) and data availability. The model herein proposed takes advantage of very diferent data sources in the assessment of hazard, pointing out how a multidisciplinary approach is needed, and uses only one unified, independent, consistent, homogeneous (non objective driven) source for assessing property value. Data is exploited differently according to each hazard type, but the underlying concepts remain the same. During this research, a deep detachment was found between actual loss and hazard chances, contrarily to what has been thought to be the most likely behaviour of natural hazards, proving that risk studies have a very limited lifespan. Partially because of such finding, the model in this study addresses scenarios with fixed probability of occurrence, as opposed to studying a continuous hazard function as usually proposed. Another reason for studying scenarios was to force the model to provide a reliable figure after a set of given parameters where fixed, such as the spatial location of an event and its chances, so the “worst case” of a given return period could be found.