445 resultados para Sísmica rasa
Resumo:
Un problema importante de ingeniería sísmica es la respuesta de depósitos estratificados de suelos cuando se encuentran sometidos a la acción del terremoto. El problema puede ser directo o inverso, según se pretenda obtener el movimiento en superficie cuando el fondo es solicitado por un sismo dado o, lo que es muy común en la técnica de análisis sísmico, se pretende realizar la deconvolución de un movimiento en superficie hasta una profundidad determinada con objeto de realizar a posteriori un análisis de interacción terreno-estructura. El problema es bien conocido así como sus dificultades relacionadas principalmente con el carácter no lineal del suelo y sus propiedades de amortiguamiento.
Resumo:
La tomografia es un sistema de obtención de imágenes internas de sólidos a los que no se tiene acceso directo. Ésta técnica ha sido ya de enorme fecundidad en el campo del diagnóstico médico. Hoy día el sistema sigue perfeccionandose y el presente trabajo se enmarca dentro de esta linea, con aplicaciones en el campo de la Ingeniería Civil, utilizando técnicas de discretización del medio investigado, así como la teoría de rayos. Los resultados obtenidos son esperanzadores, y es posible que en un corto espacio de tiempo esta técnica goce de la fiabilidad necesaria en el campo de la Ingeniería.
Resumo:
En el presente trabajo se desarrolla una metodología para caracterizar fallas activas como fuentes sísmicas independientes en combinación con zonas sismogenéticas tipo área de cara a la estimación probabilista poissoniana de la peligrosidad sísmica. Esta metodología está basada en el reparto de la tasa de momento sísmico registrada en una región entre las fuentes potencialmente activas subyacentes (fallas activas modelizadas de forma independiente y una zonificación sismogenética), haciendo especial hincapié en regiones de sismicidad moderada y fallas de lento movimiento. Se desarrolla una aplicación de la metodología en el sureste de España, incorporando al cálculo 106 fuentes sísmicas independientes: 95 de tipo falla (catalogadas como fallas activas en la base de datos QAFI) y 11 zonas sismogenéticas de tipo área. Del mismo modo, se estima la peligrosidad sísmica con el método clásico zonificado y se comparan los resultados, analizando la influencia de la inclusión de las fallas de forma independiente en la estimación de la peligrosidad. Por último, se desarrolla una aplicación de la metodología propuesta en la estimación de la peligrosidad sísmica considerando un modelo temporal no poissoniano. La aplicación se centra en la falla de Carboneras, mostrando la repercusión que puede tener este cambio de modelo temporal en la estimación final de la peligrosidad. ABSTRACT A new methodology of seismic source characterization to be included in poissonian, probabilistic seismic hazard assessments, is developed in this work. Active faults are considered as independent seismogenic sources in combination with seismogenic area sources. This methodology is based in the distribution of the seismic moment rate recorded in a region between the potentially active underlying seismic sources that it contains (active faults modeled independently and an area-source seismic model), with special emphasis on regions with moderate seismicity and faults with slow deformation rates. An application of the methodology is carried out in the southeastern part of Spain, incorporating 106 independent seismic sources in the computations: 95 of fault type (catalogued as active faults in the Quaternary Active Fault Database, QAFI) and 11 of area-source type. At the same time, the seismic hazard is estimated following the classical area-source method. The results obtained using both methodologies (the classical one and the one proposed in this work9 are compared, analyzing the influence of the inclusion of faults as independent sources in hazard estimates. Finally, an application of the proposed methodology considering a non-poissonian time model is shown. This application is carried out in the Carboneras fault and shows the repercussion that this change of time model has in the final hazard estimates.
Resumo:
Puesto que para determinar las demandas de ductilidad en puentes es aconsejable un método no lineal paso a paso y que un proceso de reacondicionamiento sísmico global raramente justifica estos altos costos, se propone un nuevo método simplificado que recoge las ventajas de los métodos no lineales con unos tiempos de resolución y requisitos de memoria similares a los modales-espectrales. Así, en este capítulo se muestra el método, su implementación en ordenador, sus ventajas, inconvenientes y rango de validez, y finalmente se proponen nuevas mejoras o variantes. De los resultados expuestos, al menos para la tipología de estructura analizada, se puede concluir que: 1)El método de la Rótula Plástica proporciona historias de desplazamientos, giros y energías bastantes buenos si se tiene en cuenta que se está en el campo de la Ingeniería Sísmica y que todas las características, propiedades, excitaciones, etc, contienen errores o incertidumbres grandes. 2) Gracias a ellos se puede conocer qué elementos necesitan medidas de reacondicionamiento y cuales no es necesario modificar. 3) Es un método eminentemente conservador, sobre todo en energías absorbidas y cluctiliclacles en los elementos con mayores demandas. 4) Permite obtener un mecanismo de degradación que proporcione una visión general del comportamiento del puente, muy útil en el caso de reaconclicionamiento sísmico.
Resumo:
Los métodos numéricos aplicados al estudio de estructuras sometidas a esfuezos de origen sísmico han sido utilizados habitualmente en ingeniería. La limitación tradicional con que se encontraba el analista radicaba en el enorme esfuerzo de cálculo mecánico necesario para obtener respuestas significativas tan pronto como el modelo matemático a analizar presentaba una cierta complejidad. Esta situación se vió sustancialmente modificada por la aparición del ordenador que, justamente, libera al proyectista del trabajo repetitivo irracional y permite dedicar tiempo a la reflexión, a la par que aumenta espectacularmente la capacidad de modelado. No es extraño pues, que en los ultimos 30 años se haya asistido a un renacimiento de una rama de la Matemática que parecía agostada y que ,fecundada por la nueva herramienta ha florecido en un sinf{n de técnicas y procedimientos que ponen al alcance del ingeniero el análisis de virtualmente, cualquier problema estructural. En este capítulo se pretende exponer algunas de las ideas subyacentes en estos métodos nuevos así como su posible aplicación al campo que nos interesa. Evidentemente, la limitación de espacio impedirá profundizar adecuadamente en los temas, pero la finalidad última será dotar al estudioso de un marco general en el que situar posteriores aventuras intelectuales. El contenido se articula en tres grupos principales que se refieren, respectivamente al modelado de la solicitación sísmica, de la estructura y cimiento, y al análisis de la respuesta. Tras lo dicho anteriormente, una exposición que no incluyese alguna manifestación palpable de la influencia de la máquina, estaría indefectiblemente esviada. Por ello, se incluyen como apéndices cuatro bloques de subrutinas; dos de ellas, en lenguaje Basic de microordenador, se refeiren a la transformada rápida de Fourier de la que se hablará más adelante, y al cálculo de autovalores de estructuras formadas por barras; la tercera es un pequeño programa en Fortran IV, que permite obtener la respuesta de un sistema de un grado de libertad por un método de integracidn paso a paso. En el primer apartado se inserta tambien un programa de determinación de hipocentros. Todas las subrutinas son elementales y ampliamente mejorables. Creemos sin embargo que ello las hace especialmente legibles lo que puede impeler su uso y mejora par el estudiante ; intervención, en definitiva ,deseada y que es el más importante objetivo al que aspiramos.
Resumo:
Actualmente, diversos terremotos han puesto de manifiesto la importancia de planificar las ciudades y la gran influencia que tiene el comportamiento de los edificios como consecuencia de los resultados de pérdidas humanas y económicas. Ante la imposibilidad de evitar la ocurrencia de terremotos y de predecirlos con un margen pequeño de tiempo para tomar acciones a corto plazo, la reducción de la vulnerabilidad de los elementos expuestos es la medida más eficaz para prevenir los daños y para evitar el desastre. Existen varios estudios anteriores de Norman B. Green (1980), Teresa Guevara López (2009 y 2012) que recogen criterios ya generalizados dentro de la bibliografía sísmica y algunos aspectos procedentes de norma sísmicas precursoras en este campo (por ejemplo, las peruanas) para establecer inicialmente unos principios urbanístico-sísmicos. Además, varios proyectos relacionados con el riesgo sísmico, RisK-Ue (2003), SERAMAR (Lars Abrahamczyk et al., 2013) han desarrollado metodologías que clasifican la vulnerabilidad de los edificios teniendo en cuenta modificadores por comportamientos y configuraciones irregulares sísmicamente. El presente trabajo desarrolla una metodología empírica para identificar y caracterizar los parámetros urbanísticos que determinan una respuesta sísmica irregular de las edificaciones, graduar su relación con el daño tras un terremoto y poder así disminuir la vulnerabilidad sísmica de las ciudades. La metodología desarrollada en esta tesis doctoral se aplica en la ciudad de Lorca, Región de Murcia. Se realiza un trabajo de campo donde se clasifican los edificios según su tipología estructural y sus parámetros urbanísticos. A través de un estudio estadístico se analiza la correlación con el daño de las edificaciones tras el terremoto del 11 de mayo de 2011. Previamente se ha hecho una clasificación de los edificios según la clase de suelo en la que se encuentran según el Eurocódigo8 (Navarro et al, 2012). Por último, se aplica la metodología para obtener una estimación de la habitabilidad de los edificios en Lorca post sismo. Para esta clasificación se ha adoptado el criterio recogido en diversas recomendaciones internacionales, la mayoría de las cuales se basan en la documentación generada por el ATC- Applied Technology Council, distinguiendo entre edificios habitables (no daño-daño no estructural) y edificios no habitables (daño estructural). ABSTRACT Currently, various earthquakes have made clear first, the importance of city planning and secondly, the great influence that has the behaviour of buildings as a consequence of the results of human and economic losses. Faced with the impossibility of avoiding the occurrence of earthquakes and predicting its with a small margin of time to take action in the short term, the reduction of the vulnerability of exposed elements is the most effective measure to prevent damage and to prevent the disaster. There are several previous studies, Norman B. Green (1980), Teresa Guevara López (2009-2012) collecting criteria already widespread within the seismic bibliography and we can find some aspects from standard seismic precursor in this field (for example, the Peruvian) to initially establish urban - seismic principles. In addition, several projects related to seismic risk, RisK-EU (2003), SERAMAR (Lars Abrahamczyk et al., 2013) have developed methodologies that classify the vulnerability of buildings taking into account modifiers for behaviours and irregular configurations in seismical terms. This paper develops an empirical methodology to identify and characterize the irregular urban parameters seismically, graduate its relationship with the building damages after an earthquake and thus reduce the seismic vulnerability of cities. The methodology developed in this thesis applies in the city of Lorca, Region of Murcia. Fieldwork where buildings are classified according to their structural type and its urban performance parameters. Through a statistical study the correlation with damage of buildings is analyzed after the earthquake of May 11, 2011. Previously a classification of the buildings has been made according to the kind of soil according to the Eurocodigo 8 (Navarro et al, 2012). Finally, you get an estimate of the building habitability in Lorca. As a result, this classification adopted the criterion contained in various international recommendations, most of which are based on the documentation published by the ATC - Applied Technology Council, habitable buildings (not damage -damage non-structural) and non habitable buildings (structural damage).
Resumo:
En el primer capítulo se analizan las generalidades relativas al sismo. Tras algunas consideraciones sobre los fenómenos que aparecen durante un terremoto se describen algunos ejemplos históricos que han sido determinantes en el desarrollo del conocimiento y, finalmente, se plantean algunos problemas típicos de la ingeniería sísmica. En el siguiente capítulo se resumen algunos conceptos utilizados en la descripción física de la acción. Se trata de una presentación muy somera de temas en continua evolución. Se comienza con unas indicaciones sobre tectónica global que permiten hacerse una idea del origen de los terremotos en un marco general. A continuación se recuerdan algunos conceptos imprescindibles sobre propagación de ondas en medios elásticos, lo que permite comentar la composición de los acelerogramas, la estructura interna de la tierra y la localización de terremotos. Finalmente se incluyen las definiciones fenomenológicas e instrumentales utilizadas para describir el sismo, así como algunas correlaciones habituales entre ellas. En el capítulo posterior se desarrollan los criterios que permiten fijar la importancia de la acción sísmica en un emplazamiento determinado. Aunque aquéllos son semejantes para una cuantificación global y local se va a poner especial énfasis en la explicación de los métodos que han llevado al establecimiento del mapa sísmico español. En general cabe decir que el proyectista necesita evaluar los riesgos de diferentes niveles de daño con objeto de comparar soluciones alternativas. Para ello se precisa ser capaz de cuantificar y localizar la importancia de los sismos, el daño que producen en las estructuras así como cuantificar el coste generalizado (coste inicial+ beneficios+ coste de reparación) de la construcción. Tradicionalmente se ha empleado un enfoque determinista en que la solicitación sísmica se tomaba semejante a la máxima registrada históricamente. Tan solo en épocas recientes se ha impuesto una filosofía probabilista basada fundamentalmente en ideas expuestas por Cornell y Esteva en los años sesenta. En ambos casos se recurre a un estudio detallado de la estructura geotectónica de la región, en especial sus fallas activas, así como a la historia sísmica con localización de epicentros y asignación de intensidades que en nuestro país se puede basar en los catálogos existentes. En el caso determinista se postula que el máximo sismo histórico de cada falla se produce en la zona más próxima al emplazamiento, y utilizando fórmulas de atenuación se obtiene la característica de interés en aquel. En el último capítulo se van a describir métodos que, además de su aplicabilidad a sismos concretos han permitido la identificación de propiedades globales y, por tanto, la definición de la acción en función de un número limitado de parámetros. Aunque en un principio la descripción temporal fue la más usada, se ha observado que el contenido en frecuencias tiene una importancia capital y por ello se presentan sucesivamente ambos enfoques. Se dedica un apartado especial al concepto de espectro de respuesta elástica ya que está en la base de la mayoría de las recomendaciones de la normativa y recoge en forma muy sencilla una impresionante cantidad de información. Finalmente, se realizan breves indicaciones sobre los procedimientos utilizados para generar acelerogramas sintéticos que gocen de algunas de las propiedades globales puestas de manifiesto por las representaciones anteriores. Conviene remarcar que la importancia de los conceptos de densidad espectral o espectro de respuesta, radican no sólo en su capacidad para representar propiedades de un sismo dado sino, a través de su correspondiente normalización y promediación. En el último capítulo se incluyen algunas observaciones de interés sobre las modificaciones que las condiciones locales del suelo introducen en el movimiento sísmico.
Resumo:
La importancia que presenta la respuesta del suelo sobre el que se ubica una estructura ante un posible movimiento sísmico, así como la interacción suelo-estructura en terrenos blandos, son cuestiones que adquieren especial relevancia en el diseño de obras especiales como son las centrales nucleares. Ello exige un conocimiento previo de las características de amplificación del suelo, al cual se dedica este artículo.
Resumo:
En 2010, Recursos Naturales Canada (RNC) instaló 3 estaciones sísmicas con transmisión vía satélite en Jacmel, Léogane y Puerto Príncipe, la capital de la Republica de Haití. Dicha instalación tenía como objetivo la monitorización de las réplicas del terremoto del 12 de enero del mismo año. Con el objetivo de ampliar la cobertura de la monitorización sísmica a todo el país y tener un centro de control propio, el Observatorio Nacional de Medio Ambiente y de la Vulnerabilidad (ONEV) del Ministerio del Medio Ambiente de Haití (MDE) compró 4 estaciones sísmicas completas con transmisión vía satélite de Nanometrics Inc. y el software correspondiente. Desafortunadamente, no se está sacando provecho de dichas estaciones compradas. En la actualidad, dos de ellas, que están instaladas en Hinche y Cabo Haitiano, no están configuradas, y las otras siguen en el almacén del ONEV. No se ha conseguido el presupuesto para completar la instalación, ni tampoco para implantar el centro de control de la red sísmica digital por satélite que se quiere configurar en el país. El presente trabajo propone un diseño completo de la Red Sísmica Digital por Satélite Haitiana y la planificación para su implantación real, incluyendo las estaciones y el centro de control. Por ello se han estudiado las redes sísmicas modernas, las características de las redes sísmicas del Caribe, el sistema de transmisión Libra de Nanometrics y los software de adquisición y procesamiento de datos sísmicos Apollo y SeisComp3. También se ha estudiado la distribución espacial de las estaciones sísmicas con transmisión vía satélite instaladas en el país proponiendo alternativas y recomendaciones para futura ampliación, considerando los aspectos científicos, políticos y económicos, a la Isla de Vaca (Ile‐à‐Vache) en el extremo sur del país y la Isla de la Tortuga (Ile de la Tortue) al norte de la Falla Septentrional en el extremo norte del territorio haitiano.
Resumo:
El presente proyecto fin de carrera trata del estudio de los parámetros de sismicidad en la Península Ibérica y América Central, realizando un análisis de su variación en el espacio y en el tiempo. Con estos análisis se podrá determinar la continuidad temporal y la homogeneidad espacial de los parámetros sísmicas de los territorios de estudio, de acuerdo con la información contenida en los catálogos sísmicos. En este proyecto se parte del estudio de los catálogos sísmicos disponibles (catálogo del Instituto Geográfico Nacional de España y catálogo del proyecto RESIS II) y se realizan los análisis de completitud pertinentes, a fin de eliminar información de los catálogos que pueda desvirtuar los resultados obtenidos. Se considera que la sismicidad sigue modelo de Gutenberg-Richter, que establece que la distribución de frecuencias de terremotos con la magnitud responde a una relación lineal entre el (logaritmo del) número acumulado de eventos y la magnitud. De este modelo se obtienen tres parámetros que caracterizan la sismicidad de una zona: el parámetro beta, la tasa acumulada de ocurrencia de terremotos y la magnitud máxima. Se diseña un método para calcular el valor de estos parámetros sísmicos en los territorios considerados, y se implementan diferentes filtros espaciales y temporales para poder determinar la variabilidad espacial y temporal de los valores de los parámetros de sismicidad. Se aplica el método de estimación de parámetros de sismicidad en dos zonas de diferentes características sísmicas: una como la Península Ibérica, donde hay menos actividad sísmica pero hay datos de un periodo de tiempo mayor; y América Central,donde el catálogo no es tan extenso temporalmente, y sin embargo, hay una mayor actividad sísmica. Los resultados del estudio serán de utilidad para la caracterización de fuentes sísmicas en estudios de peligrosidad sísmica, bien sea siguiendo modelos zonificados que consideran que la sismicidad es un proceso de Poisson (para lo cual se necesita un catálogo depurado, como el que se usa en este proyecto para América Central), bien sea para modelos no zonificados, que se nutren de un catálogo sin depurar de réplicas y premonitores (como el que se usa en este proyecto para España).
Resumo:
(SPA) El terremoto de Lorca (11-05-2011) fue el movimiento sísmico más destructivo registrado en España, a pesar de su moderada magnitud. Este artículo describe la simulación numérica de la respuesta dinámica, al registro principal del terremoto de Lorca, de seis edificios de tres y seis plantas con forjados unidireccionales de hormigón con vigas planas; estos edificios fueron proyectados sin tener en cuenta la acción sísmica. Se ha elegido esta tipología constructiva por presentar, potencialmente, una elevada vulnerabilidad sísmica. Los seis edificios han sido seleccionados para representar un número importante de edificios de este tipo existentes en zonas de sismicidad baja o media (como Lorca) de España y correspondientes a los años 1974-1994, posteriores a la PDS-1 1974 y previos a la NCSE-94. Los resultados obtenidos muestran que estos edificios, aun contando con la cooperación de los muros, no poseen capacidad para resistir la componente más intensa del registro de Lorca. (ENG)The recent earthquake in Lorca (11-05-2011) was the most destructive recorded event in Spain, despite its moderate magnitude. This paper describes the numerical simulation of the dynamic response to the main record of the Lorca earth-quake of six 3 and 6-story buildings with one-way concrete slabs with wide beams; these buildings were designed without any seismic consideration. We have chosen this type of construction because it is potentially highly vulnerable. The six considered buildings were selected to represent a large number of buildings of this type in areas of low-to-medium seismicity (as Lorca) of Spain along the period 1974-1994. The results show that these buildings, even with the cooperation of the walls, do not have sufficient capacity to withstand the most severe component of the Lorca record.
Resumo:
Las evaluaciones de la peligrosidad sísmica suelen apoyarse en la información del catálogo. El período de retorno de los cálculos probabilistas debe ser consistente con las tasas de ocurrencia representadas en la caracterización de la actividad. En la metodología de Gutenberg-Richter (GR) se fija una magnitud máxima de integración que acota la validez de la ley de GR, siendo frecuente que el rango cubierto por la ley de GR exceda al cubierto por el catálogo que la soporta. En un método no zonificado la tasa de actividad se construye a partir de los eventos del catálogo y es sólo representativa de dichos eventos, aunque la incorporación de incertidumbres y el adecuado manejo de los períodos efectivos pueden incrementar los períodos de retorno respecto al rango cubierto por el catálogo. Se expone aquí una estrategia para incorporar información paleosísmica en una metodología basada en estimadores de densidad kernel.
Resumo:
En el presente proyecto se propone una nueva zonificación sísmica para América Central, a partir de la cual se ha realizado el cálculo de peligrosidad sísmica a nivel regional. Dicha zonificación y el posterior cálculo de peligrosidad desarrollado se presentan como actualización de los resultados del estudio previo desarrollado para la región (Benito et al., 2012), realizando asimismo la comparación entre los resultados de ambos estudios. En primer lugar se ha realizado la revisión de la zonificación existente, modificando la geometría de algunas zonas en base al conocimiento generado en los últimos años sobre todo en lo que se refiere a la geometría de la subducción,que varía de ángulo a lo largo de la trinchera Mesoamericana. Ello conlleva, a su vez, cambios en la sismicidad asignada a las zonas corticales y de subducción interfase. Los cambios y ajustes entre zonas se realizaron contando con el consenso de diferentes expertos en la materia y en colaboración con el Dr. Guillermo Alvarado, vulcanólogo del Instituto Costarricense de Electricidad (ICE), que desarrolló una estancia en Madrid, para trabajar con el Grupo de Investigación de Ingeniería Sísmica de la UPM (GIIS) en noviembre de 2014. Para la propuesta de nueva zonificación, se ha partido del catálogo sísmico depurado hasta 2011, completo y homogeneizado a magnitud momento, Mw. Dicho catálogo recoge una gran actividad sísmica y fue confeccionado dentro del proyecto RESIS II, en el cual participó el Grupo de Ingeniería Sísmica. Se ha seleccionado de dicho catálogo la sismicidad registrada en las nuevas zonas sismogenéticas propuestas y se han calculado los parámetros sísmicos de cada zona: la tasa acumulada de ocurrencia de terremotos, la magnitud máxima y el parámetro beta. Se ha considerado que la sismicidad se ajusta al modelo de recurrencia de Gutenberg-Richter, el cual establece una proporción constante entre el número de sismos grandes y pequeños para una determinada zona. Para la estimación de los parámetros sísmicos se ha utilizado el software Expel, desarrollado por el Grupo de Investigación de Ingeniería Sísmica de la UPM. Utilizando las zonas sismogenéticas propuestas y sus parámetros sísmicos,se ha calculado la amenaza sísmica en toda la región de Centroamérica, evaluada en cada punto como la probabilidad de que el movimiento del suelo exceda valores de aceleración prefijados, y obteniendo así la curva de peligrosidad en puntos de una malla cubriendo la región de estudio. Los cálculos han sido realizados empleando el software específico de peligrosidad sísmica CRISIS 2014. Los resultados se presentan en mapas de peligrosidad obtenidos para diferentes periodos de retorno en términos de aceleración pico (PGA), así como de otras aceleraciones espectrales SA (T) para diversos periodos estructurales T en el rango de 0,1 a 2 s. Para el diseño de los mapas se ha utilizado el software ArcGIS 10.1. Adicionalmente, se ha realizado un análisis de sensibilidad en los resultados ante diferentes propuestas de profundidad de la zonificación interfase,estudiando así el impacto de dichos cambios en los parámetros sísmicos de las zonas y en los resultados del cálculo de la peligrosidad. Finalmente, se han comparado los resultados obtenidos en este trabajo (tanto los parámetros sísmicos de la nueva zonificación como las aceleraciones resultantes del estudio de peligrosidad) con los resultados pertenecientes al estudio recogido en el libro Amenaza Sísmica en América Central de Benito et al.(2010), y en la posterior publicación de Benito et al. (2012), analizando así las principales diferencias entre ambos.
Resumo:
En el Campus Sur de la Universidad Politécnica de Madrid se ha llevado a cabo un proyecto para obtener una caracterización del subsuelo mediante ensayos ReMi, en colaboración con el departamento de Geofísica del Instituto Geográfico Nacional. La técnica ReMi (Refraction Microtremor) permite, mediante ensayos geofísicos realizados localmente sobre el terreno,obtener los parámetros físicos del mismo, que resultan de especial interés en el ámbito de la ingeniería civil. Esta técnica se caracteriza por englobarse dentro de la sísmica pasiva, muy empleada en prospección geofísica y basada en la obtención del modelo subyacente de distribución de velocidades de propagación de la onda S en función de la profundidad, con la ventaja de aprovechar el ruido sísmico ambiental como fuente de energía. Fue desarrollada en el Laboratorio Sismológico de Nevada (EEUU) por Louie (2001), con el objetivo de presentar una técnica innovadora en la obtención de las velocidades de propagación de manera experimental. Presenta ciertas ventajas, como la observación directa de la dispersión de ondas superficiales,que da un buen resultado de la velocidad de onda S, siendo un método no invasivo, de bajo coste y buena resolución, aplicable en entornos urbanos o sensibles en los que tanto otras técnicas sismológicas como otras variedades de prospección presentan dificultades. La velocidad de propagación de la onda S en los 30 primeros metros VS30, es ampliamente reconocida como un parámetro equivalente válido para caracterizar geotécnicamente el subsuelo y se halla matemáticamente relacionada con la velocidad de propagación de las ondas superficiales a observar mediante la técnica ReMi. Su observación permite el análisis espectral de los registros adquiridos, obteniéndose un modelo representado por la curva de dispersión de cada emplazamiento, de modo que mediante una inversión se obtiene el modelo de velocidad de propagación en función de la profundidad. A través de estos modelos, pueden obtenerse otros parámetros de interés sismológico. Estos resultados se representan sobre mapas isométricos para obtener una relación espacial de los mismos, particularmente conocido como zonación sísmica. De este análisis se extrae que la VS30 promedio del Campus no es baja en exceso, correspondiéndose a posteriori con los resultados de amplificación sísmica, período fundamental de resonancia del lugar y profundidad del sustrato rocoso. En última instancia se comprueba que los valores de amplificación sísmica máxima y el período al cual se produce posiblemente coincidan con los períodos fundamentales de resonancia de algunos edificios del Campus. ABSTRACT In South Campus at Polytechnic University of Madrid, a project has been carried out to obtain a proper subsoil description by applying ReMi tests, in collaboration with the Department of Geophysics of the National Geographic Institute. Through geophysical tests conducted locally, the ReMi (Refraction Microtremor) technique allows to establish the physical parameters of soil, which are of special interest in the field of civil engineering. This technique is part of passive seismic methods, often used in geophysical prospecting. It focuses in obtaining the underlying model of propagation velocity distribution of the shear wave according to depth and has the advantage of being able to use seismic ambient noise as a source of energy. It was developed in the Nevada Seismological Laboratory (USA) by Louie (2001) as an innovative technique for obtaining propagation velocities experimentally. It has several other advantages, including the direct observation of the dispersion of surface waves, which allows to reliably measure S wave velocity. This is a non-invasive, low cost and good resolution method, which can be applied in urban or sensitive environments where other prospection methods present difficulties. The propagation velocity of shear waves in the first 30 meters Vs30 is widely recognized as a valid equivalent parameter to geotechnically characterize the subsurface. It is mathematically related to surface wave's velocity of propagation, which are to observe using REMI technique. Spectral analysis of acquired data sets up a model represented by the dispersion curve at each site, so that, using an inversion process, propagation velocity model in relation to depth is obtained. Through this models, other seismologically interesting parameters can be obtained. These results are represented on isometric maps in order to obtain a spatial relationship between them, a process which is known as seismic zonation. This analysis infers that Vs30 at South Campus is not alarmingly low , corresponding with subsequent results of seismic amplification, fundamental period of resonance of soil and depth of bedrock. Ultimately, it's found that calculated values of soil's fundamental periods at which maximum seismic amplification occurs, may possibly match fundamental periods of some Campus buildings.
Resumo:
Analizar la influencia de las características geotécnicas en un emplazamiento en la respuesta frente a un terremoto y comprobar la amplificación de los movimientos. Se le ha querido dar al trabajo un enfoque diferente y en vez de utilizar la metodología habitual en la que se generan acelerogramas artificiales en el dominio del tiempo para obtener la respuesta, en este caso los análisis se realizan en el dominio de la frecuencia exclusivamente. Este enfoque es relativamente novedoso y se comprobará que es muy eficiente.