35 resultados para Espectros vibracionais
em Universidad Politécnica de Madrid
Resumo:
La simulación de registros sísmicos, compatibles con espectros medios de diseño, se ha convertido en una necesidad en los últimos años, debido principalmente a su exigencia en la norma de regulación del cálculo de centrales nucleares. En este trabajo se presentan distintas posibilidades de realización de esta simulación, así como una comparación entre ellas, apareciendo como una alternativa efectiva a los métodos clásicos la utilización del contenido de fase de los seismos reales. Mediante ello se establece un procedimiento que elimina la arbitrariedad que supone el uso de una función envolvente para definir la característica no estacionaria del registro. Los distintos métodos son descritos detalladamente, así como la influencia de los diferentes parámetros que intervienen en cada uno de ellos. Por último se presentan algunos ejemplos numéricos = The simulation of spectrum-compatible earthquake time histories, has been a need since the beginning of the development of earthquake engineering for complicated structures. More than the safety of the main structure, the analysis of the equipment (piping, rackes, etc.) can be assesed only on the basis of time-histories of the floor in which they are contained. This paper presents several alternatives to the generation of sinthetic time histories and the use of the distribution of the differences among the phase-angles is demonstrated to be a useful tool to simulate the nonstationarity of the process. Thorugh the paper an extensive use is made of the F.F.T. algorithm.
Resumo:
Presentación del número especial dedicado a la figura y trabajo de Henri Lefebvre en la revista Urban.
Resumo:
A lo largo del presente trabajo se investiga la viabilidad de la descomposición automática de espectros de radiación gamma por medio de algoritmos de resolución de sistemas de ecuaciones algebraicas lineales basados en técnicas de pseudoinversión. La determinación de dichos algoritmos ha sido realizada teniendo en cuenta su posible implementación sobre procesadores de propósito específico de baja complejidad. En el primer capítulo se resumen las técnicas para la detección y medida de la radiación gamma que han servido de base para la confección de los espectros tratados en el trabajo. Se reexaminan los conceptos asociados con la naturaleza de la radiación electromagnética, así como los procesos físicos y el tratamiento electrónico que se hallan involucrados en su detección, poniendo de relieve la naturaleza intrínsecamente estadística del proceso de formación del espectro asociado como una clasificación del número de detecciones realizadas en función de la energía supuestamente continua asociada a las mismas. Para ello se aporta una breve descripción de los principales fenómenos de interacción de la radiación con la materia, que condicionan el proceso de detección y formación del espectro. El detector de radiación es considerado el elemento crítico del sistema de medida, puesto que condiciona fuertemente el proceso de detección. Por ello se examinan los principales tipos de detectores, con especial hincapié en los detectores de tipo semiconductor, ya que son los más utilizados en la actualidad. Finalmente, se describen los subsistemas electrónicos fundamentales para el acondicionamiento y pretratamiento de la señal procedente del detector, a la que se le denomina con el término tradicionalmente utilizado de Electrónica Nuclear. En lo que concierne a la espectroscopia, el principal subsistema de interés para el presente trabajo es el analizador multicanal, el cual lleva a cabo el tratamiento cualitativo de la señal, y construye un histograma de intensidad de radiación en el margen de energías al que el detector es sensible. Este vector N-dimensional es lo que generalmente se conoce con el nombre de espectro de radiación. Los distintos radionúclidos que participan en una fuente de radiación no pura dejan su impronta en dicho espectro. En el capítulo segundo se realiza una revisión exhaustiva de los métodos matemáticos en uso hasta el momento ideados para la identificación de los radionúclidos presentes en un espectro compuesto, así como para determinar sus actividades relativas. Uno de ellos es el denominado de regresión lineal múltiple, que se propone como la aproximación más apropiada a los condicionamientos y restricciones del problema: capacidad para tratar con espectros de baja resolución, ausencia del concurso de un operador humano (no supervisión), y posibilidad de ser soportado por algoritmos de baja complejidad capaces de ser instrumentados sobre procesadores dedicados de alta escala de integración. El problema del análisis se plantea formalmente en el tercer capítulo siguiendo las pautas arriba mencionadas y se demuestra que el citado problema admite una solución en la teoría de memorias asociativas lineales. Un operador basado en este tipo de estructuras puede proporcionar la solución al problema de la descomposición espectral deseada. En el mismo contexto, se proponen un par de algoritmos adaptativos complementarios para la construcción del operador, que gozan de unas características aritméticas especialmente apropiadas para su instrumentación sobre procesadores de alta escala de integración. La característica de adaptatividad dota a la memoria asociativa de una gran flexibilidad en lo que se refiere a la incorporación de nueva información en forma progresiva.En el capítulo cuarto se trata con un nuevo problema añadido, de índole altamente compleja. Es el del tratamiento de las deformaciones que introducen en el espectro las derivas instrumentales presentes en el dispositivo detector y en la electrónica de preacondicionamiento. Estas deformaciones invalidan el modelo de regresión lineal utilizado para describir el espectro problema. Se deriva entonces un modelo que incluya las citadas deformaciones como una ampliación de contribuciones en el espectro compuesto, el cual conlleva una ampliación sencilla de la memoria asociativa capaz de tolerar las derivas en la mezcla problema y de llevar a cabo un análisis robusto de contribuciones. El método de ampliación utilizado se basa en la suposición de pequeñas perturbaciones. La práctica en el laboratorio demuestra que, en ocasiones, las derivas instrumentales pueden provocar distorsiones severas en el espectro que no pueden ser tratadas por el modelo anterior. Por ello, en el capítulo quinto se plantea el problema de medidas afectadas por fuertes derivas desde el punto de vista de la teoría de optimización no lineal. Esta reformulación lleva a la introducción de un algoritmo de tipo recursivo inspirado en el de Gauss-Newton que permite introducir el concepto de memoria lineal realimentada. Este operador ofrece una capacidad sensiblemente mejorada para la descomposición de mezclas con fuerte deriva sin la excesiva carga computacional que presentan los algoritmos clásicos de optimización no lineal. El trabajo finaliza con una discusión de los resultados obtenidos en los tres principales niveles de estudio abordados, que se ofrecen en los capítulos tercero, cuarto y quinto, así como con la elevación a definitivas de las principales conclusiones derivadas del estudio y con el desglose de las posibles líneas de continuación del presente trabajo.---ABSTRACT---Through the present research, the feasibility of Automatic Gamma-Radiation Spectral Decomposition by Linear Algebraic Equation-Solving Algorithms using Pseudo-Inverse Techniques is explored. The design of the before mentioned algorithms has been done having into account their possible implementation on Specific-Purpose Processors of Low Complexity. In the first chapter, the techniques for the detection and measurement of gamma radiation employed to construct the spectra being used throughout the research are reviewed. Similarly, the basic concepts related with the nature and properties of the hard electromagnetic radiation are also re-examined, together with the physic and electronic processes involved in the detection of such kind of radiation, with special emphasis in the intrinsic statistical nature of the spectrum build-up process, which is considered as a classification of the number of individual photon-detections as a function of the energy associated to each individual photon. Fbr such, a brief description of the most important matter-energy interaction phenomena conditioning the detection and spectrum formation processes is given. The radiation detector is considered as the most critical element in the measurement system, as this device strongly conditions the detection process. Fbr this reason, the characteristics of the most frequent detectors are re-examined, with special emphasis on those of semiconductor nature, as these are the most frequently employed ones nowadays. Finally, the fundamental electronic subsystems for preaconditioning and treating of the signal delivered by the detector, classically addresed as Nuclear Electronics, is described. As far as Spectroscopy is concerned, the subsystem most interesting for the scope covered by the present research is the so-called Multichannel Analyzer, which is devoted to the cualitative treatment of the signal, building-up a hystogram of radiation intensity in the range of energies in which the detector is sensitive. The resulting N-dimensional vector is generally known with the ñame of Radiation Spectrum. The different radio-nuclides contributing to the spectrum of a composite source will leave their fingerprint in the resulting spectrum. Through the second chapter, an exhaustive review of the mathematical methods devised to the present moment to identify the radio-nuclides present in the composite spectrum and to quantify their relative contributions, is reviewed. One of the more popular ones is the so-known Múltiple Linear Regression, which is proposed as the best suited approach according to the constraints and restrictions present in the formulation of the problem, i.e., the need to treat low-resolution spectra, the absence of control by a human operator (un-supervision), and the possibility of being implemented as low-complexity algorithms amenable of being supported by VLSI Specific Processors. The analysis problem is formally stated through the third chapter, following the hints established in this context, and it is shown that the addressed problem may be satisfactorily solved under the point of view of Linear Associative Memories. An operator based on this kind of structures may provide the solution to the spectral decomposition problem posed. In the same context, a pair of complementary adaptive algorithms useful for the construction of the solving operator are proposed, which share certain special arithmetic characteristics that render them specially suitable for their implementation on VLSI Processors. The adaptive nature of the associative memory provides a high flexibility to this operator, in what refers to the progressive inclusión of new information to the knowledge base. Through the fourth chapter, this fact is treated together with a new problem to be considered, of a high interest but quite complex nature, as is the treatment of the deformations appearing in the spectrum when instrumental drifts in both the detecting device and the pre-acconditioning electronics are to be taken into account. These deformations render the Linear Regression Model proposed almost unuseful to describe the resulting spectrum. A new model including the drifts is derived as an extensión of the individual contributions to the composite spectrum, which implies a simple extensión of the Associative Memory, which renders this suitable to accept the drifts in the composite spectrum, thus producing a robust analysis of contributions. The extensión method is based on the Low-Amplitude Perturbation Hypothesis. Experimental practice shows that in certain cases the instrumental drifts may provoke severe distortions in the resulting spectrum, which can not be treated with the before-mentioned hypothesis. To cover also these less-frequent cases, through the fifth chapter, the problem involving strong drifts is treated under the point of view of Non-Linear Optimization Techniques. This reformulation carries the study to the consideration of recursive algorithms based on the Gauss-Newton methods, which allow the introduction of Feed-Back Memories, computing elements with a sensibly improved capability to decompose spectra affected by strong drifts. The research concludes with a discussion of the results obtained in the three main levéis of study considerad, which are presented in chapters third, fourth and fifth, toghether with the review of the main conclusions derived from the study and the outline of the main research lines opened by the present work.
Resumo:
La repercusión de los efectos sísmicos en las estructuras es de gran importancia ya que puede directa o indirectamente afectar la estabilidad y la resistencia de las estructuras. La vida útil de una estructura es por tanto condicionada a estos efectos y deben por tanto ser estudiados y modelizados a la hora de diseñar y calcular una estructura. El grado de devastación que los sismos pueden tener en núcleos urbanos puede apreciarse, entre otras cosas, por los fallos estructurales y la perdida de estabilidad de las estructuras. Son muchas veces daños irreparables, como la pérdida de vidas humanas, perdidas económicas, disrupción de servicios importantes, entre otros. Queda claro entonces que los efectos sísmicos no pueden ser ignorados, y así lo reflejan muchos países incluyendo normativas sísmicas de obligado uso. Uno de los métodos más utilizados para simular los efectos sísmicos es el método "modal espectral". Este método usa los espectros sísmicos para establecer la aceleración que experimenta una estructura en función de sus modos de vibración. El objeto del presente trabajo es comparar distintas normas sísmicas en función de su afección a una estructura modelada en el programa SAP2000. Durante el proceso de dicha comparación se establecerá cual de ellas es la que da valores más significativos y los procesos utilizados para obtener los distintos espectros sísmicos, así como los parámetros utilizados en cada caso. Las normas escogidas para realizar dicha comparación son: - Norma peruana (Diseño sismorresistente , E.30) - Norma argelina (Regles parasismiques algeriennes RPA 99) - Norma costarricense (Código sísmico de Costa Rica 2010) - Norma española (Norma de construcción sismorresistente, NCSE-02). Los objetivos específicos son: o Recopilar información sobre la aplicabilidad de 4 normas sísmicas a una misma estructura. o Comparar resultados después de aplicar las 4 normas sísmicas a una misma estructura y extraer conclusiones.
Resumo:
En 1587 un sismo de magnitud 6.4 asociado a las fallas ciegas de Quito, causó gran daño en la ciudad; esto es muy preocupante toda vez que existen estudios que indican que el período de recurrencia es de aproximadamente 200 años. Lo que implica que al 2014 debieron haberse producido dos sismos de igual magnitud, que gracias a Dios no ha sucedido, ya que las consecuencias habrían sido desastrosas porque buena parte de la ciudad se encuentra sobre estas fallas. Al no haberse registrado sismos de la magnitud indicada en los cuatro últimos siglos se tiene una gran acumulación de energía toda vez que la tasa de movimiento de estas fallas se encuentra entre los 3 y 4 mm al año. De tal manera que existe una gran probabilidad de tener un sismo muy fuerte. En estas condiciones es muy importante obtener espectros de respuesta elástica que se generarían por un sismo asociado a alguno de los segmentos de las fallas ciegas inversas de Quito y que mejor hacerlo con modelos de movimientos fuertes que han sido publicados en los últimos años y reconocidos a nivel mundial por la gran base de datos con la que fueron obtenidos. En este artículo se van a presentar tres modelos de movimientos fuertes y son los desarrollados por: Abrahamson, Silva y Kamai (2013); Campbell y Borzognia (2013); y el modelo de Zhao et al. (2006). Para cada uno de estos modelos se indican la base de datos y las ecuaciones que definen las ramas del espectro. Se destaca que estos modelos sirven también para encontrar leyes de atenuación del movimiento del suelo. Posteriormente como una aplicación se obtendrá espectros para cinco Parroquias del Centro Norte de Quito, a saber: Rumipamba, Belisario Quevedo, Mariscal Sucre, Iñaquito y Jipijapa; asociados al sismo máximo probable generados en el segmento de falla que está más cerca y es el denominado Ilumbisí-La Bota, con cada uno de los modelos indicados en el párrafo anterior y se encontrarán espectros ponderados para un nivel de confiabilidad del 84%. Las ordenadas espectrales que se hallan son mayores a las ordenadas espectrales que reporta la Norma Ecuatoriana de la Construcción de 2011 y los que se obtienen con los factores de sitio hallados en el estudio de Microzonificación Sísmica de Quito por ERN en el 2012.
Resumo:
Se estudia la peligrosidad sísmica en la Península Ibérica con una metodología no paramétrica basada en estimadores de densidad kernel; la tasa de actividad se deduce del catálogo, tanto en cuanto a su dependencia espacial (prescindiendo de zonificación) como en relación con la magnitud (obviando la ley de Gutenberg-Richter). El catálogo es el del Instituto Geográfico Nacional, complementado con otros en zonas periféricas, homogeneizado en su cuantificación de los terremotos y eliminando eventos espacial o temporalmente interrelacionados para mantener un modelo temporal de Poisson. La tasa de actividad sísmica viene determinada por la función kernel, el ancho de banda y los períodos efectivos. La tasa resultante se compara con la obtenida usando estadísticas de Gutenberg-Richter y una metodología zonificada. Se han empleado tres leyes de atenuación: una para terremotos profundos y dos para terremotos superficiales, dependiendo de que su magnitud fuera superior o inferior a 5. Los resultados se presentan en forma de mapas de peligrosidad para diversas frecuencias espectrales y períodos de retorno de 475 y 2475 años, lo que permite construir espectros de peligrosidad uniforme.
Resumo:
Se presenta un nuevo estudio de peligrosidad sísmica de Navarra siguiendo el método de cálculo probabilista zonificado, con un árbol lógico para cuantificar la incertidumbre epistemológica inherente a los modelos de atenuación y a las zonificaciones sísmicas. El estudio parte de la revisión y contraste de los catálogos sísmicos disponibles. A partir de ellos se configura un catálogo de proyecto, homogeneizado a magnitud momento Mw y depurado de réplicas y premonitores. Además se realiza un estudio de las zonificaciones que contienen la región y se desarrolla una nueva zonificación específica para el proyecto, atendiendo a criterios sismológicos y geológicos. Por último, se seleccionan los modelos de atenuación más idóneos para la región Pirenaica. Los cálculos se realizan sobre emplazamiento en roca. Los resultados se presentan mediante mapas de peligrosidad en la provincia de Navarra y espectros de peligrosidad uniforme en varias poblaciones para periodo de retorno de 475 años. Estos resultados se comparan finalmente con los provistos por la Norma NCSE-02 y con los de otros estudios existentes
Resumo:
Una de las principales diferencias entre estudios de riesgo símico a escalas regional y urbana se refiere a la caracterización de la acción sísmica. En los estudios regionales, se impone el método probabilista, en el que habitualmente el resultado se expresa por medio de mapas de aceleración esperada para un periodo de retorno dado y espectros de peligrosidad uniforme. Sin embargo, en los estudios urbanos se requiere un mayor grado de detalle, tanto en la definición de las fuentes sismogenéticas como en la caracterización del movimiento esperado, sobre el que inciden de manera fundamental posibles efectos de resonancia con el suelo en el emplazamiento y/o con las estructuras asentadas en el mismo. En este trabajo se presentan diversas propuestas de caracterización de la acción sísmica en entornos urbanos. Para su aplicación práctica, se usarán datos de dos localidades concretas: Almería, donde se usará un escenario sísmico compatible con el sismo de control de la peligrosidad en rangos de aceleración esperados para un periodo de retorno de 475 años y en Alhama de Granada, donde el movimiento sísmico corresponde al que generaría un terremoto similar al de Andalucía de 1884, con fuente en la falla de Zafarraya.
Resumo:
Tras el devastador terremoto del 12 de enero de 2010 en Puerto Príncipe, Haití, las autoridades locales, numerosas ONGs y organismos nacionales e internacionales están trabajando en el desarrollo de estrategias para minimizar el elevado riesgo sísmico existente en el país. Para ello es necesario, en primer lugar, estimar dicho riesgo asociado a eventuales terremotos futuros que puedan producirse, evaluando el grado de pérdidas que podrían generar, para dimensionar la catástrofe y actuar en consecuencia, tanto en lo referente a medidas preventivas como a adopción de planes de emergencia. En ese sentido, este Trabajo Fin de Master aporta un análisis detallado del riesgo sísmico asociado a un futuro terremoto que podría producirse con probabilidad razonable, causando importantes daños en Puerto Príncipe. Se propone para ello una metodología de cálculo del riesgo adaptada a los condicionantes de la zona, con modelos calibrados empleando datos del sismo de 2010. Se ha desarrollado en el marco del proyecto de cooperación Sismo-Haití, financiado por la Universidad Politécnica de Madrid, que comenzó diez meses después del terremoto de 2010 como respuesta a una petición de ayuda del gobierno haitiano. El cálculo del riesgo requiere la consideración de dos inputs: la amenaza sísmica o movimiento esperado por el escenario definido (sismo de cierta magnitud y localización) y los elementos expuestos a esta amenaza (una clasificación del parque inmobiliario en diferentes tipologías constructivas, así como su vulnerabilidad). La vulnerabilidad de estas tipologías se describe por medio de funciones de daño: espectros de capacidad, que representan su comportamiento ante las fuerzas horizontales motivadas por los sismos, y curvas de fragilidad, que representan la probabilidad de que las estructuras sufran daños al alcanzar el máximo desplazamiento horizontal entre plantas debido a la mencionada fuerza horizontal. La metodología que se propone especifica determinadas pautas y criterios para estimar el movimiento, asignar la vulnerabilidad y evaluar el daño, cubriendo los tres estados del proceso. Por una parte, se consideran diferentes modelos de movimiento fuerte incluyendo el efecto local, y se identifican los que mejor ajustan a las observaciones de 2010. Por otra se clasifica el parque inmobiliario en diferentes tipologías constructivas, en base a la información extraída en una campaña de campo y utilizando además una base de datos aportada por el Ministerio de Obras Públicas de Haití. Ésta contiene información relevante de todos los edificios de la ciudad, resultando un total de 6 tipologías. Finalmente, para la estimación del daño se aplica el método capacidad-demanda implementado en el programa SELENA (Molina et al., 2010). En primer lugar, utilizado los datos de daño del terremoto de 2010, se ha calibrado el modelo propuesto de cálculo de riesgo sísmico: cuatro modelos de movimiento fuerte, tres modelos de tipo de suelo y un conjunto de funciones de daño. Finalmente, con el modelo calibrado, se ha simulado un escenario sísmico determinista correspondiente a un posible terremoto con epicentro próximo a Puerto Príncipe. Los resultados muestran que los daños estructurales serán considerables y podrán llevar a pérdidas económicas y humanas que causen un gran impacto en el país, lo que pone de manifiesto la alta vulnerabilidad estructural existente. Este resultado será facilitado a las autoridades locales, constituyendo una base sólida para toma de decisiones y adopción de políticas de prevención y mitigación del riesgo. Se recomienda dirigir esfuerzos hacia la reducción de la vulnerabilidad estructural - mediante refuerzo de edificios vulnerables y adopción de una normativa sismorresistente- y hacia el desarrollo de planes de emergencia. Abstract After the devastating 12 January 2010 earthquake that hit the city of Port-au-Prince, Haiti, strategies to minimize the high seismic risk are being developed by local authorities, NGOs, and national and international institutions. Two important tasks to reach this objective are, on the one hand, the evaluation of the seismic risk associated to possible future earthquakes in order to know the dimensions of the catastrophe; on the other hand, the design of preventive measures and emergency plans to minimize the consequences of such events. In this sense, this Master Thesis provides a detailed estimation of the damage that a possible future earthquake will cause in Port-au-Prince. A methodology to calculate the seismic risk is proposed, adapted to the study area conditions. This methodology has been calibrated using data from the 2010 earthquake. It has been conducted in the frame of the Sismo-Haiti cooperative project, supported by the Technical University of Madrid, which started ten months after the 2010 earthquake as an answer to an aid call of the Haitian government. The seismic risk calculation requires two inputs: the seismic hazard (expected ground motion due to a scenario earthquake given by magnitude and location) and the elements exposed to the hazard (classification of the building stock into building typologies, as well as their vulnerability). This vulnerability is described through the damage functions: capacity curves, which represent the structure performance against the horizontal forces caused by the seisms; and fragility curves, which represent the probability of damage as the structure reaches the maximum spectral displacement due to the horizontal force. The proposed methodology specifies certain guidelines and criteria to estimate the ground motion, assign the vulnerability, and evaluate the damage, covering the whole process. Firstly, different ground motion prediction equations including the local effect are considered, and the ones that have the best correlation with the observations of the 2010 earthquake, are identified. Secondly, the classification of building typologies is made by using the information collected during a field campaign, as well as a data base provided by the Ministry of Public Works of Haiti. This data base contains relevant information about all the buildings in the city, leading to a total of 6 different typologies. Finally, the damage is estimated using the capacity-spectrum method as implemented in the software SELENA (Molina et al., 2010). Data about the damage caused by the 2010 earthquake have been used to calibrate the proposed calculation model: different choices of ground motion relationships, soil models, and damage functions. Then, with the calibrated model, a deterministic scenario corresponding to an epicenter close to Port-au-Prince has been simulated. The results show high structural damage, and therefore, they point out the high structural vulnerability in the city. Besides, the economic and human losses associated to the damage would cause a great impact in the country. This result will be provided to the Haitian Government, constituting a scientific base for decision making and for the adoption of measures to prevent and mitigate the seismic risk. It is highly recommended to drive efforts towards the quality control of the new buildings -through reinforcement and construction according to a seismic code- and the development of emergency planning.
Resumo:
Se estudia la peligrosidad sísmica en la Península Ibérica con una metodología no paramétrica basada en estimadores de densidad kernel; la tasa de actividad se deduce del catálogo, tanto en cuanto a su dependencia espacial (prescindiendo de zonificación) como en relación con la magnitud (obviando la ley de Gutenberg-Richter). El catálogo es el del Instituto Geográfico Nacional, complementado con otros en zonas periféricas, homogeneizado en su cuantificación de los terremotos y eliminando eventos espacial o temporalmente interrelacionados para mantener un modelo temporal de Poisson. La tasa de actividad sísmica viene determinada por la función kernel, el ancho de banda y los períodos efectivos. La tasa resultante se compara con la obtenida usando estadísticas de Gutenberg-Richter y una metodología zonificada. Se han empleado tres leyes de atenuación: una para terremotos profundos y dos para terremotos superficiales, dependiendo de que su magnitud fuera superior o inferior a 5. Los resultados se presentan en forma de mapas de peligrosidad para diversas frecuencias espectrales y períodos de retorno de 475 y 2475 años, lo que permite construir espectros de peligrosidad uniforme
Resumo:
Se presenta en este trabajo una nueva caracterización del movimiento del suelo en la presa de Itoiz, consistente con la peligrosidad sísmica del emplazamiento. En primer lugar, proponemos una metodología con tres niveles de aproximación al movimiento esperado, que es después aplicada considerando las características particulares de la presa y su emplazamiento. Los cálculos de peligrosidad se realizan siguiendo la línea metodológica conocida como PSHA, con un método probabilista zonificado y formulando un árbol lógico que combina diferentes zonificaciones sísmicas y modelos de movimiento fuerte. La peligrosidad se representa en términos de la aceleración pico PGA y de las aceleraciones espectrales para periodos coincidentes con los de vibración de la presa, considerando dos estados de la misma correspondientes a presa vacía (T=0.1s) y presa con capacidad máxima de llenado (T=0.22 s). Se caracterizan los correspondientes movimientos para dos periodos de retorno, 975 años y 4975 años, asociados al sismo de proyecto y al sismo extremo, respectivamente. El efecto de sitio en el emplazamiento de la presa también fue tenido en cuenta. La metodología propuesta conduce a caracterizar el movimiento con tres niveles de detalle. En una primera etapa se obtienen los espectros de respuesta uniforme (UHS) para los dos niveles de movimiento referidos. Seguidamente se desarrolla un análisis de desagregación para obtener los sismos de control que previsiblemente pueden afectar mas a la presa. Estos se identifican como los que más contribuyen a los movimientos objeto dados por las aceleraciones espectrales de los dos periodos característicos, SA (0,1 s) y SA (0.22 s) y para los dos periodos de retorno de 975 y 4975 años asociados a lo sismos de proyecto y extremo. De ahí se obtienen los espectros de respuesta específicos para las cuatro combinaciones resultantes. Finalmente, se realiza una simulación del movimiento en el dominio del tiempo, obteniendo acelerogramas sintéticos mediante el método de número de onda discreto. Las simulaciones se realizaron considerando fuentes finitas en diferentes posiciones y evaluando el efecto de la directividad en las posibles fuentes consideradas. Se concluye destacando la importancia del efecto de directividad, en la caracterización del emplazamiento de la presa.
Resumo:
El presente trabajo es un estudio teórico – experimental para la implementación de un edificio metálico de cuatro plantas con dispositivos disipadores de energía. Este estudio presenta una técnica para la generación de un registro sísmico artificial, que sea compatible con los espectros de diseño de las normas chilena y española. Este acelerograma se crea con una herramienta computacional denominada SIMQKE. La simulación de la estructura sometida al terremoto artificial se realizará en el programa de elementos finitos SAP200. El trabajo se encuentra dividido en cuatro capítulos, cuyos contenidos son los siguientes. En el capitulo uno, o estado del arte, se revisan las diferentes técnicas de aislamiento sísmico, se describe el dispositivo a utilizar, sus bases teóricas y formulación matemática, se revisan las normas NCh.2745 Of.2003 [12], NCSE-02 [18] y se presenta la técnica para la generación de un registro sintético compatible. El capítulo dos aborda el análisis experimental para un edificio real: una edificación de estructura metálica implementada con disipadores de energía metálicos y que será sometida a tres terremotos de diferente magnitud. El capítulo tres expone los resultados de los desplazamientos medidos para la estructura sin disipadores y con ellos, se presentan los porcentajes de disminución de desplazamientos relativos por planta y por tipo de estructura. Por último, el capítulo cuatro presenta las principales conclusiones y una breve discusión de los resultados. The present work is a theoretical and experimental study for the implementation of a fourstorey building with energy dissipating devices. This study presents a technique for generation an artificial seismic record, which is compatible with the design spectra Chilean and Spanish standards. This accelerogram is created with a computational tool called SIMQKE. The simulation of the structure subjected to artificial earthquake will take place in the finite element program SAP2000. This work is divided into four chapters whose contents are as follows. In chapter one, or state of the art, reviews the different seismic isolation techniques, describes the device used, theoretical and mathematical formulation, NCh2745 Of.2003 [12] and NCSE-02 [18] standards are checked, and presents the technique for generating a synthetic record compatible. Chapter two explains the experimental analysis to a real building: a building of steel structure implemented with metallic energy dissipators and will be submitted to three different earthquakes of magnitude. Chapter three presents the results of measured displacements for the structure without dissipators and with them, the percentages of decline relative displacements per plant and type of structure. Finally, chapter four presents the main conclusions and a brief discussion of the results.
Resumo:
En este trabajo se han cubierto diferentes asuntos del diseño neutrónico de los aspectos radiológicos de las dos instalaciones del proyecto HiPER. El proyecto HiPER es un proyecto europeo concebido en el marco del programa ESFRI (European Scientific Facilities Research Infrastructure). Está destinado al desarrollo de la energía de fusión nuclear inercial mediante el uso de láseres y el esquema iluminación directa. Consecuentemente, se trata de una instalación con fines exclusivamente civiles. Se divide en dos fases, correspondientes con dos instalaciones: HiPER Engineering y HiPER Reactor. La instalación HiPER Engineering desarrollará las tecnologías implicadas en la ignición de alta repetición de cápsulas de DT por iluminación directa. El HiPER Reactor será una planta demostradora que produzca electricidad haciendo uso de las tecnologías desarrolladas durante la fase HiPER Engineering. El HiPER Engineering se centrará en las tecnologías relevantes para las igniciones a alta repetición de cápsulas de DT usando la iluminación directa. El principal esfuerzo de desarrollo tecnológico se hará en todos los asuntos directamente relacionados con la ignición: láseres, óptica, inyector, y fabricación masiva de cápsulas entre otros. Se espera una producción de entre 5200 MJ/año y 120000 MJ/año dependiendo del éxito de la instalación. Comparado con la energía esperada en NIF, 1200 MJ/año, se trata de un reto y un paso más allá en la protección radiológica. En este trabajo se ha concebido una instalación preliminar. Se ha evaluado desde el punto de vista de la protección radiológica, siendo las personas y la óptica el objeto de protección de este estudio. Se ha establecido una zonificación durante la operación y durante el mantenimiento de la instalación. Además, se ha llevado a cabo una evaluación de la selección de materiales para la cámara de reacción desde el punto de vista de gestión de residuos radiactivos. El acero T91 se ha seleccionado por, siendo un acero comercial, presentar el mismo comportamiento que el acero de baja activación EUROFER97 al evaluarse como residuo con el nivel de irradiación de HiPER Engineering. Teniendo en cuenta los resultados obtenidos para la instalación preliminar y las modificaciones de la instalación motivadas en otros campos, se ha propuesto una instalación avanzada también en este trabajo. Un análisis más profundo de los aspectos radiológicos, así como una evaluación completa de la gestión de todos los residuos radiactivos generados en la instalación se ha llevado a cabo. La protección radiológica se ha incrementado respecto de la instalación preliminar, y todos los residuos pueden gestionarse en un plazo de 30 sin recurrir al enterramiento de residuos. El HiPER Reactor sera una planta demostradora que produzca electricidad basada en las tecnologías de ignición desarrolladas durante la fase HiPER Engineering. El esfuerzo de desarrollo tecnológico se llevará a cabo en los sistemas relacionados con la generación de electricidad en condiciones económicas: manto reproductor de tritio, ciclos de potencia, vida y mantenimiento de componentes, o sistemas de recuperación de tritio entre otros. En este trabajo la principal contribución a HiPER Reactor está relacionada con el diseño de la cámara de reacción y sus extensiones en la planta. La cámara de reacción es la isla nuclear más importante de la planta, donde la mayoría de las reacciones nucleares tienen lugar. Alberga la primera pared, el manto reproductor de tritio y la vasija de vacío. Todo el trabajo realizado aquí ha pivotado en torno al manto reproductor de tritio y sus interacciones con el resto de componentes de la planta. Tras una revisión profunda de la bibliografía de los diseños recientes de cámaras de reacción con características similares a HiPER Reactor, se ha propuesto y justificado un esquema tecnológico innovador para el manto reproductor de tritio. El material fértil selecconado es el eutéctico 15.7 at.% Litio – 84.3 at.% Plomo, LiPb, evitando el uso de berilio como multiplicador neutrónico mientras se garantiza el ajuste online de la tasa de reproducción de tritio mediante el ajuste en el enriquecimiento en 6Li. Aunque se podría haber elegido Litio purom el LiPb evita problemas relacionados con la reactividad química. El precio a pagar es un reto materializado como inventario radiactivo de Z alto en el lazo de LiPb que debe controlarse. El material estructural seleccionado es el acero de baja activación EUROFER97, que estará en contacto directo con le LiPb fluyendo a alta velocidad. En este esquema tecnológico, el LiPb asegurará la autosuficiente de tritio de la planta mientras el propio LiPb extrae del manto el calor sobre él depositado por los neutrones. Este esquema recibe el nombre de manto de Litio-Plomo auto-refrigerado (SCLL por sus siglas en inglés). Respecto de los conceptos SCLL previos, es destacable que nos e requieren componentes del SiC, puesto que no hay campos magnéticos en la cámara de reacción. Consecuentemente, el manto SCLL propuesto para HiPER presenta riesgo tecnológicos moderados, similares a otros dispositivos de fusión magnética, como el HCLL, e incluso inferiores a los del DCLL, puesto que no se require SiC. Los retos que se deben afrontar son el control del inventario de Z alto así como las tasas de corrosión derivadas de la interacción del LiPb con el EUROFE97. En este trabajo se abordan ambos aspectos, y se presentan los respectivos análisis, junto con otros aspectos neutrónicos y de activación, tales como la protección de la vasija de vacío por parte del material fértil para garantizar la resoldabilidad de por vida en la cara externa de la vasija. También se propone y se estudio un ciclo de potencia de Brayton de Helio para dos configuraciones diferentes de refrigeración del sistema primera pared-manto reproductor. Las principales conclusiones de estos estudios son: i) el inventario de Z alto puede controlarse y es comparable al que se encuentra en dispositivos de fusión similares, ii)la vasija de vacío requiere una mayor protección frente a la radiación neutrónica y iii) las tasas de corrosión son demasiado altas y la temperatura media de salida del LiPb es demasiado baja. Tiendo en cuenta estos resultados juntos con otras consideraciones relacionadas con el mantenimiento de componentes y la viabilidad constructiva, se ha propuesto una evolución de la cámara de reacción. Las evoluciones más destacables son la introducción de un reflector neutrónico de grafito, la modificación de la configuración de la óptica final, la forma y el tamaño de la cámara de vacío y una nueva subdivisión modular del manto. Se ha evaluado desde el punto de vista neutrónico, y su análisis y posterior evolución queda fuera del objeto de este trabajo. Los códigos utilizados en este trabajo son: CATIA para la generación de geometrías 3D complejas MCAM para la traducción de archivos de CATIA a formato de input de MCNP MCNP para el transporte de la radiación (neutrones y gammas) y sus respuestas asociadas ACAB para la evolución del inventario isotópico y sus respuestas asociadas MC2ACAB para acoplar MCNP y ACAB para el cómputo de dosis en parada usando la metodología R2S basada en celda. Moritz para visualizar los reultados de MCNP FLUENT para llevar a cabo cálculos de fluido-dinámica Para llevar a cabo este trabajo, han sido necesarias unas destrezas computacionales. Las más relevantes utilizadas son: generación de geometrás 3D complejas y transmisión a MCNP, diferentes tñecnica de reducción de varianza como importancia por celdas y weight windows basado en malla, metodología Rigorous-two-Steps basada en celdas para el cálculo de dosis en parada y la modificación del código ACAB para el cálculos con múltiples espectros en la misma simulación. Como resumen, la contribución de este trabajo al proyecto HiPER son dos diseños conceptuales de instalación: una para HiPER Engineering y otra para HiPER Reactor. La primera se ha estudio en profundidad desde el punto de vista de protección radiológica y gestión de residuos, mientras que la segunda se ha estudiado desde el punto de vista de operación: seguridad, comportamiento, vida y mantenimiento de componentes y eficiencia del ciclo de potencia.
Resumo:
El espacio íntimo no está únicamente asociado al espacio privado y doméstico, sin embargo las nociones de privacidad e intimidad están emparentadas a la idea de casa. Mientras el lugar íntimo no se resuma al espacio de proyección individual, la necesidad revelada por el individuo a lo largo de la historia de poseer un espacio propio configura una categoría de planteamiento íntimo ante el espacio. Aunque pertenezca a un ámbito inmaterial, la intimidad se busca, en las páginas siguientes, en lo arquitectónico a través de la observación de algunos espacios individuales. Se identifican imágenes del habitar individual y espacios de reclusión individual. Se observa en los momentos inicial y final de la vida el exponente máximo de aislamiento y de unidad, la imagen del espacio intrauterino y una idea de lo fúnebre planean sobre el cotidiano, infundiéndolo también de la necesidad de aislamiento. La reclusión se podrá procesar a partir de distintas motivaciones. En este sentido se ha identificado el espacio del ermitaño, el espacio de retiro y el espacio de la exclusión. Cercado el ámbito del espacio individual surge como necesaria la tarea de oponer el individuo al mundo, pues no existe dentro sin fuera, como no hay día sin noche, ni el ser individual existe sin que pueda plantearse ante otros que confirmen su existencia. En este sentido se plantea el habitante individual ante la inmensidad, ante la exposición y ante la extrañeza. Para que un viaje sea completo hay que regresar al punto de partida lo que en este contexto significó un regreso del individuo a sí mismo, pero en este punto mediado por el artificio, es decir, se planteó el individuo ante el espejo: ante la naturaleza, ante el arte y ante la tecnología. El último capítulo surge como la configuración de un conjunto de espectros que se habían vislumbrado a lo largo del trabajo y que tienen en la última parte la posibilidad de cruzarse y generar nuevas lecturas. La motivación en percibir de que formas el concepto de intimidad se cruza con las problemáticas implícitas en el concebir y experimentar el espacio se va destilando a lo largo del trabajo: se identifican afinidades entre lo que podrá parecer ajeno, se admiten escisiones entre lo que se enseña uno, y se observan temas que por tan vinculados a las experiencias más banales del habitar se encuentran a menudo en el olvido. Este trabajo no es más que un acercamiento a las cuestiones más elementales del proyecto de arquitectura de alguien que más allá de experimentar el espacio como habitante se dispone también a pensarlo.
Resumo:
En laboratorios de calibración neutrónica, si las diferencias entre los espectros neutrónicos “en el lugar de trabajo” y los utilizados en la instalación de calibración son muy acusadas, resulta muy complicado obtener factores de normalización adecuados, siendo conveniente tratar de producir campos neutrónicos “realistas”, es decir, cuyo espectro energético sea similar al existente en el lugar de trabajo, lo que permitiría la calibración directa de los instrumentos dosimétricos. Uno de los métodos utilizados, es el método de los “conos de sombra”. En este trabajo se presentan el diseño, caracterización y empleo de los conos de sombra del Laboratorio de medidas neutrónicas del Departamento de Ingeniería Nuclear de la ETSII-UPM LMN-UPM), empleándose una fuente de 241Am-Be.