26 resultados para Accidental drowning
Resumo:
The new reactor concepts proposed in the Generation IV International Forum (GIF) are conceived to improve the use of natural resources, reduce the amount of high-level radioactive waste and excel in their reliability and safe operation. Among these novel designs sodium fast reactors (SFRs) stand out due to their technological feasibility as demonstrated in several countries during the last decades. As part of the contribution of EURATOM to GIF the CP-ESFR is a collaborative project with the objective, among others, to perform extensive analysis on safety issues involving renewed SFR demonstrator designs. The verification of computational tools able to simulate the plant behaviour under postulated accidental conditions by code-to-code comparison was identified as a key point to ensure reactor safety. In this line, several organizations employed coupled neutronic and thermal-hydraulic system codes able to simulate complex and specific phenomena involving multi-physics studies adapted to this particular fast reactor technology. In the “Introduction” of this paper the framework of this study is discussed, the second section describes the envisaged plant design and the commonly agreed upon modelling guidelines. The third section presents a comparative analysis of the calculations performed by each organisation applying their models and codes to a common agreed transient with the objective to harmonize the models as well as validating the implementation of all relevant physical phenomena in the different system codes.
Resumo:
This paper discusses the torsional response of a scaled reinforced concrete frame structure subjected to several uniaxial shaking table tests. The tested structure is nominally symmetric in the direction of shaking and exhibits torsion attributable to non-uniform yielding of structural components and uncertainties in the building process. Asymmetric behavior is analyzed in terms of displacement, strain in reinforcing bars, energy dissipated at plastic hinges, and damage at section and frame levels. The results show that for low levels of seismic hazard, for which the structure is expected to perform basically within the elastic range, the accidental eccentricity is not a concern for the health of the structure, but it significantly increases the lateral displacement demand in the frames (about 30%) and this might cause significant damage to non-structural components. For high levels of seismic hazard the effects of accidental torsion become less important. These results underline the need to consider accidental eccentricity in evaluating the performance of a structure for very frequent or frequent earthquakes, and suggest that consideration of torsion may be neglected for performance levels associated with rare or very rare earthquakes.
Resumo:
Background: In recent years, Spain has implemented a number of air quality control measures that are expected to lead to a future reduction in fine particle concentrations and an ensuing positive impact on public health. Objectives: We aimed to assess the impact on mortality attributable to a reduction in fine particle levels in Spain in 2014 in relation to the estimated level for 2007. Methods: To estimate exposure, we constructed fine particle distribution models for Spain for 2007 (reference scenario) and 2014 (projected scenario) with a spatial resolution of 16x16 km2. In a second step, we used the concentration-response functions proposed by cohort studies carried out in Europe (European Study of Cohorts for Air Pollution Effects and Rome longitudinal cohort) and North America (American Cancer Society cohort, Harvard Six Cities study and Canadian national cohort) to calculate the number of attributable annual deaths corresponding to all causes, all non-accidental causes, ischemic heart disease and lung cancer among persons aged over 25 years (2005-2007 mortality rate data). We examined the effect of the Spanish demographic shift in our analysis using 2007 and 2012 population figures. Results: Our model suggested that there would be a mean overall reduction in fine particle levels of 1mg/m3 by 2014. Taking into account 2007 population data, between 8 and 15 all-cause deaths per 100,000 population could be postponed annually by the expected reduction in fine particle levels. For specific subgroups, estimates varied from 10 to 30 deaths for all non-accidental causes, from 1 to 5 for lung cancer, and from 2 to 6 for ischemic heart disease. The expected burden of preventable mortality would be even higher in the future due to the Spanish population growth. Taking into account the population older than 30 years in 2012, the absolute mortality impact estimate would increase approximately by 18%. Conclusions: Effective implementation of air quality measures in Spain, in a scenario with a short-term projection, would amount to an appreciable decline infine particle concentrations, and this, in turn, would lead to notable health-related benefits. Recent European cohort studies strengthen the evidence of an association between long-term exposure to fine particles and health effects, and could enhance the health impact quantification in Europe. Air quality models can contribute to improved assessment of air pollution health impact estimates, particularly in study areas without air pollution monitoring data.
Resumo:
One of the main concerns when conducting a dam test is the acute determination of the hydrograph for a specific flood event. The use of 2D direct rainfall hydraulic mathematical models on a finite elements mesh, combined with the efficiency of vector calculus that provides CUDA (Compute Unified Device Architecture) technology, enables nowadays the simulation of complex hydrological models without the need for terrain subbasin and transit splitting (as in HEC-HMS). Both the Spanish PNOA (National Plan of Aereal Orthophotography) Digital Terrain Model GRID with a 5 x 5 m accuracy and the CORINE GIS Land Cover (Coordination of INformation of the Environment) that allows assessment of the ground roughness, provide enough data to easily build these kind of models
Resumo:
La motivación principal de este trabajo fin de máster es el estudio del comportamiento en rotura de un material metálico muy dúctil como es una aleación de aluminio. El conocimiento del comportamiento de los materiales en su régimen plástico es muy valioso, puesto que el concepto de ductilidad de un material está relacionado directamente con la seguridad de una estructura. Un material dúctil es aquel que resiste estados tensionales elevados y alcanza altos niveles de deformación, siendo capaz de absorber gran cantidad de energía antes de su rotura y permitiendo una redistribución de esfuerzos entre elementos estructurales. Por tanto, la utilización de materiales dúctiles en el mundo de la construcción supone en general un incremento de la seguridad estructural por su “capacidad de aviso”, es decir, la deformación que estos materiales experimentan antes de su rotura. Al contrario que los materiales frágiles, que carecen de esta capacidad de aviso antes de su rotura, produciéndose ésta de forma repentina y sin apenas deformación previa. En relación a esto, el ensayo de tracción simple se considera una de las técnicas más sencillas y utilizadas en la caracterización de materiales metálicos, puesto que a partir de la curva fuerza-desplazamiento que este ensayo proporciona, permite obtener de forma precisa la curva tensión-deformación desde el instante de carga máxima. No obstante, existen dificultades para la definición del comportamiento del material desde el instante de carga máxima hasta rotura, lo que provoca que habitualmente no se considere este último tramo de la curva tensión-deformación cuando, tal y como sabemos, contiene una información muy importante y valiosa. Y es que, este último tramo de la curva tensión-deformación es primordial a la hora de determinar la energía máxima que un elemento es capaz de absorber antes de su rotura, aspecto elemental, por ejemplo para conocer si una rotura ha sido accidental o intencionada. Por tanto, el tramo final de la curva tensión-deformación proporciona información muy interesante sobre el comportamiento del material frente a situaciones límite de carga. El objetivo por tanto va a ser continuar con el trabajo realizado por el doctor Ingeniero de Caminos, Canales y Puertos, Fernando Suárez Guerra, el cual estudió en su Tesis Doctoral el comportamiento en rotura de dos materiales metálicos como son, un Material 1: acero perlítico empleado en la fabricación de alambres de pretensado, y un Material 2: acero tipo B 500 SD empleado como armadura pasiva en hormigón armado. Estos materiales presentan un comportamiento a rotura claramente diferenciado, siendo más dúctil el Material 2 que el Material 1. Tomando como partida esta Tesis Doctoral, este Trabajo Fin de Máster pretende continuar con el estudio del comportamiento en rotura de un material metálico mucho más dúctil que los experimentados anteriormente, como es el aluminio. Analizando el último tramo de la curva tensión-deformación, que corresponde al tramo entre el instante de carga máxima y el de rotura del material. Atendiendo a los mecanismos de rotura de un material metálico, es necesario distinguir dos comportamientos distintos. Uno que corresponde a una rotura en forma de copa y cono, y otro que corresponde a una superficie de rotura plana perpendicular a la dirección de aplicación de la carga.
Resumo:
La frecuencia con la que se producen explosiones sobre edificios, ya sean accidentales o intencionadas, es reducida, pero sus efectos pueden ser catastróficos. Es deseable poder predecir de forma suficientemente precisa las consecuencias de estas acciones dinámicas sobre edificaciones civiles, entre las cuales las estructuras reticuladas de hormigón armado son una tipología habitual. En esta tesis doctoral se exploran distintas opciones prácticas para el modelado y cálculo numérico por ordenador de estructuras de hormigón armado sometidas a explosiones. Se emplean modelos numéricos de elementos finitos con integración explícita en el tiempo, que demuestran su capacidad efectiva para simular los fenómenos físicos y estructurales de dinámica rápida y altamente no lineales que suceden, pudiendo predecir los daños ocasionados tanto por la propia explosión como por el posible colapso progresivo de la estructura. El trabajo se ha llevado a cabo empleando el código comercial de elementos finitos LS-DYNA (Hallquist, 2006), desarrollando en el mismo distintos tipos de modelos de cálculo que se pueden clasificar en dos tipos principales: 1) modelos basados en elementos finitos de continuo, en los que se discretiza directamente el medio continuo mediante grados de libertad nodales de desplazamientos; 2) modelos basados en elementos finitos estructurales, mediante vigas y láminas, que incluyen hipótesis cinemáticas para elementos lineales o superficiales. Estos modelos se desarrollan y discuten a varios niveles distintos: 1) a nivel del comportamiento de los materiales, 2) a nivel de la respuesta de elementos estructurales tales como columnas, vigas o losas, y 3) a nivel de la respuesta de edificios completos o de partes significativas de los mismos. Se desarrollan modelos de elementos finitos de continuo 3D muy detallados que modelizan el hormigón en masa y el acero de armado de forma segregada. El hormigón se representa con un modelo constitutivo del hormigón CSCM (Murray et al., 2007), que tiene un comportamiento inelástico, con diferente respuesta a tracción y compresión, endurecimiento, daño por fisuración y compresión, y rotura. El acero se representa con un modelo constitutivo elastoplástico bilineal con rotura. Se modeliza la geometría precisa del hormigón mediante elementos finitos de continuo 3D y cada una de las barras de armado mediante elementos finitos tipo viga, con su posición exacta dentro de la masa de hormigón. La malla del modelo se construye mediante la superposición de los elementos de continuo de hormigón y los elementos tipo viga de las armaduras segregadas, que son obligadas a seguir la deformación del sólido en cada punto mediante un algoritmo de penalización, simulando así el comportamiento del hormigón armado. En este trabajo se denominarán a estos modelos simplificadamente como modelos de EF de continuo. Con estos modelos de EF de continuo se analiza la respuesta estructural de elementos constructivos (columnas, losas y pórticos) frente a acciones explosivas. Asimismo se han comparado con resultados experimentales, de ensayos sobre vigas y losas con distintas cargas de explosivo, verificándose una coincidencia aceptable y permitiendo una calibración de los parámetros de cálculo. Sin embargo estos modelos tan detallados no son recomendables para analizar edificios completos, ya que el elevado número de elementos finitos que serían necesarios eleva su coste computacional hasta hacerlos inviables para los recursos de cálculo actuales. Adicionalmente, se desarrollan modelos de elementos finitos estructurales (vigas y láminas) que, con un coste computacional reducido, son capaces de reproducir el comportamiento global de la estructura con una precisión similar. Se modelizan igualmente el hormigón en masa y el acero de armado de forma segregada. El hormigón se representa con el modelo constitutivo del hormigón EC2 (Hallquist et al., 2013), que también presenta un comportamiento inelástico, con diferente respuesta a tracción y compresión, endurecimiento, daño por fisuración y compresión, y rotura, y se usa en elementos finitos tipo lámina. El acero se representa de nuevo con un modelo constitutivo elastoplástico bilineal con rotura, usando elementos finitos tipo viga. Se modeliza una geometría equivalente del hormigón y del armado, y se tiene en cuenta la posición relativa del acero dentro de la masa de hormigón. Las mallas de ambos se unen mediante nodos comunes, produciendo una respuesta conjunta. En este trabajo se denominarán a estos modelos simplificadamente como modelos de EF estructurales. Con estos modelos de EF estructurales se simulan los mismos elementos constructivos que con los modelos de EF de continuo, y comparando sus respuestas estructurales frente a explosión se realiza la calibración de los primeros, de forma que se obtiene un comportamiento estructural similar con un coste computacional reducido. Se comprueba que estos mismos modelos, tanto los modelos de EF de continuo como los modelos de EF estructurales, son precisos también para el análisis del fenómeno de colapso progresivo en una estructura, y que se pueden utilizar para el estudio simultáneo de los daños de una explosión y el posterior colapso. Para ello se incluyen formulaciones que permiten considerar las fuerzas debidas al peso propio, sobrecargas y los contactos de unas partes de la estructura sobre otras. Se validan ambos modelos con un ensayo a escala real en el que un módulo con seis columnas y dos plantas colapsa al eliminar una de sus columnas. El coste computacional del modelo de EF de continuo para la simulación de este ensayo es mucho mayor que el del modelo de EF estructurales, lo cual hace inviable su aplicación en edificios completos, mientras que el modelo de EF estructurales presenta una respuesta global suficientemente precisa con un coste asumible. Por último se utilizan los modelos de EF estructurales para analizar explosiones sobre edificios de varias plantas, y se simulan dos escenarios con cargas explosivas para un edificio completo, con un coste computacional moderado. The frequency of explosions on buildings whether they are intended or accidental is small, but they can have catastrophic effects. Being able to predict in a accurate enough manner the consequences of these dynamic actions on civil buildings, among which frame-type reinforced concrete buildings are a frequent typology is desirable. In this doctoral thesis different practical options for the modeling and computer assisted numerical calculation of reinforced concrete structures submitted to explosions are explored. Numerical finite elements models with explicit time-based integration are employed, demonstrating their effective capacity in the simulation of the occurring fast dynamic and highly nonlinear physical and structural phenomena, allowing to predict the damage caused by the explosion itself as well as by the possible progressive collapse of the structure. The work has been carried out with the commercial finite elements code LS-DYNA (Hallquist, 2006), developing several types of calculation model classified in two main types: 1) Models based in continuum finite elements in which the continuous medium is discretized directly by means of nodal displacement degrees of freedom; 2) Models based on structural finite elements, with beams and shells, including kinematic hypothesis for linear and superficial elements. These models are developed and discussed at different levels: 1) material behaviour, 2) response of structural elements such as columns, beams and slabs, and 3) response of complete buildings or significative parts of them. Very detailed 3D continuum finite element models are developed, modeling mass concrete and reinforcement steel in a segregated manner. Concrete is represented with a constitutive concrete model CSCM (Murray et al., 2007), that has an inelastic behaviour, with different tension and compression response, hardening, cracking and compression damage and failure. The steel is represented with an elastic-plastic bilinear model with failure. The actual geometry of the concrete is modeled with 3D continuum finite elements and every and each of the reinforcing bars with beam-type finite elements, with their exact position in the concrete mass. The mesh of the model is generated by the superposition of the concrete continuum elements and the beam-type elements of the segregated reinforcement, which are made to follow the deformation of the solid in each point by means of a penalty algorithm, reproducing the behaviour of reinforced concrete. In this work these models will be called continuum FE models as a simplification. With these continuum FE models the response of construction elements (columns, slabs and frames) under explosive actions are analysed. They have also been compared with experimental results of tests on beams and slabs with various explosive charges, verifying an acceptable coincidence and allowing a calibration of the calculation parameters. These detailed models are however not advised for the analysis of complete buildings, as the high number of finite elements necessary raises its computational cost, making them unreliable for the current calculation resources. In addition to that, structural finite elements (beams and shells) models are developed, which, while having a reduced computational cost, are able to reproduce the global behaviour of the structure with a similar accuracy. Mass concrete and reinforcing steel are also modeled segregated. Concrete is represented with the concrete constitutive model EC2 (Hallquist et al., 2013), which also presents an inelastic behaviour, with a different tension and compression response, hardening, compression and cracking damage and failure, and is used in shell-type finite elements. Steel is represented once again with an elastic-plastic bilineal with failure constitutive model, using beam-type finite elements. An equivalent geometry of the concrete and the steel is modeled, considering the relative position of the steel inside the concrete mass. The meshes of both sets of elements are bound with common nodes, therefore producing a joint response. These models will be called structural FE models as a simplification. With these structural FE models the same construction elements as with the continuum FE models are simulated, and by comparing their response under explosive actions a calibration of the former is carried out, resulting in a similar response with a reduced computational cost. It is verified that both the continuum FE models and the structural FE models are also accurate for the analysis of the phenomenon of progressive collapse of a structure, and that they can be employed for the simultaneous study of an explosion damage and the resulting collapse. Both models are validated with an experimental full-scale test in which a six column, two floors module collapses after the removal of one of its columns. The computational cost of the continuum FE model for the simulation of this test is a lot higher than that of the structural FE model, making it non-viable for its application to full buildings, while the structural FE model presents a global response accurate enough with an admissible cost. Finally, structural FE models are used to analyze explosions on several story buildings, and two scenarios are simulated with explosive charges for a full building, with a moderate computational cost.
Resumo:
La metodología Integrated Safety Analysis (ISA), desarrollada en el área de Modelación y Simulación (MOSI) del Consejo de Seguridad Nuclear (CSN), es un método de Análisis Integrado de Seguridad que está siendo evaluado y analizado mediante diversas aplicaciones impulsadas por el CSN; el análisis integrado de seguridad, combina las técnicas evolucionadas de los análisis de seguridad al uso: deterministas y probabilistas. Se considera adecuado para sustentar la Regulación Informada por el Riesgo (RIR), actual enfoque dado a la seguridad nuclear y que está siendo desarrollado y aplicado en todo el mundo. En este contexto se enmarcan, los proyectos Safety Margin Action Plan (SMAP) y Safety Margin Assessment Application (SM2A), impulsados por el Comité para la Seguridad de las Instalaciones Nucleares (CSNI) de la Agencia de la Energía Nuclear (NEA) de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) en el desarrollo del enfoque adecuado para el uso de las metodologías integradas en la evaluación del cambio en los márgenes de seguridad debidos a cambios en las condiciones de las centrales nucleares. El comité constituye un foro para el intercambio de información técnica y de colaboración entre las organizaciones miembro, que aportan sus propias ideas en investigación, desarrollo e ingeniería. La propuesta del CSN es la aplicación de la metodología ISA, especialmente adecuada para el análisis según el enfoque desarrollado en el proyecto SMAP que pretende obtener los valores best-estimate con incertidumbre de las variables de seguridad que son comparadas con los límites de seguridad, para obtener la frecuencia con la que éstos límites son superados. La ventaja que ofrece la ISA es que permite el análisis selectivo y discreto de los rangos de los parámetros inciertos que tienen mayor influencia en la superación de los límites de seguridad, o frecuencia de excedencia del límite, permitiendo así evaluar los cambios producidos por variaciones en el diseño u operación de la central que serían imperceptibles o complicados de cuantificar con otro tipo de metodologías. La ISA se engloba dentro de las metodologías de APS dinámico discreto que utilizan la generación de árboles de sucesos dinámicos (DET) y se basa en la Theory of Stimulated Dynamics (TSD), teoría de fiabilidad dinámica simplificada que permite la cuantificación del riesgo de cada una de las secuencias. Con la ISA se modelan y simulan todas las interacciones relevantes en una central: diseño, condiciones de operación, mantenimiento, actuaciones de los operadores, eventos estocásticos, etc. Por ello requiere la integración de códigos de: simulación termohidráulica y procedimientos de operación; delineación de árboles de sucesos; cuantificación de árboles de fallos y sucesos; tratamiento de incertidumbres e integración del riesgo. La tesis contiene la aplicación de la metodología ISA al análisis integrado del suceso iniciador de la pérdida del sistema de refrigeración de componentes (CCWS) que genera secuencias de pérdida de refrigerante del reactor a través de los sellos de las bombas principales del circuito de refrigerante del reactor (SLOCA). Se utiliza para probar el cambio en los márgenes, con respecto al límite de la máxima temperatura de pico de vaina (1477 K), que sería posible en virtud de un potencial aumento de potencia del 10 % en el reactor de agua a presión de la C.N. Zion. El trabajo realizado para la consecución de la tesis, fruto de la colaboración de la Escuela Técnica Superior de Ingenieros de Minas y Energía y la empresa de soluciones tecnológicas Ekergy Software S.L. (NFQ Solutions) con el área MOSI del CSN, ha sido la base para la contribución del CSN en el ejercicio SM2A. Este ejercicio ha sido utilizado como evaluación del desarrollo de algunas de las ideas, sugerencias, y los algoritmos detrás de la metodología ISA. Como resultado se ha obtenido un ligero aumento de la frecuencia de excedencia del daño (DEF) provocado por el aumento de potencia. Este resultado demuestra la viabilidad de la metodología ISA para obtener medidas de las variaciones en los márgenes de seguridad que han sido provocadas por modificaciones en la planta. También se ha mostrado que es especialmente adecuada en escenarios donde los eventos estocásticos o las actuaciones de recuperación o mitigación de los operadores pueden tener un papel relevante en el riesgo. Los resultados obtenidos no tienen validez más allá de la de mostrar la viabilidad de la metodología ISA. La central nuclear en la que se aplica el estudio está clausurada y la información relativa a sus análisis de seguridad es deficiente, por lo que han sido necesarias asunciones sin comprobación o aproximaciones basadas en estudios genéricos o de otras plantas. Se han establecido tres fases en el proceso de análisis: primero, obtención del árbol de sucesos dinámico de referencia; segundo, análisis de incertidumbres y obtención de los dominios de daño; y tercero, cuantificación del riesgo. Se han mostrado diversas aplicaciones de la metodología y ventajas que presenta frente al APS clásico. También se ha contribuido al desarrollo del prototipo de herramienta para la aplicación de la metodología ISA (SCAIS). ABSTRACT The Integrated Safety Analysis methodology (ISA), developed by the Consejo de Seguridad Nuclear (CSN), is being assessed in various applications encouraged by CSN. An Integrated Safety Analysis merges the evolved techniques of the usually applied safety analysis methodologies; deterministic and probabilistic. It is considered as a suitable tool for assessing risk in a Risk Informed Regulation framework, the approach under development that is being adopted on Nuclear Safety around the world. In this policy framework, the projects Safety Margin Action Plan (SMAP) and Safety Margin Assessment Application (SM2A), set up by the Committee on the Safety of Nuclear Installations (CSNI) of the Nuclear Energy Agency within the Organization for Economic Co-operation and Development (OECD), were aimed to obtain a methodology and its application for the integration of risk and safety margins in the assessment of the changes to the overall safety as a result of changes in the nuclear plant condition. The committee provides a forum for the exchange of technical information and cooperation among member organizations which contribute their respective approaches in research, development and engineering. The ISA methodology, proposed by CSN, specially fits with the SMAP approach that aims at obtaining Best Estimate Plus Uncertainty values of the safety variables to be compared with the safety limits. This makes it possible to obtain the exceedance frequencies of the safety limit. The ISA has the advantage over other methods of allowing the specific and discrete evaluation of the most influential uncertain parameters in the limit exceedance frequency. In this way the changes due to design or operation variation, imperceptibles or complicated to by quantified by other methods, are correctly evaluated. The ISA methodology is one of the discrete methodologies of the Dynamic PSA framework that uses the generation of dynamic event trees (DET). It is based on the Theory of Stimulated Dynamics (TSD), a simplified version of the theory of Probabilistic Dynamics that allows the risk quantification. The ISA models and simulates all the important interactions in a Nuclear Power Plant; design, operating conditions, maintenance, human actuations, stochastic events, etc. In order to that, it requires the integration of codes to obtain: Thermohydraulic and human actuations; Even trees delineation; Fault Trees and Event Trees quantification; Uncertainty analysis and risk assessment. This written dissertation narrates the application of the ISA methodology to the initiating event of the Loss of the Component Cooling System (CCWS) generating sequences of loss of reactor coolant through the seals of the reactor coolant pump (SLOCA). It is used to test the change in margins with respect to the maximum clad temperature limit (1477 K) that would be possible under a potential 10 % power up-rate effected in the pressurized water reactor of Zion NPP. The work done to achieve the thesis, fruit of the collaborative agreement of the School of Mining and Energy Engineering and the company of technological solutions Ekergy Software S.L. (NFQ Solutions) with de specialized modeling and simulation branch of the CSN, has been the basis for the contribution of the CSN in the exercise SM2A. This exercise has been used as an assessment of the development of some of the ideas, suggestions, and algorithms behind the ISA methodology. It has been obtained a slight increase in the Damage Exceedance Frequency (DEF) caused by the power up-rate. This result shows that ISA methodology allows quantifying the safety margin change when design modifications are performed in a NPP and is specially suitable for scenarios where stochastic events or human responses have an important role to prevent or mitigate the accidental consequences and the total risk. The results do not have any validity out of showing the viability of the methodology ISA. Zion NPP was retired and information of its safety analysis is scarce, so assumptions without verification or approximations based on generic studies have been required. Three phases are established in the analysis process: first, obtaining the reference dynamic event tree; second, uncertainty analysis and obtaining the damage domains; third, risk quantification. There have been shown various applications of the methodology and advantages over the classical PSA. It has also contributed to the development of the prototype tool for the implementation of the ISA methodology (SCAIS).
Resumo:
Como indica el título, esta tesis plantea el estudio de la arquitectura doméstica elaborada por los arquitectos japoneses Kazuyo Sejima y Ryue Nishizawa. Más concretamente, la investigación se ciñe a un conjunto integrado por veinticinco casas que los arquitectos proyectaron entre 1987, momento en el que Sejima establece su propia oficina, y 2010, fecha en la que el reconocimiento del trabajo que ambos venían desarrollando queda certificado a nivel internacional, ya que ese año son galardonados con el premio Pritzker y comisarían la Bienal deVenecia. Del estudio conjunto y sistemático de estos proyectos, y de sus distintas versiones se espera poder obtener una serie de criterios exegéticos que permitan comprenderlos y explicarlos mejor, relacionándolos entre sí de manera coherente. A estos criterios es a lo que hemos denominado estrategias. En el momento en el que se inicia esta investigación se detectó un vacío editorial respecto al tema tratado, apenas había textos, propios o ajenos que abordaran esta faceta de la obra de Sejima y Nishizawa en profundidad. No en vano, algunos críticos han acuñado el apelativo de "arquitectos sin palabras" para referirse, tanto a ellos como a la generación de arquitectos que la pareja encabeza, dando a entender que se trata de una arquitectura carente de explicación.1 Sin embargo, esta investigación sostiene que el hecho de que los arquitectos no hablen en exceso de su obra y mantengan una actitud centrada en desarrollar de forma práctica su trabajo no quiere decir que prescindan de realizar operaciones compositivas altamente idealizadas y abstractas, refrendadas por un marco cultural y teórico que se pueda describir. Tras recopilar, ordenar y analizar un número lo suficientemente amplio como para ser significativo de las manifestaciones verbales que los arquitectos han realizado a lo largo del periodo estudiado, se ha observado que de entre todos los términos que los dos socios que integran SANAA emplean para describir sus proyectos, uno de los más relevantes y quizás también el más general resulta la palabra “sistema”.2 El modo en el que ambos describen los principios de su arquitectura, diferenciando entre los componentes del programa, y las relaciones que se establecen entre éstos, y entre ellos y el exterior permiten sostener que no se trata de un uso accidental término. Paralelamente, al mismo tiempo que se indaga sobre el corpus intelectual de esta teoría se intenta detallar las circunstancias que favorecieron tal trasvase de ideas entre Occidente y Japón y como acabaron llegando al ámbito de estos arquitectos. Al amparo de este marco teórico y tras redibujar las viviendas documentadas, se intentará describir los rasgos de la estructura material de las viviendas analizadas, así como cartografiar los patrones organizativos que las caracterizan. Para ello se empleará el rigor instrumental que aporta la teoría de grafos como método habitual para la representación, estudio y caracterización de sistemas. Los resultados de la investigación evidencian que hay una serie de estrategias — tanto materiales como organizativas— que enunciadas en sus primeros proyectos se van desarrollando en obras posteriores, conformado sistemas que están paulatinamente más organizados. Y que llegado un punto en la trayectoria de estos arquitectos, se observa que tales estrategias, se van superponiendo de distinta forma en diversos proyectos, por lo que es posible agruparlos y hablar de ellos atendiendo a características comunes. Finalmente, el estudio concluye que tanto a nivel material como reladonal, bien podría decirse que en el periodo estudiado, las estrategias empleadas por Sejima y Nishizawa para elaborar su arquitectura doméstica persiguen un objetivo común que se fundamenta en la elaboración de planteamientos sintéticos que les permiten explorar y responder creativamente ante las disyuntivas previamente establecidas, precisamente explotando el potencial de las paradojas que las originan. ABSTRACT As the title suggest itself, this thesis deals about the study of domestic architecture developed by Japanese architects Kazuyo Sejima and Ryue Nishizawa. More specifically, research focus its attention on a group of twenty five houses that both architects projected from 1987, when Sejima establishes her own practice, and 2010, as the moment in which their work obtains international acknowledgment, since this year they are awarded the Pritzker prize and cúrate the Venice Biennale. From the combined and systematic study of all these projects, and their different versions are expected to obtain a series of exegetical criteria to relate to each other, understand and explain better. These criteria are what we cali strategies. By the time when this research began, an editorial emptiness about the treaty issue was detected; there were barely texts that addressed this aspect of the work of Sejima and Nishizawa in depth, neither the ones written by the architects themselves ñor by other authors. Some critics have coined the ñame "wordless generation" to refer to both them as to the generation of architects that the couple leads, implying that it is an architecture devoid of explanation.3 However, this study argües that the fact that architects do not speak too much about his work and keep themselves focused on developing practical work attitude does not mean that dispense perform highly idealized and abstract compositional operations, fueled by a frame cultural and theoretical that can be described. After collect, sort and analyze a large enough number of verbal statements done by the architects about their work as to be meaningful, it was observed that of all the terms that the two partners that intégrate SANAA used to describe their projects, one of the most important and, perhaps one of the most general, is the word "system".4 The way in which both describe the principies of their architecture distinguishing between program components and the relationships established between them, and between them and the outside allow us the view that it is not accidental use of a term. Similarly, while it investigates the intellectual corpus of this theory it attempts to explain some of the circumstances that favored such transfer of ideas between the West and Japan and how eventually reaching the scope of these architects. Under this framework and after redraw the documented houses we attempt to describe the characteristics of the material structure of the projects tested, as well as mapping the organizational patterns that characterize them. For this, we use the instrumental rigor that brings graph theory, as a regular method of representation, study and characterization of systems used. The research results show that there are a number of strategies -both material and organizational level- that once they are set out in its first projects are developed in later works. Bringing up systems that are gradually more and more organized. And at one point in the career of these architects, such strategies are observed, they are superimposed differently on various projects, making it possible to group them and discuss them according to common characteristics. Finally, the study condueles that both materially and organizational it could be said that in the period studied, the strategies employed by Sejima and Nishizawa to develop its domestic architecture pursue a common goal, which is based on the development of synthetic approaches that allow them explore and respond creatively to the previously established dilemmas precisely exploiting the paradoxical potential that originates them.
Resumo:
El accidente de pérdida de refrigerante (LOCA) en un reactor nuclear es uno de los accidentes Base de Diseño más preocupantes y estudiados desde el origen del uso de la tecnología de fisión en la industria productora de energía. El LOCA ocupa, desde el punto de vista de los análisis de seguridad, un lugar de vanguardia tanto en el análisis determinista (DSA) como probabilista (PSA), cuya diferenciada perspectiva ha ido evolucionando notablemente en lo que al crédito a la actuación de las salvaguardias y las acciones del operador se refiere. En la presente tesis se aborda el análisis sistemático de de las secuencias de LOCA por pequeña y mediana rotura en diferentes lugares de un reactor nuclear de agua a presión (PWR) con fallo total de Inyección de Seguridad de Alta Presión (HPSI). Tal análisis ha sido desarrollado en base a la metodología de Análisis Integrado de Seguridad (ISA), desarrollado por el Consejo de Seguridad Nuclear (CSN) y consistente en la aplicación de métodos avanzados de simulación y PSA para la obtención de Dominios de Daño, que cuantifican topológicamente las probabilidades de éxito y daño en función de determinados parámetros inciertos. Para la elaboración de la presente tesis, se ha hecho uso del código termohidráulico TRACE v5.0 (patch 2), avalado por la NRC de los EEUU como código de planta para la simulación y análisis de secuencias en reactores de agua ligera (LWR). Los objetivos del trabajo son, principalmente: (1) el análisis exhaustivo de las secuencias de LOCA por pequeña-mediana rotura en diferentes lugares de un PWR de tres lazos de diseño Westinghouse (CN Almaraz), con fallo de HPSI, en función de parámetros de gran importancia para los transitorios, tales como el tamaño de rotura y el tiempo de retraso en la respuesta del operador; (2) la obtención y análisis de los Dominios de Daño para transitorios de LOCA en PWRs, de acuerdo con la metodología ISA; y (3) la revisión de algunos de los resultados genéricos de los análisis de seguridad para secuencias de LOCA en las mencionadas condiciones. Los resultados de la tesis abarcan tres áreas bien diferenciadas a lo largo del trabajo: (a) la fenomenología física de las secuencias objeto de estudio; (b) las conclusiones de los análisis de seguridad practicados a los transitorios de LOCA; y (c) la relevancia de las consecuencias de las acciones humanas por parte del grupo de operación. Estos resultados, a su vez, son de dos tipos fundamentales: (1) de respaldo del conocimiento previo sobre el tipo de secuencias analizado, incluido en la extensa bibliografía examinada; y (2) hallazgos en cada una de las tres áreas mencionadas, no referidos en la bibliografía. En resumidas cuentas, los resultados de la tesis avalan el uso de la metodología ISA como método de análisis alternativo y sistemático para secuencias accidentales en LWRs. ABSTRACT The loss of coolant accident (LOCA) in nuclear reactors is one of the most concerning and analized accidents from the beginning of the use of fission technology for electric power production. From the point of view of safety analyses, LOCA holds a forefront place in both Deterministic (DSA) and Probabilistic Safety Analysis (PSA), which have significantly evolved from their original state in both safeguard performance credibility and human actuation. This thesis addresses a systematic analysis of small and medium LOCA sequences, in different places of a nuclear Pressurized Water Reactor (PWR) and with total failure of High Pressure Safety Injection (HPSI). Such an analysis has been grounded on the Integrated Safety Assessment (ISA) methodology, developed by the Spanish Nuclear Regulatory Body (CSN). ISA involves the application of advanced methods of simulation and PSA for obtaining Damage Domains that topologically quantify the likelihood of success and damage regarding certain uncertain parameters.TRACE v5.0 (patch 2) code has been used as the thermalhydraulic simulation tool for the elaboration of this work. Nowadays, TRACE is supported by the US NRC as a plant code for the simulation and analysis of sequences in light water reactors (LWR). The main objectives of the work are the following ones: (1) the in-depth analysis of small and medium LOCA sequences in different places of a Westinghouse three-loop PWR (Almaraz NPP), with failed HPSI, regarding important parameters, such as break size or delay in operator response; (2) obtainment and analysis of Damage Domains related to LOCA transients in PWRs, according to ISA methodology; and (3) review some of the results of generic safety analyses for LOCA sequences in those conditions. The results of the thesis cover three separated areas: (a) the physical phenomenology of the sequences under study; (b) the conclusions of LOCA safety analyses; and (c) the importance of consequences of human actions by the operating crew. These results, in turn, are of two main types: (1) endorsement of previous knowledge about this kind of sequences, which is included in the literature; and (2) findings in each of the three aforementioned areas, not reported in the reviewed literature. In short, the results of this thesis support the use of ISA-like methodology as an alternative method for systematic analysis of LWR accidental sequences.
Resumo:
El buen dimensionado de los elementos de evacuación de los edificios es fundamental para conseguir una evacuación segura de los ocupantes en un evento accidental de fuego. Para ello es necesario conocer previamente la asignación de personas que previsiblemente los van a utilizar en caso de emergencia. En el presente trabajo de investigación, se desarrolla un método de cálculo que permite abarcar todos los escenarios posibles de bloqueos en caso de incendio permitiendo así conocer de antemano las distribuciones de personas en las vías de evacuación de manera conservadora. Dicho método de cálculo es aplicable tanto la justificación del cumplimiento de CTE DB-SI3, como en cualquier reglamentación internacional de protección contra incendios. ABSTRACT A good dimensioning of egress and elements of evacuation in buildings is essential for a safe evacuation of occupants in event of accidental fire. This requires prior knowledge of allocated number of people that will use them in an emergency. In this research, a calculation method is developed to cover every possible scenario of unavailable exit in case of fire, thereby allowing to know in advance the distributions of people on the escape routes and conservatively. This calculation method is applicable to both the confirmation of compliance with Spanish regulations, as in any international fire code.
Resumo:
Gordon Matta-Clark es el origen de la presente investigación. Su obra, de total actualidad, ha ido ganando interés entre la comunidad de arquitectos, si bien su dimensión teórica se ha visto a menudo eclipsada por el poderoso atractivo de sus aberturas, cortes y extracciones. Son muchos los investigadores que detectan una carencia en el estudio de su corpus de pensamiento desde el campo de la crítica arquitectónica a la que está inevitablemente vinculado, a pesar de haber puesto en marcha una potente maquinaria de criticismo. Se constata a su vez la problemática existente al construir dialécticas entre la obra de Gordon Matta-Clark y el ámbito de la práctica arquitectónica. Surgen áreas forzadas de reflexión al elevar ambas esferas al mismo plano, achacado a un desconocimiento de las motivaciones críticas e históricas del proyecto del arquitecto. Aparece de modo recurrente un intento por establecer una dialéctica que, sin embargo, es relegada constantemente a una colección de notas al pie de página: Rem Koolhaas es sesgadamente mencionado por la crítica como el digno continuador accidental de las teorías de Gordon Matta-Clark. Se inicia así la construcción de una dialéctica que permanece aún sin resolver. Rem Koolhaas, en una entrevista en la que vierte su opinión sobre Gordon Matta-Clark, lo considera el precursor accidental de su ‘estrategia de vacío’, reconociendo en su trabajo procesos de adición a través de eliminación como método de creación de espacio arquitectónico. Una visión incisiva que desdeña su faceta de artista destructor destacando su habilidad para inocular el vacío mediante el empleo de herramientas de adición a través de eliminación. Estas premisas dan lugar de forma automática a la hipótesis de partida: la formalización de una investigación que llene ese vacío estableciendo un fuego cruzado entre ambos arquitectos, los cuales comparten de manera fortuita época y escenarios. El discurso de Rem Koolhaas iluminará el pensamiento de Gordon Matta-Clark vinculando sus respectivas plataformas de producción teórica, construyendo un espacio metafórico común en torno a la palabra y la imagen, herramientas que ambos manejan con habilidad y fluidez. Las propuestas del grupo Anarchitecture y las Art Cards o recortes anárquicos de soliloquios mattaclarkianos encuentran su réplica en el diccionario de términos e imágenes “Small, Medium, Large, Extra-Large”, descrito por Rem Koolhaas como una acumulación de palabras e imágenes que ilumina la condición de la arquitectura actual. La investigación establece una profusa asociación de ideas, imágenes y parlamentos que navegan en el universo referencial de Rem Koolhaas aportando una nueva visión sobre la dimensión crítica de Gordon Matta-Clark. Una visión poliédrica alrededor de cinco conceptos clave y un glosario de estrategias de proyecto que abren nuevos umbrales en los que la adición a través de la eliminación se repite hasta la saciedad transformado en mantra arquitectónico. ABSTRACT The present research finds its origins in Gordon Matta-Clark. His work, still relevant today, has been gaining interest within the community of architects, although its theoretical dimension has often been overshadowed by the powerful attraction of his openings, cuts and extractions. Many researchers detect a lack in the study of his body of thought from the field of architectural criticism to which he is inevitably associated, despite having launched a powerful machinery of criticism. It is noted at the same time the problem appeared when different dialectics between the work of Gordon Matta-Clark and the field of architectural practice are established. Forced areas of thought emerge when both fields are observed from the same point of view, derived from a lack of knowledge of the critical and historical motivations of the architect project. An attempt to establish a dialectical relationship with another architect appears recurrently in different books and writings. However it is steadily consigned to a collection of insignificant footnotes: the critics mention Rem Koolhaas as the worthy accidental successor of the theories of Gordon Matta-Clark. The construction of a dialectic that remains unresolved begins at this point. Gordon Matta-Clark is considered by Rem Koolhaas the accidental predecessor of his ‘strategy of emptiness’ -in an interview in which he pours his opinion on him- recognizing processes of addition through elimination in the work of Matta-Clark as a method of building architectural space. Rem Koolhaas rejects his role as destructor artist highlighting his ability to inoculate the emptiness by using addition tools through elimination. These premises lead us automatically to the hypothesis of the research: the formalization of research that will fill the emptiness by setting a crossfire between both architects, who share by chance the same scenarios and time. The discourse given by Rem Koolhaas illuminates Gordon Matta-Clark´s thought by linking their respective theoretical work platforms, building a common metaphorical space around word and image as tools managed by both of them with expertise and fluency. The Anarchitecture proposals and the Art Cards -anarchic cuts of Matta-Clark´s thought- find its counterpart in the dictionary of terms and images included in “Small, Medium, Large, Extra- Large”, described by Rem Koolhaas as an accumulation of words and images that illuminates the condition of architecture today. The research provides a wide range of associations of ideas, images and discussions around the universe of references of Rem Koolhaas, offering a new insight into the critical dimension of the work of Gordon Matta-Clark. A multifaceted vision around five key concepts and a glossary of project strategies that opens up new thresholds in which addition through elimination is repeated endlessly becoming an architectural mantra.