638 resultados para Accidental drowning


Relevância:

10.00% 10.00%

Publicador:

Resumo:

One of the main concerns when conducting a dam test is the acute determination of the hydrograph for a specific flood event. The use of 2D direct rainfall hydraulic mathematical models on a finite elements mesh, combined with the efficiency of vector calculus that provides CUDA (Compute Unified Device Architecture) technology, enables nowadays the simulation of complex hydrological models without the need for terrain subbasin and transit splitting (as in HEC-HMS). Both the Spanish PNOA (National Plan of Aereal Orthophotography) Digital Terrain Model GRID with a 5 x 5 m accuracy and the CORINE GIS Land Cover (Coordination of INformation of the Environment) that allows assessment of the ground roughness, provide enough data to easily build these kind of models

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La motivación principal de este trabajo fin de máster es el estudio del comportamiento en rotura de un material metálico muy dúctil como es una aleación de aluminio. El conocimiento del comportamiento de los materiales en su régimen plástico es muy valioso, puesto que el concepto de ductilidad de un material está relacionado directamente con la seguridad de una estructura. Un material dúctil es aquel que resiste estados tensionales elevados y alcanza altos niveles de deformación, siendo capaz de absorber gran cantidad de energía antes de su rotura y permitiendo una redistribución de esfuerzos entre elementos estructurales. Por tanto, la utilización de materiales dúctiles en el mundo de la construcción supone en general un incremento de la seguridad estructural por su “capacidad de aviso”, es decir, la deformación que estos materiales experimentan antes de su rotura. Al contrario que los materiales frágiles, que carecen de esta capacidad de aviso antes de su rotura, produciéndose ésta de forma repentina y sin apenas deformación previa. En relación a esto, el ensayo de tracción simple se considera una de las técnicas más sencillas y utilizadas en la caracterización de materiales metálicos, puesto que a partir de la curva fuerza-desplazamiento que este ensayo proporciona, permite obtener de forma precisa la curva tensión-deformación desde el instante de carga máxima. No obstante, existen dificultades para la definición del comportamiento del material desde el instante de carga máxima hasta rotura, lo que provoca que habitualmente no se considere este último tramo de la curva tensión-deformación cuando, tal y como sabemos, contiene una información muy importante y valiosa. Y es que, este último tramo de la curva tensión-deformación es primordial a la hora de determinar la energía máxima que un elemento es capaz de absorber antes de su rotura, aspecto elemental, por ejemplo para conocer si una rotura ha sido accidental o intencionada. Por tanto, el tramo final de la curva tensión-deformación proporciona información muy interesante sobre el comportamiento del material frente a situaciones límite de carga. El objetivo por tanto va a ser continuar con el trabajo realizado por el doctor Ingeniero de Caminos, Canales y Puertos, Fernando Suárez Guerra, el cual estudió en su Tesis Doctoral el comportamiento en rotura de dos materiales metálicos como son, un Material 1: acero perlítico empleado en la fabricación de alambres de pretensado, y un Material 2: acero tipo B 500 SD empleado como armadura pasiva en hormigón armado. Estos materiales presentan un comportamiento a rotura claramente diferenciado, siendo más dúctil el Material 2 que el Material 1. Tomando como partida esta Tesis Doctoral, este Trabajo Fin de Máster pretende continuar con el estudio del comportamiento en rotura de un material metálico mucho más dúctil que los experimentados anteriormente, como es el aluminio. Analizando el último tramo de la curva tensión-deformación, que corresponde al tramo entre el instante de carga máxima y el de rotura del material. Atendiendo a los mecanismos de rotura de un material metálico, es necesario distinguir dos comportamientos distintos. Uno que corresponde a una rotura en forma de copa y cono, y otro que corresponde a una superficie de rotura plana perpendicular a la dirección de aplicación de la carga.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La frecuencia con la que se producen explosiones sobre edificios, ya sean accidentales o intencionadas, es reducida, pero sus efectos pueden ser catastróficos. Es deseable poder predecir de forma suficientemente precisa las consecuencias de estas acciones dinámicas sobre edificaciones civiles, entre las cuales las estructuras reticuladas de hormigón armado son una tipología habitual. En esta tesis doctoral se exploran distintas opciones prácticas para el modelado y cálculo numérico por ordenador de estructuras de hormigón armado sometidas a explosiones. Se emplean modelos numéricos de elementos finitos con integración explícita en el tiempo, que demuestran su capacidad efectiva para simular los fenómenos físicos y estructurales de dinámica rápida y altamente no lineales que suceden, pudiendo predecir los daños ocasionados tanto por la propia explosión como por el posible colapso progresivo de la estructura. El trabajo se ha llevado a cabo empleando el código comercial de elementos finitos LS-DYNA (Hallquist, 2006), desarrollando en el mismo distintos tipos de modelos de cálculo que se pueden clasificar en dos tipos principales: 1) modelos basados en elementos finitos de continuo, en los que se discretiza directamente el medio continuo mediante grados de libertad nodales de desplazamientos; 2) modelos basados en elementos finitos estructurales, mediante vigas y láminas, que incluyen hipótesis cinemáticas para elementos lineales o superficiales. Estos modelos se desarrollan y discuten a varios niveles distintos: 1) a nivel del comportamiento de los materiales, 2) a nivel de la respuesta de elementos estructurales tales como columnas, vigas o losas, y 3) a nivel de la respuesta de edificios completos o de partes significativas de los mismos. Se desarrollan modelos de elementos finitos de continuo 3D muy detallados que modelizan el hormigón en masa y el acero de armado de forma segregada. El hormigón se representa con un modelo constitutivo del hormigón CSCM (Murray et al., 2007), que tiene un comportamiento inelástico, con diferente respuesta a tracción y compresión, endurecimiento, daño por fisuración y compresión, y rotura. El acero se representa con un modelo constitutivo elastoplástico bilineal con rotura. Se modeliza la geometría precisa del hormigón mediante elementos finitos de continuo 3D y cada una de las barras de armado mediante elementos finitos tipo viga, con su posición exacta dentro de la masa de hormigón. La malla del modelo se construye mediante la superposición de los elementos de continuo de hormigón y los elementos tipo viga de las armaduras segregadas, que son obligadas a seguir la deformación del sólido en cada punto mediante un algoritmo de penalización, simulando así el comportamiento del hormigón armado. En este trabajo se denominarán a estos modelos simplificadamente como modelos de EF de continuo. Con estos modelos de EF de continuo se analiza la respuesta estructural de elementos constructivos (columnas, losas y pórticos) frente a acciones explosivas. Asimismo se han comparado con resultados experimentales, de ensayos sobre vigas y losas con distintas cargas de explosivo, verificándose una coincidencia aceptable y permitiendo una calibración de los parámetros de cálculo. Sin embargo estos modelos tan detallados no son recomendables para analizar edificios completos, ya que el elevado número de elementos finitos que serían necesarios eleva su coste computacional hasta hacerlos inviables para los recursos de cálculo actuales. Adicionalmente, se desarrollan modelos de elementos finitos estructurales (vigas y láminas) que, con un coste computacional reducido, son capaces de reproducir el comportamiento global de la estructura con una precisión similar. Se modelizan igualmente el hormigón en masa y el acero de armado de forma segregada. El hormigón se representa con el modelo constitutivo del hormigón EC2 (Hallquist et al., 2013), que también presenta un comportamiento inelástico, con diferente respuesta a tracción y compresión, endurecimiento, daño por fisuración y compresión, y rotura, y se usa en elementos finitos tipo lámina. El acero se representa de nuevo con un modelo constitutivo elastoplástico bilineal con rotura, usando elementos finitos tipo viga. Se modeliza una geometría equivalente del hormigón y del armado, y se tiene en cuenta la posición relativa del acero dentro de la masa de hormigón. Las mallas de ambos se unen mediante nodos comunes, produciendo una respuesta conjunta. En este trabajo se denominarán a estos modelos simplificadamente como modelos de EF estructurales. Con estos modelos de EF estructurales se simulan los mismos elementos constructivos que con los modelos de EF de continuo, y comparando sus respuestas estructurales frente a explosión se realiza la calibración de los primeros, de forma que se obtiene un comportamiento estructural similar con un coste computacional reducido. Se comprueba que estos mismos modelos, tanto los modelos de EF de continuo como los modelos de EF estructurales, son precisos también para el análisis del fenómeno de colapso progresivo en una estructura, y que se pueden utilizar para el estudio simultáneo de los daños de una explosión y el posterior colapso. Para ello se incluyen formulaciones que permiten considerar las fuerzas debidas al peso propio, sobrecargas y los contactos de unas partes de la estructura sobre otras. Se validan ambos modelos con un ensayo a escala real en el que un módulo con seis columnas y dos plantas colapsa al eliminar una de sus columnas. El coste computacional del modelo de EF de continuo para la simulación de este ensayo es mucho mayor que el del modelo de EF estructurales, lo cual hace inviable su aplicación en edificios completos, mientras que el modelo de EF estructurales presenta una respuesta global suficientemente precisa con un coste asumible. Por último se utilizan los modelos de EF estructurales para analizar explosiones sobre edificios de varias plantas, y se simulan dos escenarios con cargas explosivas para un edificio completo, con un coste computacional moderado. The frequency of explosions on buildings whether they are intended or accidental is small, but they can have catastrophic effects. Being able to predict in a accurate enough manner the consequences of these dynamic actions on civil buildings, among which frame-type reinforced concrete buildings are a frequent typology is desirable. In this doctoral thesis different practical options for the modeling and computer assisted numerical calculation of reinforced concrete structures submitted to explosions are explored. Numerical finite elements models with explicit time-based integration are employed, demonstrating their effective capacity in the simulation of the occurring fast dynamic and highly nonlinear physical and structural phenomena, allowing to predict the damage caused by the explosion itself as well as by the possible progressive collapse of the structure. The work has been carried out with the commercial finite elements code LS-DYNA (Hallquist, 2006), developing several types of calculation model classified in two main types: 1) Models based in continuum finite elements in which the continuous medium is discretized directly by means of nodal displacement degrees of freedom; 2) Models based on structural finite elements, with beams and shells, including kinematic hypothesis for linear and superficial elements. These models are developed and discussed at different levels: 1) material behaviour, 2) response of structural elements such as columns, beams and slabs, and 3) response of complete buildings or significative parts of them. Very detailed 3D continuum finite element models are developed, modeling mass concrete and reinforcement steel in a segregated manner. Concrete is represented with a constitutive concrete model CSCM (Murray et al., 2007), that has an inelastic behaviour, with different tension and compression response, hardening, cracking and compression damage and failure. The steel is represented with an elastic-plastic bilinear model with failure. The actual geometry of the concrete is modeled with 3D continuum finite elements and every and each of the reinforcing bars with beam-type finite elements, with their exact position in the concrete mass. The mesh of the model is generated by the superposition of the concrete continuum elements and the beam-type elements of the segregated reinforcement, which are made to follow the deformation of the solid in each point by means of a penalty algorithm, reproducing the behaviour of reinforced concrete. In this work these models will be called continuum FE models as a simplification. With these continuum FE models the response of construction elements (columns, slabs and frames) under explosive actions are analysed. They have also been compared with experimental results of tests on beams and slabs with various explosive charges, verifying an acceptable coincidence and allowing a calibration of the calculation parameters. These detailed models are however not advised for the analysis of complete buildings, as the high number of finite elements necessary raises its computational cost, making them unreliable for the current calculation resources. In addition to that, structural finite elements (beams and shells) models are developed, which, while having a reduced computational cost, are able to reproduce the global behaviour of the structure with a similar accuracy. Mass concrete and reinforcing steel are also modeled segregated. Concrete is represented with the concrete constitutive model EC2 (Hallquist et al., 2013), which also presents an inelastic behaviour, with a different tension and compression response, hardening, compression and cracking damage and failure, and is used in shell-type finite elements. Steel is represented once again with an elastic-plastic bilineal with failure constitutive model, using beam-type finite elements. An equivalent geometry of the concrete and the steel is modeled, considering the relative position of the steel inside the concrete mass. The meshes of both sets of elements are bound with common nodes, therefore producing a joint response. These models will be called structural FE models as a simplification. With these structural FE models the same construction elements as with the continuum FE models are simulated, and by comparing their response under explosive actions a calibration of the former is carried out, resulting in a similar response with a reduced computational cost. It is verified that both the continuum FE models and the structural FE models are also accurate for the analysis of the phenomenon of progressive collapse of a structure, and that they can be employed for the simultaneous study of an explosion damage and the resulting collapse. Both models are validated with an experimental full-scale test in which a six column, two floors module collapses after the removal of one of its columns. The computational cost of the continuum FE model for the simulation of this test is a lot higher than that of the structural FE model, making it non-viable for its application to full buildings, while the structural FE model presents a global response accurate enough with an admissible cost. Finally, structural FE models are used to analyze explosions on several story buildings, and two scenarios are simulated with explosive charges for a full building, with a moderate computational cost.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La metodología Integrated Safety Analysis (ISA), desarrollada en el área de Modelación y Simulación (MOSI) del Consejo de Seguridad Nuclear (CSN), es un método de Análisis Integrado de Seguridad que está siendo evaluado y analizado mediante diversas aplicaciones impulsadas por el CSN; el análisis integrado de seguridad, combina las técnicas evolucionadas de los análisis de seguridad al uso: deterministas y probabilistas. Se considera adecuado para sustentar la Regulación Informada por el Riesgo (RIR), actual enfoque dado a la seguridad nuclear y que está siendo desarrollado y aplicado en todo el mundo. En este contexto se enmarcan, los proyectos Safety Margin Action Plan (SMAP) y Safety Margin Assessment Application (SM2A), impulsados por el Comité para la Seguridad de las Instalaciones Nucleares (CSNI) de la Agencia de la Energía Nuclear (NEA) de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) en el desarrollo del enfoque adecuado para el uso de las metodologías integradas en la evaluación del cambio en los márgenes de seguridad debidos a cambios en las condiciones de las centrales nucleares. El comité constituye un foro para el intercambio de información técnica y de colaboración entre las organizaciones miembro, que aportan sus propias ideas en investigación, desarrollo e ingeniería. La propuesta del CSN es la aplicación de la metodología ISA, especialmente adecuada para el análisis según el enfoque desarrollado en el proyecto SMAP que pretende obtener los valores best-estimate con incertidumbre de las variables de seguridad que son comparadas con los límites de seguridad, para obtener la frecuencia con la que éstos límites son superados. La ventaja que ofrece la ISA es que permite el análisis selectivo y discreto de los rangos de los parámetros inciertos que tienen mayor influencia en la superación de los límites de seguridad, o frecuencia de excedencia del límite, permitiendo así evaluar los cambios producidos por variaciones en el diseño u operación de la central que serían imperceptibles o complicados de cuantificar con otro tipo de metodologías. La ISA se engloba dentro de las metodologías de APS dinámico discreto que utilizan la generación de árboles de sucesos dinámicos (DET) y se basa en la Theory of Stimulated Dynamics (TSD), teoría de fiabilidad dinámica simplificada que permite la cuantificación del riesgo de cada una de las secuencias. Con la ISA se modelan y simulan todas las interacciones relevantes en una central: diseño, condiciones de operación, mantenimiento, actuaciones de los operadores, eventos estocásticos, etc. Por ello requiere la integración de códigos de: simulación termohidráulica y procedimientos de operación; delineación de árboles de sucesos; cuantificación de árboles de fallos y sucesos; tratamiento de incertidumbres e integración del riesgo. La tesis contiene la aplicación de la metodología ISA al análisis integrado del suceso iniciador de la pérdida del sistema de refrigeración de componentes (CCWS) que genera secuencias de pérdida de refrigerante del reactor a través de los sellos de las bombas principales del circuito de refrigerante del reactor (SLOCA). Se utiliza para probar el cambio en los márgenes, con respecto al límite de la máxima temperatura de pico de vaina (1477 K), que sería posible en virtud de un potencial aumento de potencia del 10 % en el reactor de agua a presión de la C.N. Zion. El trabajo realizado para la consecución de la tesis, fruto de la colaboración de la Escuela Técnica Superior de Ingenieros de Minas y Energía y la empresa de soluciones tecnológicas Ekergy Software S.L. (NFQ Solutions) con el área MOSI del CSN, ha sido la base para la contribución del CSN en el ejercicio SM2A. Este ejercicio ha sido utilizado como evaluación del desarrollo de algunas de las ideas, sugerencias, y los algoritmos detrás de la metodología ISA. Como resultado se ha obtenido un ligero aumento de la frecuencia de excedencia del daño (DEF) provocado por el aumento de potencia. Este resultado demuestra la viabilidad de la metodología ISA para obtener medidas de las variaciones en los márgenes de seguridad que han sido provocadas por modificaciones en la planta. También se ha mostrado que es especialmente adecuada en escenarios donde los eventos estocásticos o las actuaciones de recuperación o mitigación de los operadores pueden tener un papel relevante en el riesgo. Los resultados obtenidos no tienen validez más allá de la de mostrar la viabilidad de la metodología ISA. La central nuclear en la que se aplica el estudio está clausurada y la información relativa a sus análisis de seguridad es deficiente, por lo que han sido necesarias asunciones sin comprobación o aproximaciones basadas en estudios genéricos o de otras plantas. Se han establecido tres fases en el proceso de análisis: primero, obtención del árbol de sucesos dinámico de referencia; segundo, análisis de incertidumbres y obtención de los dominios de daño; y tercero, cuantificación del riesgo. Se han mostrado diversas aplicaciones de la metodología y ventajas que presenta frente al APS clásico. También se ha contribuido al desarrollo del prototipo de herramienta para la aplicación de la metodología ISA (SCAIS). ABSTRACT The Integrated Safety Analysis methodology (ISA), developed by the Consejo de Seguridad Nuclear (CSN), is being assessed in various applications encouraged by CSN. An Integrated Safety Analysis merges the evolved techniques of the usually applied safety analysis methodologies; deterministic and probabilistic. It is considered as a suitable tool for assessing risk in a Risk Informed Regulation framework, the approach under development that is being adopted on Nuclear Safety around the world. In this policy framework, the projects Safety Margin Action Plan (SMAP) and Safety Margin Assessment Application (SM2A), set up by the Committee on the Safety of Nuclear Installations (CSNI) of the Nuclear Energy Agency within the Organization for Economic Co-operation and Development (OECD), were aimed to obtain a methodology and its application for the integration of risk and safety margins in the assessment of the changes to the overall safety as a result of changes in the nuclear plant condition. The committee provides a forum for the exchange of technical information and cooperation among member organizations which contribute their respective approaches in research, development and engineering. The ISA methodology, proposed by CSN, specially fits with the SMAP approach that aims at obtaining Best Estimate Plus Uncertainty values of the safety variables to be compared with the safety limits. This makes it possible to obtain the exceedance frequencies of the safety limit. The ISA has the advantage over other methods of allowing the specific and discrete evaluation of the most influential uncertain parameters in the limit exceedance frequency. In this way the changes due to design or operation variation, imperceptibles or complicated to by quantified by other methods, are correctly evaluated. The ISA methodology is one of the discrete methodologies of the Dynamic PSA framework that uses the generation of dynamic event trees (DET). It is based on the Theory of Stimulated Dynamics (TSD), a simplified version of the theory of Probabilistic Dynamics that allows the risk quantification. The ISA models and simulates all the important interactions in a Nuclear Power Plant; design, operating conditions, maintenance, human actuations, stochastic events, etc. In order to that, it requires the integration of codes to obtain: Thermohydraulic and human actuations; Even trees delineation; Fault Trees and Event Trees quantification; Uncertainty analysis and risk assessment. This written dissertation narrates the application of the ISA methodology to the initiating event of the Loss of the Component Cooling System (CCWS) generating sequences of loss of reactor coolant through the seals of the reactor coolant pump (SLOCA). It is used to test the change in margins with respect to the maximum clad temperature limit (1477 K) that would be possible under a potential 10 % power up-rate effected in the pressurized water reactor of Zion NPP. The work done to achieve the thesis, fruit of the collaborative agreement of the School of Mining and Energy Engineering and the company of technological solutions Ekergy Software S.L. (NFQ Solutions) with de specialized modeling and simulation branch of the CSN, has been the basis for the contribution of the CSN in the exercise SM2A. This exercise has been used as an assessment of the development of some of the ideas, suggestions, and algorithms behind the ISA methodology. It has been obtained a slight increase in the Damage Exceedance Frequency (DEF) caused by the power up-rate. This result shows that ISA methodology allows quantifying the safety margin change when design modifications are performed in a NPP and is specially suitable for scenarios where stochastic events or human responses have an important role to prevent or mitigate the accidental consequences and the total risk. The results do not have any validity out of showing the viability of the methodology ISA. Zion NPP was retired and information of its safety analysis is scarce, so assumptions without verification or approximations based on generic studies have been required. Three phases are established in the analysis process: first, obtaining the reference dynamic event tree; second, uncertainty analysis and obtaining the damage domains; third, risk quantification. There have been shown various applications of the methodology and advantages over the classical PSA. It has also contributed to the development of the prototype tool for the implementation of the ISA methodology (SCAIS).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como indica el título, esta tesis plantea el estudio de la arquitectura doméstica elaborada por los arquitectos japoneses Kazuyo Sejima y Ryue Nishizawa. Más concretamente, la investigación se ciñe a un conjunto integrado por veinticinco casas que los arquitectos proyectaron entre 1987, momento en el que Sejima establece su propia oficina, y 2010, fecha en la que el reconocimiento del trabajo que ambos venían desarrollando queda certificado a nivel internacional, ya que ese año son galardonados con el premio Pritzker y comisarían la Bienal deVenecia. Del estudio conjunto y sistemático de estos proyectos, y de sus distintas versiones se espera poder obtener una serie de criterios exegéticos que permitan comprenderlos y explicarlos mejor, relacionándolos entre sí de manera coherente. A estos criterios es a lo que hemos denominado estrategias. En el momento en el que se inicia esta investigación se detectó un vacío editorial respecto al tema tratado, apenas había textos, propios o ajenos que abordaran esta faceta de la obra de Sejima y Nishizawa en profundidad. No en vano, algunos críticos han acuñado el apelativo de "arquitectos sin palabras" para referirse, tanto a ellos como a la generación de arquitectos que la pareja encabeza, dando a entender que se trata de una arquitectura carente de explicación.1 Sin embargo, esta investigación sostiene que el hecho de que los arquitectos no hablen en exceso de su obra y mantengan una actitud centrada en desarrollar de forma práctica su trabajo no quiere decir que prescindan de realizar operaciones compositivas altamente idealizadas y abstractas, refrendadas por un marco cultural y teórico que se pueda describir. Tras recopilar, ordenar y analizar un número lo suficientemente amplio como para ser significativo de las manifestaciones verbales que los arquitectos han realizado a lo largo del periodo estudiado, se ha observado que de entre todos los términos que los dos socios que integran SANAA emplean para describir sus proyectos, uno de los más relevantes y quizás también el más general resulta la palabra “sistema”.2 El modo en el que ambos describen los principios de su arquitectura, diferenciando entre los componentes del programa, y las relaciones que se establecen entre éstos, y entre ellos y el exterior permiten sostener que no se trata de un uso accidental término. Paralelamente, al mismo tiempo que se indaga sobre el corpus intelectual de esta teoría se intenta detallar las circunstancias que favorecieron tal trasvase de ideas entre Occidente y Japón y como acabaron llegando al ámbito de estos arquitectos. Al amparo de este marco teórico y tras redibujar las viviendas documentadas, se intentará describir los rasgos de la estructura material de las viviendas analizadas, así como cartografiar los patrones organizativos que las caracterizan. Para ello se empleará el rigor instrumental que aporta la teoría de grafos como método habitual para la representación, estudio y caracterización de sistemas. Los resultados de la investigación evidencian que hay una serie de estrategias — tanto materiales como organizativas— que enunciadas en sus primeros proyectos se van desarrollando en obras posteriores, conformado sistemas que están paulatinamente más organizados. Y que llegado un punto en la trayectoria de estos arquitectos, se observa que tales estrategias, se van superponiendo de distinta forma en diversos proyectos, por lo que es posible agruparlos y hablar de ellos atendiendo a características comunes. Finalmente, el estudio concluye que tanto a nivel material como reladonal, bien podría decirse que en el periodo estudiado, las estrategias empleadas por Sejima y Nishizawa para elaborar su arquitectura doméstica persiguen un objetivo común que se fundamenta en la elaboración de planteamientos sintéticos que les permiten explorar y responder creativamente ante las disyuntivas previamente establecidas, precisamente explotando el potencial de las paradojas que las originan. ABSTRACT As the title suggest itself, this thesis deals about the study of domestic architecture developed by Japanese architects Kazuyo Sejima and Ryue Nishizawa. More specifically, research focus its attention on a group of twenty five houses that both architects projected from 1987, when Sejima establishes her own practice, and 2010, as the moment in which their work obtains international acknowledgment, since this year they are awarded the Pritzker prize and cúrate the Venice Biennale. From the combined and systematic study of all these projects, and their different versions are expected to obtain a series of exegetical criteria to relate to each other, understand and explain better. These criteria are what we cali strategies. By the time when this research began, an editorial emptiness about the treaty issue was detected; there were barely texts that addressed this aspect of the work of Sejima and Nishizawa in depth, neither the ones written by the architects themselves ñor by other authors. Some critics have coined the ñame "wordless generation" to refer to both them as to the generation of architects that the couple leads, implying that it is an architecture devoid of explanation.3 However, this study argües that the fact that architects do not speak too much about his work and keep themselves focused on developing practical work attitude does not mean that dispense perform highly idealized and abstract compositional operations, fueled by a frame cultural and theoretical that can be described. After collect, sort and analyze a large enough number of verbal statements done by the architects about their work as to be meaningful, it was observed that of all the terms that the two partners that intégrate SANAA used to describe their projects, one of the most important and, perhaps one of the most general, is the word "system".4 The way in which both describe the principies of their architecture distinguishing between program components and the relationships established between them, and between them and the outside allow us the view that it is not accidental use of a term. Similarly, while it investigates the intellectual corpus of this theory it attempts to explain some of the circumstances that favored such transfer of ideas between the West and Japan and how eventually reaching the scope of these architects. Under this framework and after redraw the documented houses we attempt to describe the characteristics of the material structure of the projects tested, as well as mapping the organizational patterns that characterize them. For this, we use the instrumental rigor that brings graph theory, as a regular method of representation, study and characterization of systems used. The research results show that there are a number of strategies -both material and organizational level- that once they are set out in its first projects are developed in later works. Bringing up systems that are gradually more and more organized. And at one point in the career of these architects, such strategies are observed, they are superimposed differently on various projects, making it possible to group them and discuss them according to common characteristics. Finally, the study condueles that both materially and organizational it could be said that in the period studied, the strategies employed by Sejima and Nishizawa to develop its domestic architecture pursue a common goal, which is based on the development of synthetic approaches that allow them explore and respond creatively to the previously established dilemmas precisely exploiting the paradoxical potential that originates them.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El accidente de pérdida de refrigerante (LOCA) en un reactor nuclear es uno de los accidentes Base de Diseño más preocupantes y estudiados desde el origen del uso de la tecnología de fisión en la industria productora de energía. El LOCA ocupa, desde el punto de vista de los análisis de seguridad, un lugar de vanguardia tanto en el análisis determinista (DSA) como probabilista (PSA), cuya diferenciada perspectiva ha ido evolucionando notablemente en lo que al crédito a la actuación de las salvaguardias y las acciones del operador se refiere. En la presente tesis se aborda el análisis sistemático de de las secuencias de LOCA por pequeña y mediana rotura en diferentes lugares de un reactor nuclear de agua a presión (PWR) con fallo total de Inyección de Seguridad de Alta Presión (HPSI). Tal análisis ha sido desarrollado en base a la metodología de Análisis Integrado de Seguridad (ISA), desarrollado por el Consejo de Seguridad Nuclear (CSN) y consistente en la aplicación de métodos avanzados de simulación y PSA para la obtención de Dominios de Daño, que cuantifican topológicamente las probabilidades de éxito y daño en función de determinados parámetros inciertos. Para la elaboración de la presente tesis, se ha hecho uso del código termohidráulico TRACE v5.0 (patch 2), avalado por la NRC de los EEUU como código de planta para la simulación y análisis de secuencias en reactores de agua ligera (LWR). Los objetivos del trabajo son, principalmente: (1) el análisis exhaustivo de las secuencias de LOCA por pequeña-mediana rotura en diferentes lugares de un PWR de tres lazos de diseño Westinghouse (CN Almaraz), con fallo de HPSI, en función de parámetros de gran importancia para los transitorios, tales como el tamaño de rotura y el tiempo de retraso en la respuesta del operador; (2) la obtención y análisis de los Dominios de Daño para transitorios de LOCA en PWRs, de acuerdo con la metodología ISA; y (3) la revisión de algunos de los resultados genéricos de los análisis de seguridad para secuencias de LOCA en las mencionadas condiciones. Los resultados de la tesis abarcan tres áreas bien diferenciadas a lo largo del trabajo: (a) la fenomenología física de las secuencias objeto de estudio; (b) las conclusiones de los análisis de seguridad practicados a los transitorios de LOCA; y (c) la relevancia de las consecuencias de las acciones humanas por parte del grupo de operación. Estos resultados, a su vez, son de dos tipos fundamentales: (1) de respaldo del conocimiento previo sobre el tipo de secuencias analizado, incluido en la extensa bibliografía examinada; y (2) hallazgos en cada una de las tres áreas mencionadas, no referidos en la bibliografía. En resumidas cuentas, los resultados de la tesis avalan el uso de la metodología ISA como método de análisis alternativo y sistemático para secuencias accidentales en LWRs. ABSTRACT The loss of coolant accident (LOCA) in nuclear reactors is one of the most concerning and analized accidents from the beginning of the use of fission technology for electric power production. From the point of view of safety analyses, LOCA holds a forefront place in both Deterministic (DSA) and Probabilistic Safety Analysis (PSA), which have significantly evolved from their original state in both safeguard performance credibility and human actuation. This thesis addresses a systematic analysis of small and medium LOCA sequences, in different places of a nuclear Pressurized Water Reactor (PWR) and with total failure of High Pressure Safety Injection (HPSI). Such an analysis has been grounded on the Integrated Safety Assessment (ISA) methodology, developed by the Spanish Nuclear Regulatory Body (CSN). ISA involves the application of advanced methods of simulation and PSA for obtaining Damage Domains that topologically quantify the likelihood of success and damage regarding certain uncertain parameters.TRACE v5.0 (patch 2) code has been used as the thermalhydraulic simulation tool for the elaboration of this work. Nowadays, TRACE is supported by the US NRC as a plant code for the simulation and analysis of sequences in light water reactors (LWR). The main objectives of the work are the following ones: (1) the in-depth analysis of small and medium LOCA sequences in different places of a Westinghouse three-loop PWR (Almaraz NPP), with failed HPSI, regarding important parameters, such as break size or delay in operator response; (2) obtainment and analysis of Damage Domains related to LOCA transients in PWRs, according to ISA methodology; and (3) review some of the results of generic safety analyses for LOCA sequences in those conditions. The results of the thesis cover three separated areas: (a) the physical phenomenology of the sequences under study; (b) the conclusions of LOCA safety analyses; and (c) the importance of consequences of human actions by the operating crew. These results, in turn, are of two main types: (1) endorsement of previous knowledge about this kind of sequences, which is included in the literature; and (2) findings in each of the three aforementioned areas, not reported in the reviewed literature. In short, the results of this thesis support the use of ISA-like methodology as an alternative method for systematic analysis of LWR accidental sequences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El buen dimensionado de los elementos de evacuación de los edificios es fundamental para conseguir una evacuación segura de los ocupantes en un evento accidental de fuego. Para ello es necesario conocer previamente la asignación de personas que previsiblemente los van a utilizar en caso de emergencia. En el presente trabajo de investigación, se desarrolla un método de cálculo que permite abarcar todos los escenarios posibles de bloqueos en caso de incendio permitiendo así conocer de antemano las distribuciones de personas en las vías de evacuación de manera conservadora. Dicho método de cálculo es aplicable tanto la justificación del cumplimiento de CTE DB-SI3, como en cualquier reglamentación internacional de protección contra incendios. ABSTRACT A good dimensioning of egress and elements of evacuation in buildings is essential for a safe evacuation of occupants in event of accidental fire. This requires prior knowledge of allocated number of people that will use them in an emergency. In this research, a calculation method is developed to cover every possible scenario of unavailable exit in case of fire, thereby allowing to know in advance the distributions of people on the escape routes and conservatively. This calculation method is applicable to both the confirmation of compliance with Spanish regulations, as in any international fire code.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gordon Matta-Clark es el origen de la presente investigación. Su obra, de total actualidad, ha ido ganando interés entre la comunidad de arquitectos, si bien su dimensión teórica se ha visto a menudo eclipsada por el poderoso atractivo de sus aberturas, cortes y extracciones. Son muchos los investigadores que detectan una carencia en el estudio de su corpus de pensamiento desde el campo de la crítica arquitectónica a la que está inevitablemente vinculado, a pesar de haber puesto en marcha una potente maquinaria de criticismo. Se constata a su vez la problemática existente al construir dialécticas entre la obra de Gordon Matta-Clark y el ámbito de la práctica arquitectónica. Surgen áreas forzadas de reflexión al elevar ambas esferas al mismo plano, achacado a un desconocimiento de las motivaciones críticas e históricas del proyecto del arquitecto. Aparece de modo recurrente un intento por establecer una dialéctica que, sin embargo, es relegada constantemente a una colección de notas al pie de página: Rem Koolhaas es sesgadamente mencionado por la crítica como el digno continuador accidental de las teorías de Gordon Matta-Clark. Se inicia así la construcción de una dialéctica que permanece aún sin resolver. Rem Koolhaas, en una entrevista en la que vierte su opinión sobre Gordon Matta-Clark, lo considera el precursor accidental de su ‘estrategia de vacío’, reconociendo en su trabajo procesos de adición a través de eliminación como método de creación de espacio arquitectónico. Una visión incisiva que desdeña su faceta de artista destructor destacando su habilidad para inocular el vacío mediante el empleo de herramientas de adición a través de eliminación. Estas premisas dan lugar de forma automática a la hipótesis de partida: la formalización de una investigación que llene ese vacío estableciendo un fuego cruzado entre ambos arquitectos, los cuales comparten de manera fortuita época y escenarios. El discurso de Rem Koolhaas iluminará el pensamiento de Gordon Matta-Clark vinculando sus respectivas plataformas de producción teórica, construyendo un espacio metafórico común en torno a la palabra y la imagen, herramientas que ambos manejan con habilidad y fluidez. Las propuestas del grupo Anarchitecture y las Art Cards o recortes anárquicos de soliloquios mattaclarkianos encuentran su réplica en el diccionario de términos e imágenes “Small, Medium, Large, Extra-Large”, descrito por Rem Koolhaas como una acumulación de palabras e imágenes que ilumina la condición de la arquitectura actual. La investigación establece una profusa asociación de ideas, imágenes y parlamentos que navegan en el universo referencial de Rem Koolhaas aportando una nueva visión sobre la dimensión crítica de Gordon Matta-Clark. Una visión poliédrica alrededor de cinco conceptos clave y un glosario de estrategias de proyecto que abren nuevos umbrales en los que la adición a través de la eliminación se repite hasta la saciedad transformado en mantra arquitectónico. ABSTRACT The present research finds its origins in Gordon Matta-Clark. His work, still relevant today, has been gaining interest within the community of architects, although its theoretical dimension has often been overshadowed by the powerful attraction of his openings, cuts and extractions. Many researchers detect a lack in the study of his body of thought from the field of architectural criticism to which he is inevitably associated, despite having launched a powerful machinery of criticism. It is noted at the same time the problem appeared when different dialectics between the work of Gordon Matta-Clark and the field of architectural practice are established. Forced areas of thought emerge when both fields are observed from the same point of view, derived from a lack of knowledge of the critical and historical motivations of the architect project. An attempt to establish a dialectical relationship with another architect appears recurrently in different books and writings. However it is steadily consigned to a collection of insignificant footnotes: the critics mention Rem Koolhaas as the worthy accidental successor of the theories of Gordon Matta-Clark. The construction of a dialectic that remains unresolved begins at this point. Gordon Matta-Clark is considered by Rem Koolhaas the accidental predecessor of his ‘strategy of emptiness’ -in an interview in which he pours his opinion on him- recognizing processes of addition through elimination in the work of Matta-Clark as a method of building architectural space. Rem Koolhaas rejects his role as destructor artist highlighting his ability to inoculate the emptiness by using addition tools through elimination. These premises lead us automatically to the hypothesis of the research: the formalization of research that will fill the emptiness by setting a crossfire between both architects, who share by chance the same scenarios and time. The discourse given by Rem Koolhaas illuminates Gordon Matta-Clark´s thought by linking their respective theoretical work platforms, building a common metaphorical space around word and image as tools managed by both of them with expertise and fluency. The Anarchitecture proposals and the Art Cards -anarchic cuts of Matta-Clark´s thought- find its counterpart in the dictionary of terms and images included in “Small, Medium, Large, Extra- Large”, described by Rem Koolhaas as an accumulation of words and images that illuminates the condition of architecture today. The research provides a wide range of associations of ideas, images and discussions around the universe of references of Rem Koolhaas, offering a new insight into the critical dimension of the work of Gordon Matta-Clark. A multifaceted vision around five key concepts and a glossary of project strategies that opens up new thresholds in which addition through elimination is repeated endlessly becoming an architectural mantra.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Internodes of deepwater rice are induced to grow rapidly when plants become submerged. This adaptation enables deepwater rice to keep part of its foliage above the rising flood waters during the monsoon season and to avoid drowning. This growth response is, ultimately, elicited by the plant hormone gibberellin (GA). The primary target tissue for GA action is the intercalary meristem of the internode. Using differential display of mRNA, we have isolated a number of genes whose expression in the intercalary meristem is regulated by GA. The product of one of these genes was identified as an ortholog of replication protein A1 (RPA1). RPA is a heterotrimeric protein involved in DNA replication, recombination, and repair and also in regulation of transcription. A chimeric construct, in which the single-stranded DNA-binding domain of rice RPA1 was spliced into the corresponding region of yeast RPA1, was able to complement a yeast rpa1 mutant. The transcript level of rice RPA1 is high in tissues containing dividing cells. RPA1 mRNA levels increase rapidly in the intercalary meristem during submergence and treatment with GA before the increase in the level of histone H3 mRNA, a marker for DNA replication.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We tested the effect of chronic leptin treatment on fasting-induced torpor in leptin-deficient A-ZIP/F-1 and ob/ob mice. A-ZIP/F-1 mice have virtually no white adipose tissue and low leptin levels, whereas ob/ob mice have an abundance of fat but no leptin. These two models allowed us to examine the roles of adipose tissue and leptin in the regulation of entry into torpor. Torpor is a short-term hibernation-like state that allows conservation of metabolic fuels. We first characterized the A-ZIP/F-1 animals, which have a 10-fold reduction in total body triglyceride stores. Upon fasting, A-ZIP/F-1 mice develop a lower metabolic rate and decreased plasma glucose, insulin, and triglyceride levels, with no increase in free fatty acids or β-hydroxybutyrate. Unlike control mice, by 24 hr of fasting, they have nearly exhausted their triglycerides and are catabolizing protein. To conserve energy supplies during fasting, A-ZIP/F-1 (but not control) mice entered deep torpor, with a minimum core body temperature of 24°C, 2°C above ambient. In ob/ob mice, fasting-induced torpor was completely reversed by leptin treatment. In contrast, neither leptin nor thyroid hormone prevented torpor in A-ZIP/F-1 mice. These data suggest that there are at least two signals for entry into torpor in mice, a low leptin level and another signal that is independent of leptin and thyroid hormone levels. Studying rodent torpor provides insight into human torpor-like states such as near drowning in cold water and induced hypothermia for surgery.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Daphniphyllum alkaloids are a group of highly complex polycyclic alkaloids. Examination of the structures if several members of this family of natural products led to a hypothesis about their mode of biosynthesis (depicted in Scheme SI). Based on this hypothetical biosynthetic pathway, a laboratory synthesis was designed that incorporated as a key transformation the novel one-pot transformation of dialdehyde 24 to pentacyclic unsaturated amine 25. This process turned out to be an exceptionally efficient way to construct the pentacyclic nucleus of the Daphniphyllum alkaloids. However, a purely fortuitous discovery, resulting from accidental use of methylamine rather than ammonia, led to a great improvement in the synthesis and suggests an even more attractive possible biosynthesis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

There is substantial scientific evidence to support the notion that bovine spongiform encephalopathy (BSE) has contaminated human beings, causing variant Creutzfeldt–Jakob disease (vCJD). This disease has raised concerns about the possibility of an iatrogenic secondary transmission to humans, because the biological properties of the primate-adapted BSE agent are unknown. We show that (i) BSE can be transmitted from primate to primate by intravenous route in 25 months, and (ii) an iatrogenic transmission of vCJD to humans could be readily recognized pathologically, whether it occurs by the central or peripheral route. Strain typing in mice demonstrates that the BSE agent adapts to macaques in the same way as it does to humans and confirms that the BSE agent is responsible for vCJD not only in the United Kingdom but also in France. The agent responsible for French iatrogenic growth hormone-linked CJD taken as a control is very different from vCJD but is similar to that found in one case of sporadic CJD and one sheep scrapie isolate. These data will be key in identifying the origin of human cases of prion disease, including accidental vCJD transmission, and could provide bases for vCJD risk assessment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We report a carbohydrate-dependent supramolecular architecture in the extracellular giant hemoglobin (Hb) from the marine worm Perinereis aibuhitensis; we call this architectural mechanism carbohydrate gluing. This study is an extension of our accidental discovery of deterioration in the form of the Hb caused by a high concentration of glucose. The giant Hbs of annelids are natural supramolecules consisting of about 200 polypeptide chains that associate to form a double-layered hexagonal structure. This Hb has 0.5% (wt) carbohydrates, including mannose, xylose, fucose, galactose, glucose, N-acetylglucosamine (GlcNAc), and N-acetylgalactosamine (GalNAc). Using carbohydrate-staining assays, in conjunction with two-dimensional polyacrylamide gel electrophoresis, we found that two types of linker chains (L1 and L2; the nomenclature of the Hb subunits followed that for another marine worm, Tylorrhynchus heterochaetus) contained carbohydrates with both GlcNAc and GalNAc. Furthermore, two types of globins (a and A) have only GlcNAc-containing carbohydrates, whereas the other types of globins (b and B) had no carbohydrates. Monosaccharides including mannose, fucose, glucose, galactose, GlcNAc, and GalNAc reversibly dissociated the intact form of the Hb, but the removal of carbohydrate with N-glycanase resulted in irreversible dissociation. These results show that carbohydrate acts noncovalently to glue together the components to yield the complete quaternary supramolecular structure of the giant Hb. We suggest that this carbohydrate gluing may be mediated through lectin-like carbohydrate-binding by the associated structural chains ("linkers").

Relevância:

10.00% 10.00%

Publicador:

Resumo:

INTRODUÇÃO: Os efeitos da levodopa (LD) e da estimulação cerebral profunda (ECP) de núcleo subtalâmico (STN) sobre o equilíbrio e sintomas axiais são até o momento controversos. OBJETIVOS: Avaliar quantitativamente os efeitos da ECP de STN e da LD sobre o equilíbrio estático em pacientes com DP operados, em comparação com a LD em pacientes não operados. MÉTODOS: Trinta e um pacientes submetidos a ECP de STN entre 3 meses e 1 ano e meio antes da avaliação e 26 controles portadores de DP não operados, estágios Hoehn e Yahr 2 a 4 foram avaliados usando UPDRS para avaliação clínica e plataforma de força para avaliar oscilações posturais. O primeiro grupo foi avaliado com ECP e sem medicação, com ECP e com medicação e sem ECP e sem medicação. O segundo grupo foi avaliado com e sem medicação. Cada paciente foi avaliado com os olhos abertos e fechados. O deslocamento do centro de pressão anteroposterior, laterolateral, a área, velocidade e deslocamento total linear foram medidos pela plataforma de força. Os dados paramétricos foram comparados usando o teste t de Student e os dados não-paramétricos foram comparados pelo teste de Kruskal-Wallis. A avaliação clínica consistiu na parte 3 da escala UPDRS e na escala Hoehn e Yahr. Nível de significância estatística considerada foi p=0,05. RESULTADOS: Os pacientes não operados oscilaram mais quando sob efeito da levodopa do que sem medicação. No grupo operado, a maior oscilação é no grupo com ECP desligada e sem medicação. Tende a reduzir sob efeito da ECP apresenta redução significativa sob efeito simultâneo de ECP e levodopa. CONCLUSÃO: A associação da ECP de NST com medicação tem impacto positivo sobre o controle postural. O efeito da ECP de NST reverte o efeito negativo da levodopa sobre as oscilações observadas em pacientes não operados

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivo: El objetivo de este trabajo es validar lingüísticamente la Breastfeeding Self-Efficacy Scale-Short Form (BSES-SF) al español y determinar sus características psicométricas. Personas y método: Estudio instrumental que se llevó a cabo en dos hospitales de la provincia de Alicante. Tras los procedimientos de traducción y retrotraducción, una muestra accidental de 150 madres lactantes cumplimentaron, a las 48 horas del parto y aún hospitalizadas, la versión española de la BSES-SF y un cuestionario con variables sociodemográficas, obstétricas y sobre el estatus de lactancia materna (LM) al alta. A las 6 semanas posparto se obtuvieron, nuevamente, datos sobre el estatus de LM mediante una encuesta telefónica. Resultados: El coeficiente alfa de Cronbach fue de 0,79. Las mujeres con experiencia previa y con experiencia previa muy positiva en LM, con puntuaciones más altas en el ítem global de autoeficacia y con más hijos, tuvieron mayores puntuaciones en la versión española de la BSES-SF. Dos de los ítems (9 y 10) de la versión española presentaron correlaciones ítems-test corregidas <0,30, y saturaron por debajo de 0,30 al forzar la extracción a un factor en el análisis de componentes principales. Las puntuaciones de la escala al alta hospitalaria no guardaron relación con el estatus de LM a las 6 semanas posparto. Conclusiones: El instrumento muestra aceptables evidencias de fiabilidad y validez, aunque dos de los ítems deberían ser revisados.