771 resultados para MAR FRENTE AL PERU 1987
Resumo:
Este libro es una contribución al estudio de la izquierda no armada durante la última dictadura argentina (1976-1983). El análisis del Partido Socialista de los Trabajadores-Movimiento al Socialismo (PST-MAS) permite reconocer los discursos y las formas organizativas del partido frente a tres ejes centrales: la instauración de la dictadura y la posterior prohibición y disolución de la izquierda peronista y marxista, las consecuencias de la represión basada en el dispositivo de los Centros Clandestinos de Detención y el proceso de apertura política que prosiguió a la derrota en las Islas Malvinas. Las páginas de este trabajo analizan las formas organizativas adoptadas por gran parte de la izquierda setentista basadas en un repertorio de prácticas que oscilaban entre la "legalidad" y la "clandestinidad". De este modo, se abordan las transformaciones de las percepciones y las iniciativas del PST-MAS frente al problema de la represión, dando cuenta del pasaje del "paradigma revolucionario" al marco ético-político de los Derechos Humanos. Por último, el libro da cuenta de los cambios que se produjeron en las prácticas políticas de la organización en el contexto del anuncio de la apertura electoral (1982-1983) y analiza la novedosa propuesta política del Movimiento al Socialismo.
Resumo:
La envolvente de la edificación es la responsable de equilibrar el intercambio energético entre el interior y el exterior, por lo tanto cualquier actuación encaminada a la reducción del consumo energético ha de establecer, como uno de sus objetivos prioritarios, la mejora del comportamiento de la misma. Las edificaciones anteriores a 1940 constituyen la mayor parte de las existentes en áreas rurales y centros urbanos. En ellas, la repercusión de la fachada sobre las transmitancias globales pone de manifiesto la necesidad de intervención. Sin embargo, su elevada inercia térmica y los importantes saltos térmicos característicos de gran parte de España plantean la importancia de que aquélla se efectúe por el exterior. A tal respecto, la falta de disponibilidad de espesor suficiente para implantar sistemas tipo SATE deriva en que, frecuentemente, la única solución viable sea la de aislar por el interior perdiendo con ello la capacidad de acumulación térmica del muro y con el asociado riesgo de condensaciones. La amplia tradición en el empleo de revestimientos, especialmente en base de cal, permiten que éstos sean utilizados no sólo como elemento estético o de protección de la obra de fábrica antigua sino también para la mejora del comportamiento térmico del soporte, si se aprovecha el mecanismo de transmisión térmica por radiación. Éste es el objetivo de la presente Tesis Doctoral en la que se estudia la modificación de las propiedades radiantes de los morteros de revestimiento para la mejora de la eficiencia energética de las construcciones históricas, principalmente las constituidas por muros monolíticos, aunque podría ser de aplicación a otro tipo de construcciones compuestas por diversas capas. Como punto de partida, se estudió y revisó la documentación disponible sobre las investigaciones de las tres áreas científico-tecnológicas que convergen en la Tesis Doctoral: rehabilitación, material y comportamiento térmico, a partir de lo cual se comprobó la inexistencia de estudios similares al objeto de la presente Tesis Doctoral. Complementariamente, se analizaron los revestimientos en lo concerniente a los materiales que los constituyen, la composición de las mezclas y características de cada una de las capas así como al enfoque que, desde el punto de vista térmico, se estimaba más adecuado para la obtención de los objetivos propuestos. Basándonos en dichos análisis, se preseleccionaron ochenta materiales que fueron ensayados en términos de reflectancia y emisividad para elegir cuatro con los que se continuó la investigación. Éstos, junto con la cal elegida para la investigación y el árido marmóreo característico de la última capa de revestimiento, fueron caracterizados térmicamente, de forma pormenorizada, así como química y físicamente. Los fundamentos teóricos y los estudios preliminares desarrollados con distintos materiales, en estado fresco y endurecido, fueron empleados en la dosificación de componentes de las mezclas, en dos proporciones distintas, para el estudio del efecto del agregado. Éstas se ensayaron en estado fresco, para comprobar su adecuación de puesta en obra y prever su VI adherencia al soporte, así como en estado endurecido a 28 y 90 días de curado, para conocer las propiedades que permitieran prever su compatibilidad con aquél y estimar el alcance de la reducción de transferencias térmicas lograda. Además, se estudiaron las características generales de las mezclas que sirvieron para establecer correlaciones entre distintas propiedades y entender los resultados mecánicos, físicos (comportamiento frente al agua) y energéticos. Del estudio conjunto de las distintas propiedades analizadas se propusieron dos mezclas, una blanca y otra coloreada, cuyas características permiten garantizar la compatibilidad con la obra de fábrica antigua, desde el punto de vista físico y mecánico, y preservar la autenticidad de los revestimientos, en cuanto a la técnica de aplicación tradicional en sistemas multicapa. El comportamiento térmico de las mismas, sobre una obra de fábrica de 40 cm de espesor, se estimó, en estado estacionario y pseudo-transitorio, demostrándose reducciones del flujo térmico entre 16-48%, en condiciones de verano, y entre el 6-11%, en invierno, en función de la coloración y de la rugosidad de la superficie, en comparación con el empleo de la mezcla tradicional. Por lo que, se constata la viabilidad de los materiales compuestos propuestos y su adecuación al objetivo de la investigación. VII ABSTRACT The envelope is responsible for balancing the energy exchange between the inside and outside in buildings. For this reason, any action aimed at reducing energy consumption must establish, as one of its key priorities, its improvement. In rural areas and urban centers, most of the constructions were built before 1940. In them, the impact of the façade on the global transmittance highlights the need for intervention. However, its high thermal inertia and fluctuation of temperatures in the majority of Spain bring up that it should be placed outside the insulation. In this regard, the lack of availability of enough thickness to implement systems such as ETICS results in that often the only viable solution is to isolate the interior, losing thereby the wall’s heat storage capacity with the associated risk of condensation. The tradition in the use of renders, especially lime-based, allows us to use them not only as an aesthetic element or to protect the ancient masonry, but also for improved thermal performance of the support by taking advantage of the heat transfer mechanism by radiation. This is the aim of this Doctoral Thesis in which the modification of the radiative properties of lime mortars for renders to improve the energy efficiency of historic buildings, mainly composed of monolithic walls, is studied, although it could be applied to other structures composed of several layers. As a starting point, the available literature in the three scientific-technological areas that converge at the Doctoral Thesis: rehabilitation, material and thermal behaviour, was reviewed, and confirmed the absence of researches similar to this Doctoral Thesis. Additionally, the renders were studied with regard to the materials that constitute them, the composition of the mixtures and the characteristics of each layer, as well as to the approach which, from a thermal point of view, was deemed the most suitable for achieving the objectives sets. Based on thre aforementioned analysis, eighty materials tested in terms of reflectance and emissivity were pre-selected, to choose four with which the research was continued. Common marble sand, used in the last layer of the renders, together with the appointed materials and hydrated lime were characterized thermally, in detail, as well as chemically and physically. The theoretical bases and preliminary studies with different materials, in fresh and hardened state, were used in the dosage of the composition of the mixtures. In order to study their effect they were used in two different proportions, that is, ten mixtures in total. These were tested in their fresh state to evaluate their setting-up suitability and foresee their adhesion to the support, as well as in their hardened state, at 28 and 90 days of curing, to establish the properties which enabled us to anticipate their compatibility with the old masonry walls and estimate the scope of the reduction of heat transfers achieved. In addition, the general characteristics of the mixtures used to establish correlations and to understand the mechanical, physical and energy results were studied. Two mixtures, one white and one colored, were proposed as the result of the different properties analysed, whose characteristics allow the guarantee of mechanical and physical compatibility VIII with the old masonry and preserve the authenticity of the renders. The thermal behavior of both, applied on a masonry wall 40 cm thick, was estimated at a steady and pseudo-transient state, with heat flow reductions between 16-48% during summertime and 6-11% during wintertime, depending on the color and surface roughness, compared to the use of the traditional mixture. So, the viability of the proposed composite materials and their fitness to the aim of the research are established.
Resumo:
El presente trabajo estudia el comportamiento de dos hormigones frente al ensayo de resistencia al hielo-deshielo de hormigones endurecidos. La incorporación de un aditivo aireante mejora de forma sensible el comportamiento del hormigón frente a este ensayo. Sin embargo, en hormigón pretensado con cordón adherente está prohibido el uso de aditivos aireantes. Una estrategia adecuada es emplear humo de sílice para mejorar la impermeabilidad del hormigón. En este trabajo se compara el comportamiento de un hormigón con aditivo aireante y otro con humo de sílice frente al ensayo de resistencia al hielo-deshielo. Además, estudia la viabilidad de emplear técnicas alternativas de medida del deterioro superficial: modificación de la velocidad de pulso ultrasónico y medida de la deformación superficial con galgas extensométricas. Ambas técnicas se muestran viables y aportan ventajas frente al peso de la masa superficial desprendida por descascarillamiento
Resumo:
Esta tesis doctoral es el fruto de un trabajo de investigación cuyo objetivo principal es definir criterios de diseño de protecciones en forma de repié en presas de materiales sueltos cuyo espaldón de aguas abajo esté formado por escollera. La protección propuesta consiste en un relleno de material granular situado sobre el pie de aguas abajo de la presa y formado a su vez por una escollera con características diferenciadas respecto de la escollera que integra el espaldón de la presa. La función de esta protección es evitar que se produzcan deslizamientos en masa cuando una cantidad de agua anormalmente elevada circula accidentalmente por el espaldón de aguas abajo de la presa por distintos motivos como pueden ser el vertido por coronación de la presa o la pérdida de estanqueidad del elemento impermeable o del cimiento. Según los datos de la International Commission on Large Dams (ICOLD 1995) el 70% de las causas de rotura o avería grave en presas de materiales sueltos en el mundo están dentro de las que se han indicado con anterioridad. Esta circulación accidental de agua a través del espaldón de escollera, típicamente turbulenta, se ha denominado en esta tesis percolación (“through flow”, en inglés) para diferenciarla del término filtración, habitualmente utilizada para el flujo laminar a través de un material fino. El fenómeno físico que origina la rotura de presas de materiales sueltos sometidas a percolación accidental es complejo, entrando en juego diversidad de parámetros, muchas veces no deterministas, y con acoplamiento entre procesos, tanto de filtración como de arrastre y deslizamiento. En esta tesis se han realizado diferentes estudios experimentales y numéricos con objeto de analizar el efecto sobre el nivel de protección frente al deslizamiento en masa que producen los principales parámetros geométricos que definen el repié: la anchura de la berma, el talud exterior y su altura máxima desde la base. También se han realizado estudios sobre factores con gran influencia en el fenómeno de la percolación como son la anisotropía del material y el incremento de los caudales unitarios en el pie de presa debidos a la forma de la cerrada. A partir de los resultados obtenidos en las distintas campañas de modelación física y numérica se han obtenido conclusiones respecto a la efectividad de este tipo de protección para evitar parcial o totalmente los daños provocados por percolación accidental en presas de escollera. El resultado final de la tesis es un procedimiento de diseño para este tipo de protecciones. Con objeto de completar los criterios de dimensionamiento, teniendo en cuenta los mecanismos de rotura por erosión interna y arrastre, se han incluido dentro del procedimiento recomendaciones adicionales basadas en investigaciones existentes en la bibliografía técnica. Finalmente, se han sugerido posibles líneas de investigación futuras para ampliar el conocimiento de fenómenos complejos que influyen en el comportamiento de este tipo de protección como son el efecto de escala, la anisotropía de la escollera, las leyes de resistencia que rigen la filtración turbulenta a través de medios granulares, los efectos de cimentaciones poco competentes o la propia caracterización de las propiedades de la escollera de presas. This thesis is the result of a research project that had the main objective of defining criteria to design rockfill toe protections for dams with a highly‐permeable downstream shoulder. The proposed protection consists of a rockfill toe berm situated downstream from the dam with specific characteristics with respect to the rockfill that integrates the shoulder of the main dam. The function of these protections is to prevent mass slides due to an abnormally high water flow circulation through the dam shoulder. This accidental seepage flow may be caused by such reasons as overtopping or the loss of sealing at the impervious element of the dam or its foundation. According to data from the International Commission on Large Dams (ICOLD 1995), 70% of the causes of failure or serious damage in embankment dams in the world are within that described previously. This accidental seepage of water through the rockfill shoulder, typically turbulent, is usually called through‐flow. The physical phenomenon which causes the breakage of the rockfill shoulder during such through‐flow processes is complex, involving diversity of parameters (often not deterministic) and coupling among processes, not only seepage but also internal erosion, drag or mass slide. In this thesis, numerical and experimental research is conducted in order to analyze the effects of the main parameters that define the toe protection, i.e. the toe crest length, its slope and maximum height. Additional studies on significant factors which influence the seepage, such as the anisotropy of the material and the increase of the unit flows at the dam toe due to the valley shape are also performed. In addition, conclusions regarding the effectiveness of this type of protection are obtained based on the results of physical and numerical models. The main result of the thesis is a design procedure for this type of protection to avoid mass sliding. In order to complete the design criteria, additional recommendations about internal and external erosion based on the state of the art are included. Finally, new lines of research are suggested for the future to expand the level of knowledge of the complex phenomena that influence the behavior of this type of protection, such as the effects of scale, rockfill anisotropy, non‐linear seepage laws in turbulent seepage through granular media, effects of erodible foundations, or new procedures to characterize the properties of dam rockfill as a construction material.
Resumo:
La seguridad en redes informáticas es un área que ha sido ampliamente estudiada y objeto de una extensa investigación en los últimos años. Debido al continuo incremento en la complejidad y sofisticación de los ataques informáticos, el aumento de su velocidad de difusión, y la lentitud de reacción frente a las intrusiones existente en la actualidad, se hace patente la necesidad de mecanismos de detección y respuesta a intrusiones, que detecten y además sean capaces de bloquear el ataque, y mitiguen su impacto en la medida de lo posible. Los Sistemas de Detección de Intrusiones o IDSs son tecnologías bastante maduras cuyo objetivo es detectar cualquier comportamiento malicioso que ocurra en las redes. Estos sistemas han evolucionado rápidamente en los últimos años convirtiéndose en herramientas muy maduras basadas en diferentes paradigmas, que mejoran su capacidad de detección y le otorgan un alto nivel de fiabilidad. Por otra parte, un Sistema de Respuesta a Intrusiones (IRS) es un componente de seguridad que puede estar presente en la arquitectura de una red informática, capaz de reaccionar frente a los incidentes detectados por un Sistema de Detección de Intrusiones (IDS). Por desgracia, esta tecnología no ha evolucionado al mismo ritmo que los IDSs, y la reacción contra los ataques detectados es lenta y básica, y los sistemas presentan problemas para ejecutar respuestas de forma automática. Esta tesis doctoral trata de hacer frente al problema existente en la reacción automática frente a intrusiones, mediante el uso de ontologías, lenguajes formales de especificación de comportamiento y razonadores semánticos como base de la arquitectura del sistema de un sistema de respuesta automática frente a intrusiones o AIRS. El objetivo de la aproximación es aprovechar las ventajas de las ontologías en entornos heterogéneos, además de su capacidad para especificar comportamiento sobre los objetos que representan los elementos del dominio modelado. Esta capacidad para especificar comportamiento será de gran utilidad para que el AIRS infiera la respuesta óptima frente a una intrusión en el menor tiempo posible. Abstract Security in networks is an area that has been widely studied and has been the focus of extensive research over the past few years. The number of security events is increasing, and they are each time more sophisticated, and quickly spread, and slow reaction against intrusions, there is a need for intrusion detection and response systems to dynamically adapt so as to better detect and respond to attacks in order to mitigate them or reduce their impact. Intrusion Detection Systems (IDSs) are mature technologies whose aim is detecting malicious behavior in the networks. These systems have quickly evolved and there are now very mature tools based on different paradigms (statistic anomaly-based, signature-based and hybrids) with a high level of reliability. On the other hand, Intrusion Response System (IRS) is a security technology able to react against the intrusions detected by IDS. Unfortunately, the state of the art in IRSs is not as mature as with IDSs. The reaction against intrusions is slow and simple, and these systems have difficulty detecting intrusions in real time and triggering automated responses. This dissertation is to address the existing problem in automated reactions against intrusions using ontologies, formal behaviour languages and semantic reasoners as the basis of the architecture of an automated intrusion response systems or AIRS. The aim is to take advantage of ontologies in heterogeneous environments, in addition to its ability to specify behavior of objects representing the elements of the modeling domain. This ability to specify behavior will be useful for the AIRS in the inference process of the optimum response against an intrusion, as quickly as possible.
Resumo:
Los avances en el hardware permiten disponer de grandes volúmenes de datos, surgiendo aplicaciones que deben suministrar información en tiempo cuasi-real, la monitorización de pacientes, ej., el seguimiento sanitario de las conducciones de agua, etc. Las necesidades de estas aplicaciones hacen emerger el modelo de flujo de datos (data streaming) frente al modelo almacenar-para-despuésprocesar (store-then-process). Mientras que en el modelo store-then-process, los datos son almacenados para ser posteriormente consultados; en los sistemas de streaming, los datos son procesados a su llegada al sistema, produciendo respuestas continuas sin llegar a almacenarse. Esta nueva visión impone desafíos para el procesamiento de datos al vuelo: 1) las respuestas deben producirse de manera continua cada vez que nuevos datos llegan al sistema; 2) los datos son accedidos solo una vez y, generalmente, no son almacenados en su totalidad; y 3) el tiempo de procesamiento por dato para producir una respuesta debe ser bajo. Aunque existen dos modelos para el cómputo de respuestas continuas, el modelo evolutivo y el de ventana deslizante; éste segundo se ajusta mejor en ciertas aplicaciones al considerar únicamente los datos recibidos más recientemente, en lugar de todo el histórico de datos. En los últimos años, la minería de datos en streaming se ha centrado en el modelo evolutivo. Mientras que, en el modelo de ventana deslizante, el trabajo presentado es más reducido ya que estos algoritmos no sólo deben de ser incrementales si no que deben borrar la información que caduca por el deslizamiento de la ventana manteniendo los anteriores tres desafíos. Una de las tareas fundamentales en minería de datos es la búsqueda de agrupaciones donde, dado un conjunto de datos, el objetivo es encontrar grupos representativos, de manera que se tenga una descripción sintética del conjunto. Estas agrupaciones son fundamentales en aplicaciones como la detección de intrusos en la red o la segmentación de clientes en el marketing y la publicidad. Debido a las cantidades masivas de datos que deben procesarse en este tipo de aplicaciones (millones de eventos por segundo), las soluciones centralizadas puede ser incapaz de hacer frente a las restricciones de tiempo de procesamiento, por lo que deben recurrir a descartar datos durante los picos de carga. Para evitar esta perdida de datos, se impone el procesamiento distribuido de streams, en concreto, los algoritmos de agrupamiento deben ser adaptados para este tipo de entornos, en los que los datos están distribuidos. En streaming, la investigación no solo se centra en el diseño para tareas generales, como la agrupación, sino también en la búsqueda de nuevos enfoques que se adapten mejor a escenarios particulares. Como ejemplo, un mecanismo de agrupación ad-hoc resulta ser más adecuado para la defensa contra la denegación de servicio distribuida (Distributed Denial of Services, DDoS) que el problema tradicional de k-medias. En esta tesis se pretende contribuir en el problema agrupamiento en streaming tanto en entornos centralizados y distribuidos. Hemos diseñado un algoritmo centralizado de clustering mostrando las capacidades para descubrir agrupaciones de alta calidad en bajo tiempo frente a otras soluciones del estado del arte, en una amplia evaluación. Además, se ha trabajado sobre una estructura que reduce notablemente el espacio de memoria necesario, controlando, en todo momento, el error de los cómputos. Nuestro trabajo también proporciona dos protocolos de distribución del cómputo de agrupaciones. Se han analizado dos características fundamentales: el impacto sobre la calidad del clustering al realizar el cómputo distribuido y las condiciones necesarias para la reducción del tiempo de procesamiento frente a la solución centralizada. Finalmente, hemos desarrollado un entorno para la detección de ataques DDoS basado en agrupaciones. En este último caso, se ha caracterizado el tipo de ataques detectados y se ha desarrollado una evaluación sobre la eficiencia y eficacia de la mitigación del impacto del ataque. ABSTRACT Advances in hardware allow to collect huge volumes of data emerging applications that must provide information in near-real time, e.g., patient monitoring, health monitoring of water pipes, etc. The data streaming model emerges to comply with these applications overcoming the traditional store-then-process model. With the store-then-process model, data is stored before being consulted; while, in streaming, data are processed on the fly producing continuous responses. The challenges of streaming for processing data on the fly are the following: 1) responses must be produced continuously whenever new data arrives in the system; 2) data is accessed only once and is generally not maintained in its entirety, and 3) data processing time to produce a response should be low. Two models exist to compute continuous responses: the evolving model and the sliding window model; the latter fits best with applications must be computed over the most recently data rather than all the previous data. In recent years, research in the context of data stream mining has focused mainly on the evolving model. In the sliding window model, the work presented is smaller since these algorithms must be incremental and they must delete the information which expires when the window slides. Clustering is one of the fundamental techniques of data mining and is used to analyze data sets in order to find representative groups that provide a concise description of the data being processed. Clustering is critical in applications such as network intrusion detection or customer segmentation in marketing and advertising. Due to the huge amount of data that must be processed by such applications (up to millions of events per second), centralized solutions are usually unable to cope with timing restrictions and recur to shedding techniques where data is discarded during load peaks. To avoid discarding of data, processing of streams (such as clustering) must be distributed and adapted to environments where information is distributed. In streaming, research does not only focus on designing for general tasks, such as clustering, but also in finding new approaches that fit bests with particular scenarios. As an example, an ad-hoc grouping mechanism turns out to be more adequate than k-means for defense against Distributed Denial of Service (DDoS). This thesis contributes to the data stream mining clustering technique both for centralized and distributed environments. We present a centralized clustering algorithm showing capabilities to discover clusters of high quality in low time and we provide a comparison with existing state of the art solutions. We have worked on a data structure that significantly reduces memory requirements while controlling the error of the clusters statistics. We also provide two distributed clustering protocols. We focus on the analysis of two key features: the impact on the clustering quality when computation is distributed and the requirements for reducing the processing time compared to the centralized solution. Finally, with respect to ad-hoc grouping techniques, we have developed a DDoS detection framework based on clustering.We have characterized the attacks detected and we have evaluated the efficiency and effectiveness of mitigating the attack impact.
Resumo:
El Grupo de Innovación Educativa de la Universidad Politécnica de Madrid Enseñanza del Hormigón Estructural (EHE) está desarrollando un Proyecto de Innovación Educativa (PIE)basado en la elaboracióde casos prácticos. En este trabajo se estudia un caso práctico relativo al análisis de refuerzos de pilares de hormigón armado mediante encamisados metálicos y de hormigón. El estudio se ha desarrollado tomando como base los datos experimentales publicados acerca del refuerzo de pilares con encamisados metálicos y de hormigón frente al comportamiento de pilares patrón.
Resumo:
Las cargas de origen térmico causadas por las acciones medioambientales generan esfuerzos apreciables en estructuras hiperestáticas masivas, como es el caso de las presas bóvedas. Ciertas investigaciones apuntan que la variación de la temperatura ambiental es la segunda causa de reparaciones en las presas del hormigón en servicio. Del mismo modo, es una causa de fisuración en un porcentaje apreciable de casos. Las presas son infraestructuras singulares por sus dimensiones, su vida útil, su impacto sobre el territorio y por el riesgo que implica su presencia. La evaluación de ese riesgo requiere, entre otras herramientas, de modelos matemáticos de predicción del comportamiento. Los modelos han de reproducir la realidad del modo más fidedigno posible. Además, en un escenario de posible cambio climático en el que se prevé un aumento de las temperaturas medias, la sociedad ha de conocer cuál será el comportamiento estructural de las infraestructuras sensibles en los futuros escenarios climáticos. No obstante, existen escasos estudios enfocados a determinar el campo de temperaturas de las presas de hormigón. Así, en esta investigación se han mejorado los modelos de cálculo térmico existentes con la incorporación de nuevos fenómenos físicos de transferencia de calor entre la estructura y el medio ambiente que la rodea. También se han propuesto nuevas metodologías más eficientes para cuantificar otros mecanismos de transferencia de calor. La nueva metodología se ha aplicado a un caso de estudio donde se disponía de un amplio registro de temperaturas de su hormigón. Se ha comprobado la calidad de las predicciones realizadas por los diversos modelos térmicos en el caso piloto. También se han comparado los resultados de los diversos modelos entre sí. Finalmente, se ha determinado las consecuencias de las predicciones de las temperaturas por algunos de los modelos térmicos sobre la respuesta estructural del caso de estudio. Los modelos térmicos se han empleado para caracterizar térmicamente las presas bóveda. Se ha estudiado el efecto de ciertas variables atmosféricas y determinados aspectos geométricos de las presas sobre su respuesta térmica. También se ha propuesto una metodología para evaluar la respuesta térmica y estructural de las infraestructuras frente a los posibles cambios meteorológicos inducidos por el cambio climático. La metodología se ha aplicado a un caso de estudio, una presa bóveda, y se ha obtenido su futura respuesta térmica y estructural frente a diversos escenarios climáticos. Frente a este posible cambio de las variables meteorológicas, se han detallado diversas medidas de adaptación y se ha propuesto una modificación de la normativa española de proyecto de presas en el punto acerca del cálculo de la distribución de temperaturas de diseño. Finalmente, se han extraído una serie de conclusiones y se han sugerido posibles futuras líneas de investigación para ampliar el conocimiento del fenómeno de la distribución de temperaturas en el interior de las presas y las consecuencias sobre su respuesta estructural. También se han propuesto futuras investigaciones para desarrollar nuevos procedimiento para definir las cargas térmicas de diseño, así como posibles medidas de adaptación frente al cambio climático. Thermal loads produced by external temperature variations may cause stresses in massive hyperstatic structures, such as arch dams. External temperature changes are pointed out as the second most major repairs in dams during operation. Moreover, cracking is caused by thermal loads in a quite number of cases. Dams are unique infrastructures given their dimensions, lifetime, spatial impacts and the risks involve by their presence. The risks are assessed by means of mathematical models which compute the behavior of the structure. The behavior has to be reproduced as reliable as possible. Moreover, since mean temperature on Earth is expected to increase, society has to know the structural behavior of sensitive structures to climate change. However, few studies have addressed the assessment of the thermal field in concrete dams. Thermal models are improved in this research. New heat transfer phenomena have been accounted for. Moreover, new and more efficient methodologies for computing other heat transfer phenomena have been proposed. The methodology has been applied to a case study where observations from thermometers embedded in the concrete were available. Recorded data were predicted by several thermal models and the quality of the predictions was assessed. Furthermore, predictions were compared between them. Finally, the consequences on the stress calculations were analyzed. Thermal models have been used to characterize arch dams from a thermal point of view. The effect of some meteorological and geometrical variables on the thermal response of the dam has been analyzed. Moreover, a methodology for assessing the impacts of global warming on the thermal and structural behavior of infrastructures has been proposed. The methodology was applied to a case study, an arch dam, and its thermal and structural response to several future climatic scenarios was computed. In addition, several adaptation strategies has been outlined and a new formulation for computing design thermal loads in concrete dams has been proposed. Finally, some conclusions have been reported and some future research works have been outlined. Future research works will increase the knowledge of the concrete thermal field and its consequences on the structural response of the infrastructures. Moreover, research works will develope a new procedure for computing the design thermal loads and will study some adaptation strategies against the climate change.
Resumo:
En esta Tesis expongo una reflexión sobre cómo la pérdida de valores ante un cambio de paradigma social ha derivado en la disolución de la tipología de Museo generando un “Museo Contemporáneo” , mediante el estudio sistemático de la obra de los autores más significativos del siglo XX, que, frente al Museo Moderno, es un museo global, que no pertenece a ningún lugar concreto, un museo del desarraigo, desligado incluso de su función. Su origen conceptual basado en una idea “social” participativa y regeneradora ha degenerado, mayoritariamente, hacia una simplificación superficial que se resume en museos-logotipo como respuesta de supervivencia arquitectónica adaptada a este nuevo paradigma social.
Resumo:
The project “Between Cathedrals” seeks to create an intervention worthy of the most significant location in the history of Cadiz, the oldest city of the West: the empty space facing the sea located between the Old and New Cathedrals = El proyecto "Entre Catedrales" trata de crear una pieza capaz de poner en valor el lugar más significativo de la historia de Cádiz, la ciudad más antigua de occidente: el espacio vacío entre la Catedral Nueva y la Catedral Vieja, frente al mar.
Resumo:
The project is an oceanfront house on the “Roche” beach in Conil, Cadiz. = Una casa frente al mar, en primera línea de la playa de Roche en Conil, Cádiz.
Resumo:
El problema consiste básicamente en realizar un estudio de sensibilidad a la hora de analizar la estabilidad frente a rotura por cimiento a través de macizo rocoso y discontinuidad en el caso de presas de gravedad de tamaño medio. El presente documento muestra una comparativa de diferentes metodologías para estimar la seguridad de una presa de gravedad frente al deslizamiento por macizo rocoso y discontinuidad. Para ello se ha empleado un modelo de cálculo que computa la seguridad frente al deslizamiento a traves de un estudio paramétrico en función de las principales variables geométricas y geomecánicas que intervienen en el mismo. Se utilizan los criterios de resistencia de Hoek & Brown (1980) y de Barton & Choubey (1974) para caracterizar la resistencia del macizo rocoso y de las discontinuidades, respectivamente. El modelo permite definir tanto las variables de entrada (acciones y parámetros de los materiales), y el calculo del coeficiente de seguridad, (FS), a partir del cual se presenta el criterio de fallo a emplear en los cálculos de fiabilidad mediante técnicas estadísticas. Las diferentes metodologías utilizadas se agrupan en distintos niveles, que van desde: a) los niveles básicos asociados al determinismo, trabajando con FS, y/o con FS parciales; b) cálculos de segundo nivel, como el método de los momentos de segundo orden, los cuales proporcionan una probabilidad de fallo a partir de la aproximación de la función de densidad de probabilidad conjunta mediante sus dos primeros momentos (media y desviación típica) y la definición de una región de fallo con el modelo propuesto; c) finalmente, los métodos exactos o de nivel III, tales como el método de simulación de Monte Carlo, que generan histogramas de parámetros y proporcionan probabilidades de fallo. Con ello se pretende profundizar en las técnicas de cálculo de fiabilidad en presas, además de estimar la influencia de los distintos parámetros que definen la cimentación. Este modelo se puede emplear para otras estructuras y tipologías. A modo de ejemplo, se aplica un cálculo para el caso de una presa bóveda y se analizan los resultados obtenidos.
Resumo:
El crecimiento urbano descontrolado en países en vía de desarrollo conlleva grandes desafíos para la gestión del territorio frente al riesgo de inundaciones, aún más en relación al cambio climático. El propósito de la presente comunicación es describir los aspectos más generales y relevantes del proyecto Adaptación Urbana Verde. El software MODCEL© fue adoptado para realizar simulaciones de distintas alternativas de solución y así determinar zonas inundadas y viviendas afectadas de Riohacha, elementos clave para comparar alternativas. El software MODCEL soporta una familia de modelos matemáticos hidráulicos cuasi 3D, discretizando el territorio en ?céldas?. Las salidas de simulación se han reportado en un sistema de información geográfica para la visualización y análisis. A través de un proceso participativo, apoyado en una evaluación de tipo multicriterio, se ha llegado a generar un plan urbano integrado contra las inundaciones con medidas no convencionales estructurales, destacándose el uso de elementos peculiares del territorio como lo son los humedales (naturales y e intervenidos) de Riohacha. Los resultados conseguidos pretenden ser un referente local para la adaptación al cambio climático con visibilidad nacional en la reducción del riesgo de desastres.
Resumo:
Leyendo distintos artículos en la Revista de Obras Públicas (Jiménez Salas, 1945) uno recuerda a las grandes figuras como Coulomb (1773), Poncelet (1840), Rankine (1856), Culmann (1866), Mohr (1871), Boussinesq (1876) y otros muchos, que construyeron la base de un conocimiento que poco a poco irían facilitando la complicada tarea que suponía la construcción. Pero sus avances eran aproximaciones que presentaban notables diferencias frente al comportamiento de la naturaleza. Esas discrepancias con la naturaleza llegó un momento que se hicieron demasiado patentes. Importantes asientos en la construcción de los modernos edificios, rotura de presas de materiales sueltos y grandes corrimientos de tierras, por ejemplo durante la construcción del canal de Panamá, llevaron a la Sociedad Americana de Ingenieros Civiles (ASCE) a crear un comité que analizase las prácticas de la construcción de la época. Hechos similares se producían en Europa, por ejemplo en desmontes para ferrocarriles, que en el caso de Suecia supusieron unas cuantiosas perdidas materiales y humanas. El ingeniero austriaco-americano Karl Terzaghi (1883) había podido comprobar, en su práctica profesional, la carencia de conocimientos para afrontar muchos de los retos que la naturaleza ofrecía. Inicialmente buscó la respuesta en la geología pero encontró que ésta carecía de la definición necesaria para la práctica de la ingeniería, por lo que se lanzó a una denodada tarea investigadora basada en el método experimental. Comenzó en 1917 con escasos medios, pero pronto llegó a desarrollar algunos ensayos que le permitieron establecer los primeros conceptos de una nueva ciencia, la Mecánica de Suelos. Ciencia que ve la luz en 1925 con la publicación de su libro Erdbaumechanik auf bodenphysikalischer Grundlage. Rápidamente otras figuras empezaron a hacer sus contribuciones científicas y de divulgación, como es el caso del ingeniero austriaco-americano Arthur Casagrande (1902), cuya iniciativa de organizar el primer Congreso Internacional de Mecánica de Suelos e Ingeniería de Cimentaciones proporcionó el altavoz que necesitaba esa nueva ciencia para su difusión. Al mismo tiempo, más figuras internacionales se fueron uniendo a este período de grandes avances e innovadores puntos de vista. Figuras como Alec Skempton (1914) en el Reino Unido, Ralph Peck (1912) en los Estados Unidos o Laurits Bjerrum (1918) en Noruega sobresalieron entre los grandes de la época. Esta tesis investiga las vidas de estos geotécnicos, artífices de múltiples avances científicos de la nueva ciencia denominada Mecánica de Suelos. Todas estas grandes figuras de la geotecnia fueron presidentes, en distintos periodos, de la Sociedad Internacional de Mecánica de Suelos e Ingeniería de Cimentaciones. Se deja constancia de ello en las biografías que han sido elaboradas a partir de fuentes de variada procedencia y de los datos cruzados encontrados sobre estos extraordinarios geotécnicos. Así, las biografías de Terzaghi, Casagrande, Skempton, Peck y Bjerrum contribuyen no solo a su conocimiento individual sino que constituyen conjuntamente un punto de vista privilegiado para la comprensión de los acontecimientos vividos por la Mecánica de Suelos en el segundo tercio del siglo XX, extendiéndose en algunos casos hasta los albores del siglo XXI. Las aportaciones científicas de estos geotécnicos encuentran también su lugar en la parte técnica de esta tesis, en la que sus contribuciones individuales iniciales que configuran los distintos capítulos conservan sus puntos de vista originales, lo que permite tener una visión de los principios de la Mecánica de Suelos desde su mismo origen. On reading several articles in the journal, Revista de Obras Públicas (Jiménez Salas, 1945), one recalls such leading figures as Coulomb (1773), Poncelet (1840), Rankine (1856), Culmann (1866), Mohr (1871) and Boussinesq (1876) among many others, who created the basis of scientific knowledge that would make the complicated task of construction progressively easier. However, their advances were approximations which suffered considerable discrepancies when faced with the behaviour of the forces of nature. There came a time when such discrepancies became all too evident. Substantial soil settlements when constructing modern buildings, embankment dam failures and grave landslides, during the construction of the Panama Canal for example, led the American Society of Civil Engineers (ASCE) to form a committee in order to analyse construction practices of the time. Similar incidents had taken place in Europe, for example with railway slides, which in the case of Sweden, had resulted in heavy losses in both materials and human lives. During the practice of his career, the Austrian-American engineer Karl Terzaghi (1883) had encountered the many challenges posed by the forces of nature and the lack of knowledge at his disposal with which to overcome them. Terzaghi first sought a solution in geology only to discover that this lacked the necessary accuracy for the practice of engineering. He therefore threw himself into tireless research based on the experimental method. He began in 1917 on limited means but soon managed to develop several tests, which would allow him to establish the basic fundamentals of a new science; Soil Mechanics, a science which first saw the light of day on the publication of Terzaghi’s book, Erdbaumechanik auf bodenphysikalischer Grundlage. Other figures were quick to make their own scientific contributions. Such was the case of Austrian-American engineer, Arthur Casagrande (1902), whose initiative to organize the first International Congress of Soil Mechanics and Foundation Engineering provided the springboard that this science needed. At the same time, other international figures were becoming involved in this period of great advances and innovative concepts. Figures including the likes of Alec Skempton (1914) in the United Kingdom, Ralph Peck (1912) in the United States, and Laurits Bjerrum (1918) in Norway stood out amongst the greatest of their time. This thesis investigates the lives of these geotechnical engineers to whom we are indebted for a great many scientific advances in this new science known as Soil Mechanics. Moreover, each of these eminent figures held the presidency of the International Society of Soil Mechanics and Foundation Engineering, record of which can be found in their biographies, drawn from diverse sources, and by crosschecking and referencing all the available information on these extraordinary geotechnical engineers. Thus, the biographies of Terzaghi, Casagrande, Skempton, Peck and Bjerrum not only serve to provide knowledge on the individual, but moreover, as a collective, they present us with an exceptional insight into the important developments which took place in Soil Mechanics in the second third of the 20th century, and indeed, in some cases, up to the dawn of the 21st. The scientific contributions of these geotechnical engineers also find their place in the technical part of this thesis in which the initial individual contributions which make up several chapters retain their original approaches allowing us a view of the principles of Soil Mechanics from its very beginnings.
Resumo:
La metodología Integrated Safety Analysis (ISA), desarrollada en el área de Modelación y Simulación (MOSI) del Consejo de Seguridad Nuclear (CSN), es un método de Análisis Integrado de Seguridad que está siendo evaluado y analizado mediante diversas aplicaciones impulsadas por el CSN; el análisis integrado de seguridad, combina las técnicas evolucionadas de los análisis de seguridad al uso: deterministas y probabilistas. Se considera adecuado para sustentar la Regulación Informada por el Riesgo (RIR), actual enfoque dado a la seguridad nuclear y que está siendo desarrollado y aplicado en todo el mundo. En este contexto se enmarcan, los proyectos Safety Margin Action Plan (SMAP) y Safety Margin Assessment Application (SM2A), impulsados por el Comité para la Seguridad de las Instalaciones Nucleares (CSNI) de la Agencia de la Energía Nuclear (NEA) de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) en el desarrollo del enfoque adecuado para el uso de las metodologías integradas en la evaluación del cambio en los márgenes de seguridad debidos a cambios en las condiciones de las centrales nucleares. El comité constituye un foro para el intercambio de información técnica y de colaboración entre las organizaciones miembro, que aportan sus propias ideas en investigación, desarrollo e ingeniería. La propuesta del CSN es la aplicación de la metodología ISA, especialmente adecuada para el análisis según el enfoque desarrollado en el proyecto SMAP que pretende obtener los valores best-estimate con incertidumbre de las variables de seguridad que son comparadas con los límites de seguridad, para obtener la frecuencia con la que éstos límites son superados. La ventaja que ofrece la ISA es que permite el análisis selectivo y discreto de los rangos de los parámetros inciertos que tienen mayor influencia en la superación de los límites de seguridad, o frecuencia de excedencia del límite, permitiendo así evaluar los cambios producidos por variaciones en el diseño u operación de la central que serían imperceptibles o complicados de cuantificar con otro tipo de metodologías. La ISA se engloba dentro de las metodologías de APS dinámico discreto que utilizan la generación de árboles de sucesos dinámicos (DET) y se basa en la Theory of Stimulated Dynamics (TSD), teoría de fiabilidad dinámica simplificada que permite la cuantificación del riesgo de cada una de las secuencias. Con la ISA se modelan y simulan todas las interacciones relevantes en una central: diseño, condiciones de operación, mantenimiento, actuaciones de los operadores, eventos estocásticos, etc. Por ello requiere la integración de códigos de: simulación termohidráulica y procedimientos de operación; delineación de árboles de sucesos; cuantificación de árboles de fallos y sucesos; tratamiento de incertidumbres e integración del riesgo. La tesis contiene la aplicación de la metodología ISA al análisis integrado del suceso iniciador de la pérdida del sistema de refrigeración de componentes (CCWS) que genera secuencias de pérdida de refrigerante del reactor a través de los sellos de las bombas principales del circuito de refrigerante del reactor (SLOCA). Se utiliza para probar el cambio en los márgenes, con respecto al límite de la máxima temperatura de pico de vaina (1477 K), que sería posible en virtud de un potencial aumento de potencia del 10 % en el reactor de agua a presión de la C.N. Zion. El trabajo realizado para la consecución de la tesis, fruto de la colaboración de la Escuela Técnica Superior de Ingenieros de Minas y Energía y la empresa de soluciones tecnológicas Ekergy Software S.L. (NFQ Solutions) con el área MOSI del CSN, ha sido la base para la contribución del CSN en el ejercicio SM2A. Este ejercicio ha sido utilizado como evaluación del desarrollo de algunas de las ideas, sugerencias, y los algoritmos detrás de la metodología ISA. Como resultado se ha obtenido un ligero aumento de la frecuencia de excedencia del daño (DEF) provocado por el aumento de potencia. Este resultado demuestra la viabilidad de la metodología ISA para obtener medidas de las variaciones en los márgenes de seguridad que han sido provocadas por modificaciones en la planta. También se ha mostrado que es especialmente adecuada en escenarios donde los eventos estocásticos o las actuaciones de recuperación o mitigación de los operadores pueden tener un papel relevante en el riesgo. Los resultados obtenidos no tienen validez más allá de la de mostrar la viabilidad de la metodología ISA. La central nuclear en la que se aplica el estudio está clausurada y la información relativa a sus análisis de seguridad es deficiente, por lo que han sido necesarias asunciones sin comprobación o aproximaciones basadas en estudios genéricos o de otras plantas. Se han establecido tres fases en el proceso de análisis: primero, obtención del árbol de sucesos dinámico de referencia; segundo, análisis de incertidumbres y obtención de los dominios de daño; y tercero, cuantificación del riesgo. Se han mostrado diversas aplicaciones de la metodología y ventajas que presenta frente al APS clásico. También se ha contribuido al desarrollo del prototipo de herramienta para la aplicación de la metodología ISA (SCAIS). ABSTRACT The Integrated Safety Analysis methodology (ISA), developed by the Consejo de Seguridad Nuclear (CSN), is being assessed in various applications encouraged by CSN. An Integrated Safety Analysis merges the evolved techniques of the usually applied safety analysis methodologies; deterministic and probabilistic. It is considered as a suitable tool for assessing risk in a Risk Informed Regulation framework, the approach under development that is being adopted on Nuclear Safety around the world. In this policy framework, the projects Safety Margin Action Plan (SMAP) and Safety Margin Assessment Application (SM2A), set up by the Committee on the Safety of Nuclear Installations (CSNI) of the Nuclear Energy Agency within the Organization for Economic Co-operation and Development (OECD), were aimed to obtain a methodology and its application for the integration of risk and safety margins in the assessment of the changes to the overall safety as a result of changes in the nuclear plant condition. The committee provides a forum for the exchange of technical information and cooperation among member organizations which contribute their respective approaches in research, development and engineering. The ISA methodology, proposed by CSN, specially fits with the SMAP approach that aims at obtaining Best Estimate Plus Uncertainty values of the safety variables to be compared with the safety limits. This makes it possible to obtain the exceedance frequencies of the safety limit. The ISA has the advantage over other methods of allowing the specific and discrete evaluation of the most influential uncertain parameters in the limit exceedance frequency. In this way the changes due to design or operation variation, imperceptibles or complicated to by quantified by other methods, are correctly evaluated. The ISA methodology is one of the discrete methodologies of the Dynamic PSA framework that uses the generation of dynamic event trees (DET). It is based on the Theory of Stimulated Dynamics (TSD), a simplified version of the theory of Probabilistic Dynamics that allows the risk quantification. The ISA models and simulates all the important interactions in a Nuclear Power Plant; design, operating conditions, maintenance, human actuations, stochastic events, etc. In order to that, it requires the integration of codes to obtain: Thermohydraulic and human actuations; Even trees delineation; Fault Trees and Event Trees quantification; Uncertainty analysis and risk assessment. This written dissertation narrates the application of the ISA methodology to the initiating event of the Loss of the Component Cooling System (CCWS) generating sequences of loss of reactor coolant through the seals of the reactor coolant pump (SLOCA). It is used to test the change in margins with respect to the maximum clad temperature limit (1477 K) that would be possible under a potential 10 % power up-rate effected in the pressurized water reactor of Zion NPP. The work done to achieve the thesis, fruit of the collaborative agreement of the School of Mining and Energy Engineering and the company of technological solutions Ekergy Software S.L. (NFQ Solutions) with de specialized modeling and simulation branch of the CSN, has been the basis for the contribution of the CSN in the exercise SM2A. This exercise has been used as an assessment of the development of some of the ideas, suggestions, and algorithms behind the ISA methodology. It has been obtained a slight increase in the Damage Exceedance Frequency (DEF) caused by the power up-rate. This result shows that ISA methodology allows quantifying the safety margin change when design modifications are performed in a NPP and is specially suitable for scenarios where stochastic events or human responses have an important role to prevent or mitigate the accidental consequences and the total risk. The results do not have any validity out of showing the viability of the methodology ISA. Zion NPP was retired and information of its safety analysis is scarce, so assumptions without verification or approximations based on generic studies have been required. Three phases are established in the analysis process: first, obtaining the reference dynamic event tree; second, uncertainty analysis and obtaining the damage domains; third, risk quantification. There have been shown various applications of the methodology and advantages over the classical PSA. It has also contributed to the development of the prototype tool for the implementation of the ISA methodology (SCAIS).