157 resultados para ROTURA PREMATURA DE MEMBRANAS FETALES


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este trabajo se centra en la formulación clásica del método de los elementos finitos y dentro de ella, únicamente en un aspecto todavía no bien estudiado: su exactitud. En opinión del autor, la complejidad de este estudio, en el estado actual de conocimientos, motiva que aquel no sea susceptible de un planteamiento general. Por esta razón, ha parecido conveniente la consideración de un caso estructural muy simple -la columna de sección variable-, correspondiente a un problema en elementos finitos - de clase C0, que, sin embargo, permite, por un lado, su extensión a situaciones estructurales análogas (problemas de torsión, membranas de revolución, bandas finitas, etc.), sin apenas modificación conceptual, y, por otra parte, aportar indicaciones sobre las posibilidades de llevar a cabo un análisis paralelo en elementos y estructuras más complejos, bien en mayor dimensión (estructuras 2-D y 3-D), bien en requerimientos de continuidad más elevada (estructuras de flexión, tipo c1 , etc.).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El cálculo moderno de edificios frente a acciones sísmicas contempla la posibilidad de comportamiento no lineal de los mismos, en orden a conseguir seguridad y economía en su diseño. La característica del hormigón armado de producir deformaciones plásticas sin llegar a rotura, supone un mecanismo suficientemente aceptable y seguro para absorber la energía generada durante el seísmo. En este artículo se presenta un método de cálculo no lineal de edificios, en el que se permite el desarrollo de rótulas plásticas en los nudos de unión de las vigas a los soportes. El comportamiento de los soportes se considera lineal. La acción sísmica es un conjunto de acelerogramas generados artificialmente en base a un proceso aleatorio tipo ruido de disparo filtrado, según el método de PENZIEN-RUIZ. Los resultados del cálculo se comparan con los obtenidos en un cálculo pseudo-estático aplicando la Norma POS-l.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta publicación tiene un carácter de introducción a una serie de temas diversos, incluso más pronunciado que las anteriores: estructuras continuas bidimensionales, análisis en rotura, cálculo dinámico, etc. Esta heterogeneidad en su contenido era necesaria, ya que este curso constituye el único en donde los Ingenieros de Caminos, Canales y Puertos, que no siguen la especialidad de Estructuras, tienen la oportunidad de encontrarse con unas nociones actualísimas y usuales, incluso en tres áreas estructurales que por su carácter general no pueden dejar de ser impartidas, si bien solo con un carácter somero e informativo dada la limitación del curso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El auge que ha surgido en los últimos años por la reparación de edificios y estructuras construidas con hormigón ha llevado al desarrollo de morteros de reparación cada vez más tecnológicos. En el desarrollo de estos morteros por parte de los fabricantes, surge la disyuntiva en el uso de los polímeros en sus formulaciones, por no encontrarse justificado en ocasiones el trinomio prestaciones/precio/aplicación. En esta tesis se ha realizado un estudio exhaustivo para la justificación de la utilización de estos morteros como morteros de reparación estructural como respuesta a la demanda actual disponiéndolo en tres partes: En la primera parte se realizó un estudio del arte de los morteros y sus constituyentes. El uso de los morteros se remonta a la antigüedad, utilizándose como componentes yeso y cal fundamentalmente. Los griegos y romanos desarrollaron el concepto de morteros de cal, introduciendo componentes como las puzolanas, cales hidraúlicas y áridos de polvo de mármol dando origen a morteros muy parecidos a los hormigones actuales. En la edad media y renacimiento se perdió la tecnología desarrollada por los romanos debido al extenso uso de la piedra en las construcciones civiles, defensivas y religiosas. Hubo que esperar hasta el siglo XIX para que J. Aspdin descubriese el actual cemento como el principal compuesto hidraúlico. Por último y ya en el siglo XX con la aparición de moléculas tales como estireno, melanina, cloruro de vinilo y poliésteres se comenzó a desarrollar la industria de los polímeros que se añadieron a los morteros dando lugar a los “composites”. El uso de polímeros en matrices cementantes dotan al mortero de propiedades tales como: adherencia, flexibilidad y trabajabilidad, como ya se tiene constancia desde los años 30 con el uso de caucho naturales. En la actualidad el uso de polímeros de síntesis (polivinialacetato, estireno-butadieno, viniacrílico y resinas epoxi) hacen que principalmente el mortero tenga mayor resistencia al ataque del agua y por lo tanto aumente su durabilidad ya que se minimizan todas las reacciones de deterioro (hielo, humedad, ataque biológico,…). En el presente estudio el polímero que se utilizó fue en estado polvo: polímero redispersable. Estos polímeros están encapsulados y cuando se ponen en contacto con el agua se liberan de la cápsula formando de nuevo el gel. En los morteros de reparación el único compuesto hidraúlico que hay es el cemento y es el principal constituyente hoy en día de los materiales de construcción. El cemento se obtiene por molienda conjunta de Clínker y yeso. El Clínker se obtiene por cocción de una mezcla de arcillas y calizas hasta una temperatura de 1450-1500º C por reacción en estado fundente. Para esta reacción se deben premachacar y homogeneizar las materias primas extraídas de la cantera. Son dosificadas en el horno con unas proporciones tales que cumplan con unas relación de óxidos tales que permitan formar las fases anhidras del Clínker C3S, C2S, C3A y C4AF. De la hidratación de las fases se obtiene el gel CSH que es el que proporciona al cemento de sus propiedades. Existe una norma (UNE-EN 197-1) que establece la composición, especificaciones y tipos de cementos que se fabrican en España. La tendencia actual en la fabricación del cemento pasa por el uso de cementos con mayores contenidos de adiciones (cal, puzolana, cenizas volantes, humo de sílice,…) con el objeto de obtener cementos más sostenibles. Otros componentes que influyen en las características de los morteros son: - Áridos. En el desarrollo de los morteros se suelen usar naturales, bien calizos o silícicos. Hacen la función de relleno y de cohesionantes de la matriz cementante. Deben ser inertes - Aditivos. Son aquellos componentes del mortero que son dosificados en una proporción menor al 5%. Los más usados son los superplastificantes por su acción de reductores de agua que revierte en una mayor durabilidad del mortero. Una vez analizada la composición de los morteros, la mejora tecnológica de los mismos está orientada al aumento de la durabilidad de su vida en obra. La durabilidad se define como la capacidad que éste tiene de resistir a la acción del ambiente, ataques químicos, físicos, biológicos o cualquier proceso que tienda a su destrucción. Estos procesos dependen de factores tales como la porosidad del hormigón y de la exposición al ambiente. En cuanto a la porosidad hay que tener en cuenta la distribución de macroporos, mesoporos y microporos de la estructura del hormigón, ya que no todos son susceptibles de que se produzca el transporte de agentes deteriorantes, provocando tensiones internas en las paredes de los mismos y destruyendo la matriz cementante Por otro lado los procesos de deterioro están relacionados con la acción del agua bien como agente directo o como vehículo de transporte del agente deteriorante. Un ambiente que resulta muy agresivo para los hormigones es el marino. En este caso los procesos de deterioro están relacionados con la presencia de cloruros y de sulfatos tanto en el agua de mar como en la atmosfera que en combinación con el CO2 y O2 forman la sal de Friedel. El deterioro de las estructuras en ambientes marinos se produce por la debilitación de la matriz cementante y posterior corrosión de las armaduras que provocan un aumento de volumen en el interior y rotura de la matriz cementante por tensiones capilares. Otras reacciones que pueden producir estos efectos son árido-álcali y difusión de iones cloruro. La durabilidad de un hormigón también depende del tipo de cemento y su composición química (cementos con altos contenidos de adición son más resistentes), relación agua/cemento y contenido de cemento. La Norma UNE-EN 1504 que consta de 10 partes, define los productos para la protección y reparación de estructuras de hormigón, el control de calidad de los productos, propiedades físico-químicas y durables que deben cumplir. En esta Norma se referencian otras 65 normas que ofrecen los métodos de ensayo para la evaluación de los sistemas de reparación. En la segunda parte de esta Tesis se hizo un diseño de experimentos con diferentes morteros poliméricos (con concentraciones de polímero entre 0 y 25%), tomando como referencia un mortero control sin polímero, y se estudiaron sus propiedades físico-químicas, mecánicas y durables. Para mortero con baja proporción de polímero se recurre a sistemas monocomponentes y para concentraciones altas bicomponentes en la que el polímero está en dispersión acuosa. Las propiedades mecánicas medidas fueron: resistencia a compresión, resistencia a flexión, módulo de elasticidad, adherencia por tracción directa y expansión-retracción, todas ellas bajo normas UNE. Como ensayos de caracterización de la durabilidad: absorción capilar, resistencia a carbonatación y adherencia a tracción después de ciclos hielo-deshielo. El objeto de este estudio es seleccionar el mortero con mejor resultado general para posteriormente hacer una comparativa entre un mortero con polímero (cantidad optimizada) y un mortero sin polímero. Para seleccionar esa cantidad óptima de polímero a usar se han tenido en cuenta los siguientes criterios: el mortero debe tener una clasificación R4 en cuanto a prestaciones mecánicas al igual que para evaluar sus propiedades durables frente a los ciclos realizados, siempre teniendo en cuenta que la adición de polímero no puede ser elevada para hacer el mortero competitivo. De este estudio se obtuvieron las siguientes conclusiones generales: - Un mortero normalizado no cumple con propiedades para ser clasificado como R3 o R4. - Sin necesidad de polímero se puede obtener un mortero que cumpliría con R4 para gran parte de las características medidas - Es necesario usar relaciones a:c< 0.5 para conseguir morteros R4, - La adición de polímero mejora siempre la adherencia, abrasión, absorción capilar y resistencia a carbonatación - Las diferentes proporciones de polímero usadas siempre suponen una mejora tecnológica en propiedades mecánicas y de durabilidad. - El polímero no influye sobre la expansión y retracción del mortero. - La adherencia se mejora notablemente con el uso del polímero. - La presencia de polímero en los morteros mejoran las propiedades relacionadas con la acción del agua, por aumento del poder cementante y por lo tanto de la cohesión. El poder cementante disminuye la porosidad. Como consecuencia final de este estudio se determinó que la cantidad óptima de polímero para la segunda parte del estudio es 2.0-3.5%. La tercera parte consistió en el estudio comparativo de dos morteros: uno sin polímero (mortero A) y otro con la cantidad optimizada de polímero, concluida en la parte anterior (mortero B). Una vez definido el porcentaje de polímeros que mejor se adapta a los resultados, se plantea un nuevo esqueleto granular mejorado, tomando una nueva dosificación de tamaños de áridos, tanto para el mortero de referencia, como para el mortero con polímeros, y se procede a realizar los ensayos para su caracterización física, microestructural y de durabilidad, realizándose, además de los ensayos de la parte 1, mediciones de las propiedades microestructurales que se estudiaron a través de las técnicas de porosimetría de mercurio y microscopia electrónica de barrido (SEM); así como propiedades del mortero en estado fresco (consistencia, contenido de aire ocluido y tiempo final de fraguado). El uso del polímero frente a la no incorporación en la formulación del mortero, proporcionó al mismo de las siguientes ventajas: - Respecto a sus propiedades en estado fresco: El mortero B presentó mayor consistencia y menor cantidad de aire ocluido lo cual hace un mortero más trabajable y más dúctil al igual que más resistente porque al endurecer dejará menos huecos en su estructura interna y aumentará su durabilidad. Al tener también mayor tiempo de fraguado, pero no excesivo permite que la manejabilidad para puesta en obra sea mayor, - Respecto a sus propiedades mecánicas: Destacar la mejora en la adherencia. Es una de las principales propiedades que confiere el polímero a los morteros. Esta mayor adherencia revierte en una mejora de la adherencia al soporte, minimización de las posibles reacciones en la interfase hormigón-mortero y por lo tanto un aumento en la durabilidad de la reparación ejecutada con el mortero y por consecuencia del hormigón. - Respecto a propiedades microestructurales: la porosidad del mortero con polímero es menor y menor tamaño de poro critico susceptible de ser atacado por agentes externos causantes de deterioro. De los datos obtenidos por SEM no se observaron grandes diferencias - En cuanto a abrasión y absorción capilar el mortero B presentó mejor comportamiento como consecuencia de su menor porosidad y su estructura microscópica. - Por último el comportamiento frente al ataque de sulfatos y agua de mar, así como al frente de carbonatación, fue más resistente en el mortero con polímero por su menor permeabilidad y su menor porosidad. Para completar el estudio de esta tesis, y debido a la gran importancia que están tomando en la actualidad factores como la sostenibilidad se ha realizado un análisis de ciclo de vida de los dos morteros objeto de estudio de la segunda parte experimental.In recent years, the extended use of repair materials for buildings and structures made the development of repair mortars more and more technical. In the development of these mortars by producers, the use of polymers in the formulations is a key point, because sometimes this use is not justified when looking to the performance/price/application as a whole. This thesis is an exhaustive study to justify the use of these mortars as a response to the current growing demand for structural repair. The thesis is classified in three parts:The first part is the study of the state of the art of mortars and their constituents.In ancient times, widely used mortars were based on lime and gypsum. The Greeks and Romans developed the concept of lime mortars, introducing components such as pozzolans, hydraulic limes and marble dust as aggregates, giving very similar concrete mortars to the ones used currently. In the middle Age and Renaissance, the technology developed by the Romans was lost, due to the extensive use of stone in the civil, religious and defensive constructions. It was not until the 19th century, when J. Aspdin discovered the current cement as the main hydraulic compound. Finally in the 20th century, with the appearance of molecules such as styrene, melanin, vinyl chloride and polyester, the industry began to develop polymers which were added to the binder to form special "composites".The use of polymers in cementitious matrixes give properties to the mortar such as adhesion, Currently, the result of the polymer synthesis (polivynilacetate, styrene-butadiene, vynilacrylic and epoxy resins) is that mortars have increased resistance to water attack and therefore, they increase their durability since all reactions of deterioration are minimised (ice, humidity, biological attack,...). In the present study the polymer used was redispersible polymer powder. These polymers are encapsulated and when in contact with water, they are released from the capsule forming a gel.In the repair mortars, the only hydraulic compound is the cement and nowadays, this is the main constituent of building materials. The current trend is centered in the use of higher contents of additions (lime, pozzolana, fly ash, silica, silica fume...) in order to obtain more sustainable cements. Once the composition of mortars is analyzed, the technological improvement is centred in increasing the durability of the working life. Durability is defined as the ability to resist the action of the environment, chemical, physical, and biological attacks or any process that tends to its destruction. These processes depend on factors such as the concrete porosity and the environmental exposure. In terms of porosity, it be considered, the distribution of Macropores and mesopores and pores of the concrete structure, since not all of them are capable of causing the transportation of damaging agents, causing internal stresses on the same walls and destroying the cementing matrix.In general, deterioration processes are related to the action of water, either as direct agent or as a transport vehicle. Concrete durability also depends on the type of cement and its chemical composition (cement with high addition amounts are more resistant), water/cement ratio and cement content. The standard UNE-EN 1504 consists of 10 parts and defines the products for the protection and repair of concrete, the quality control of products, physical-chemical properties and durability. Other 65 standards that provide the test methods for the evaluation of repair systems are referenced in this standard. In the second part of this thesis there is a design of experiments with different polymer mortars (with concentrations of polymer between 0 and 25%), taking a control mortar without polymer as a reference and its physico-chemical, mechanical and durable properties were studied. For mortars with low proportion of polymer, 1 component systems are used (powder polymer) and for high polymer concentrations, water dispersion polymers are used. The mechanical properties measured were: compressive strength, flexural strength, modulus of elasticity, adhesion by direct traction and expansion-shrinkage, all of them under standards UNE. As a characterization of the durability, following tests are carried out: capillary absorption, resistance to carbonation and pull out adhesion after freeze-thaw cycles. The target of this study is to select the best mortar to make a comparison between mortars with polymer (optimized amount) and mortars without polymer. To select the optimum amount of polymer the following criteria have been considered: the mortar must have a classification R4 in terms of mechanical performance as well as in durability properties against the performed cycles, always bearing in mind that the addition of polymer cannot be too high to make the mortar competitive in price. The following general conclusions were obtained from this study: - A standard mortar does not fulfill the properties to be classified as R3 or R4 - Without polymer, a mortar may fulfill R4 for most of the measured characteristics. - It is necessary to use relations w/c ratio < 0.5 to get R4 mortars - The addition of polymer always improves adhesion, abrasion, capillary absorption and carbonation resistance - The different proportions of polymer used always improve the mechanical properties and durability. - The polymer has no influence on the expansion and shrinkage of the mortar - Adhesion is improved significantly with the use of polymer. - The presence of polymer in mortars improves the properties related to the action of the water, by the increase of the cement power and therefore the cohesion. The cementitious properties decrease the porosity. As final result of this study, it was determined that the optimum amount of polymer for the second part of the study is 2.0 - 3.5%. The third part is the comparative study between two mortars: one without polymer (A mortar) and another with the optimized amount of polymer, completed in the previous part (mortar B). Once the percentage of polymer is defined, a new granular skeleton is defined, with a new dosing of aggregate sizes, for both the reference mortar, the mortar with polymers, and the tests for physical, microstructural characterization and durability, are performed, as well as trials of part 1, measurements of the microstructural properties that were studied by scanning electron microscopy (SEM) and mercury porosimetry techniques; as well as properties of the mortar in fresh State (consistency, content of entrained air and final setting time). The use of polymer versus non polymer mortar, provided the following advantages: - In fresh state: mortar with polymer presented higher consistency and least amount of entrained air, which makes a mortar more workable and more ductile as well as more resistant because hardening will leave fewer gaps in its internal structure and increase its durability. Also allow it allows a better workability because of the longer (not excessive) setting time. - Regarding the mechanical properties: improvement in adhesion. It is one of the main properties which give the polymer to mortars. This higher adhesion results in an improvement of adhesion to the substrate, minimization of possible reactions at the concrete-mortar interface and therefore an increase in the durability of the repair carried out with mortar and concrete. - Respect to microstructural properties: the porosity of mortar with polymer is less and with smaller pore size, critical to be attacked by external agents causing deterioration. No major differences were observed from the data obtained by SEM - In terms of abrasion and capillary absorption, polymer mortar presented better performance as a result of its lower porosity and its microscopic structure. - Finally behavior against attack by sulfates and seawater, as well as to carbonation, was better in the mortar with polymer because of its lower permeability and its lower porosity. To complete the study, due to the great importance of sustainability for future market facts, the life cycle of the two mortars studied was analysed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las discrepancias entre las funciones de distribución acumulada de la tensión de fractura del vidrio es una de las dificultades encontradas para incorporar la filosofía probabilista para el diseño del vidrio. Se utilizan tres ensayos para la caracterización de la tensión de fractura del vidrio: flexión de viga en cuatro puntos, ensayo con dobles anillos concéntricos con pequeña superficie y con gran superficie. La comparación directa de las funciones de distribución presenta discrepancias claras relacionadas con el estado de tensión -uni o biaxial- y con el comportamiento de la estructura -grandes o pequeños desplazamientos. Con un procedimiento iterativo, se ajustan los resultados de los ensayos (carga - presión- probabilidad de rotura) a través de un modelo de elementos finitos que permite estimar las aéreas efectivas de cada espécimen. Los parámetros finales para la tensión de rotura mejoran la estimación de la probabilidad de la carga de rotura de cada probeta con errores inferiores al 10%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tesis aborda los problemas de eficiencia de las redes eléctrica desde el punto de vista del consumo. En particular, dicha eficiencia es mejorada mediante el suavizado de la curva de consumo agregado. Este objetivo de suavizado de consumo implica dos grandes mejoras en el uso de las redes eléctricas: i) a corto plazo, un mejor uso de la infraestructura existente y ii) a largo plazo, la reducción de la infraestructura necesaria para suplir las mismas necesidades energéticas. Además, esta Tesis se enfrenta a un nuevo paradigma energético, donde la presencia de generación distribuida está muy extendida en las redes eléctricas, en particular, la generación fotovoltaica (FV). Este tipo de fuente energética afecta al funcionamiento de la red, incrementando su variabilidad. Esto implica que altas tasas de penetración de electricidad de origen fotovoltaico es perjudicial para la estabilidad de la red eléctrica. Esta Tesis trata de suavizar la curva de consumo agregado considerando esta fuente energética. Por lo tanto, no sólo se mejora la eficiencia de la red eléctrica, sino que también puede ser aumentada la penetración de electricidad de origen fotovoltaico en la red. Esta propuesta conlleva grandes beneficios en los campos económicos, social y ambiental. Las acciones que influyen en el modo en que los consumidores hacen uso de la electricidad con el objetivo producir un ahorro energético o un aumento de eficiencia son llamadas Gestión de la Demanda Eléctrica (GDE). Esta Tesis propone dos algoritmos de GDE diferentes para cumplir con el objetivo de suavizado de la curva de consumo agregado. La diferencia entre ambos algoritmos de GDE reside en el marco en el cual estos tienen lugar: el marco local y el marco de red. Dependiendo de este marco de GDE, el objetivo energético y la forma en la que se alcanza este objetivo son diferentes. En el marco local, el algoritmo de GDE sólo usa información local. Este no tiene en cuenta a otros consumidores o a la curva de consumo agregado de la red eléctrica. Aunque esta afirmación pueda diferir de la definición general de GDE, esta vuelve a tomar sentido en instalaciones locales equipadas con Recursos Energéticos Distribuidos (REDs). En este caso, la GDE está enfocada en la maximización del uso de la energía local, reduciéndose la dependencia con la red. El algoritmo de GDE propuesto mejora significativamente el auto-consumo del generador FV local. Experimentos simulados y reales muestran que el auto-consumo es una importante estrategia de gestión energética, reduciendo el transporte de electricidad y alentando al usuario a controlar su comportamiento energético. Sin embargo, a pesar de todas las ventajas del aumento de auto-consumo, éstas no contribuyen al suavizado del consumo agregado. Se han estudiado los efectos de las instalaciones locales en la red eléctrica cuando el algoritmo de GDE está enfocado en el aumento del auto-consumo. Este enfoque puede tener efectos no deseados, incrementando la variabilidad en el consumo agregado en vez de reducirlo. Este efecto se produce porque el algoritmo de GDE sólo considera variables locales en el marco local. Los resultados sugieren que se requiere una coordinación entre las instalaciones. A través de esta coordinación, el consumo debe ser modificado teniendo en cuenta otros elementos de la red y buscando el suavizado del consumo agregado. En el marco de la red, el algoritmo de GDE tiene en cuenta tanto información local como de la red eléctrica. En esta Tesis se ha desarrollado un algoritmo autoorganizado para controlar el consumo de la red eléctrica de manera distribuida. El objetivo de este algoritmo es el suavizado del consumo agregado, como en las implementaciones clásicas de GDE. El enfoque distribuido significa que la GDE se realiza desde el lado de los consumidores sin seguir órdenes directas emitidas por una entidad central. Por lo tanto, esta Tesis propone una estructura de gestión paralela en lugar de una jerárquica como en las redes eléctricas clásicas. Esto implica que se requiere un mecanismo de coordinación entre instalaciones. Esta Tesis pretende minimizar la cantidad de información necesaria para esta coordinación. Para lograr este objetivo, se han utilizado dos técnicas de coordinación colectiva: osciladores acoplados e inteligencia de enjambre. La combinación de estas técnicas para llevar a cabo la coordinación de un sistema con las características de la red eléctrica es en sí mismo un enfoque novedoso. Por lo tanto, este objetivo de coordinación no es sólo una contribución en el campo de la gestión energética, sino también en el campo de los sistemas colectivos. Los resultados muestran que el algoritmo de GDE propuesto reduce la diferencia entre máximos y mínimos de la red eléctrica en proporción a la cantidad de energía controlada por el algoritmo. Por lo tanto, conforme mayor es la cantidad de energía controlada por el algoritmo, mayor es la mejora de eficiencia en la red eléctrica. Además de las ventajas resultantes del suavizado del consumo agregado, otras ventajas surgen de la solución distribuida seguida en esta Tesis. Estas ventajas se resumen en las siguientes características del algoritmo de GDE propuesto: • Robustez: en un sistema centralizado, un fallo o rotura del nodo central provoca un mal funcionamiento de todo el sistema. La gestión de una red desde un punto de vista distribuido implica que no existe un nodo de control central. Un fallo en cualquier instalación no afecta el funcionamiento global de la red. • Privacidad de datos: el uso de una topología distribuida causa de que no hay un nodo central con información sensible de todos los consumidores. Esta Tesis va más allá y el algoritmo propuesto de GDE no utiliza información específica acerca de los comportamientos de los consumidores, siendo la coordinación entre las instalaciones completamente anónimos. • Escalabilidad: el algoritmo propuesto de GDE opera con cualquier número de instalaciones. Esto implica que se permite la incorporación de nuevas instalaciones sin afectar a su funcionamiento. • Bajo coste: el algoritmo de GDE propuesto se adapta a las redes actuales sin requisitos topológicos. Además, todas las instalaciones calculan su propia gestión con un bajo requerimiento computacional. Por lo tanto, no se requiere un nodo central con un alto poder de cómputo. • Rápido despliegue: las características de escalabilidad y bajo coste de los algoritmos de GDE propuestos permiten una implementación rápida. No se requiere una planificación compleja para el despliegue de este sistema. ABSTRACT This Thesis addresses the efficiency problems of the electrical grids from the consumption point of view. In particular, such efficiency is improved by means of the aggregated consumption smoothing. This objective of consumption smoothing entails two major improvements in the use of electrical grids: i) in the short term, a better use of the existing infrastructure and ii) in long term, the reduction of the required infrastructure to supply the same energy needs. In addition, this Thesis faces a new energy paradigm, where the presence of distributed generation is widespread over the electrical grids, in particular, the Photovoltaic (PV) generation. This kind of energy source affects to the operation of the grid by increasing its variability. This implies that a high penetration rate of photovoltaic electricity is pernicious for the electrical grid stability. This Thesis seeks to smooth the aggregated consumption considering this energy source. Therefore, not only the efficiency of the electrical grid is improved, but also the penetration of photovoltaic electricity into the grid can be increased. This proposal brings great benefits in the economic, social and environmental fields. The actions that influence the way that consumers use electricity in order to achieve energy savings or higher efficiency in energy use are called Demand-Side Management (DSM). This Thesis proposes two different DSM algorithms to meet the aggregated consumption smoothing objective. The difference between both DSM algorithms lie in the framework in which they take place: the local framework and the grid framework. Depending on the DSM framework, the energy goal and the procedure to reach this goal are different. In the local framework, the DSM algorithm only uses local information. It does not take into account other consumers or the aggregated consumption of the electrical grid. Although this statement may differ from the general definition of DSM, it makes sense in local facilities equipped with Distributed Energy Resources (DERs). In this case, the DSM is focused on the maximization of the local energy use, reducing the grid dependence. The proposed DSM algorithm significantly improves the self-consumption of the local PV generator. Simulated and real experiments show that self-consumption serves as an important energy management strategy, reducing the electricity transport and encouraging the user to control his energy behavior. However, despite all the advantages of the self-consumption increase, they do not contribute to the smooth of the aggregated consumption. The effects of the local facilities on the electrical grid are studied when the DSM algorithm is focused on self-consumption maximization. This approach may have undesirable effects, increasing the variability in the aggregated consumption instead of reducing it. This effect occurs because the algorithm only considers local variables in the local framework. The results suggest that coordination between these facilities is required. Through this coordination, the consumption should be modified by taking into account other elements of the grid and seeking for an aggregated consumption smoothing. In the grid framework, the DSM algorithm takes into account both local and grid information. This Thesis develops a self-organized algorithm to manage the consumption of an electrical grid in a distributed way. The goal of this algorithm is the aggregated consumption smoothing, as the classical DSM implementations. The distributed approach means that the DSM is performed from the consumers side without following direct commands issued by a central entity. Therefore, this Thesis proposes a parallel management structure rather than a hierarchical one as in the classical electrical grids. This implies that a coordination mechanism between facilities is required. This Thesis seeks for minimizing the amount of information necessary for this coordination. To achieve this objective, two collective coordination techniques have been used: coupled oscillators and swarm intelligence. The combination of these techniques to perform the coordination of a system with the characteristics of the electric grid is itself a novel approach. Therefore, this coordination objective is not only a contribution in the energy management field, but in the collective systems too. Results show that the proposed DSM algorithm reduces the difference between the maximums and minimums of the electrical grid proportionally to the amount of energy controlled by the system. Thus, the greater the amount of energy controlled by the algorithm, the greater the improvement of the efficiency of the electrical grid. In addition to the advantages resulting from the smoothing of the aggregated consumption, other advantages arise from the distributed approach followed in this Thesis. These advantages are summarized in the following features of the proposed DSM algorithm: • Robustness: in a centralized system, a failure or breakage of the central node causes a malfunction of the whole system. The management of a grid from a distributed point of view implies that there is not a central control node. A failure in any facility does not affect the overall operation of the grid. • Data privacy: the use of a distributed topology causes that there is not a central node with sensitive information of all consumers. This Thesis goes a step further and the proposed DSM algorithm does not use specific information about the consumer behaviors, being the coordination between facilities completely anonymous. • Scalability: the proposed DSM algorithm operates with any number of facilities. This implies that it allows the incorporation of new facilities without affecting its operation. • Low cost: the proposed DSM algorithm adapts to the current grids without any topological requirements. In addition, every facility calculates its own management with low computational requirements. Thus, a central computational node with a high computational power is not required. • Quick deployment: the scalability and low cost features of the proposed DSM algorithms allow a quick deployment. A complex schedule of the deployment of this system is not required.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aunque las primeras fábricas de tubos de poliéster reforzado con fibra de vidrio en España datan del año 1984, no es sino hasta el año 1996 cuando se comienza su utilización masiva como un sustituto de las tuberías de fribrocemento, que ya habían sido prohibidas por la legislación, debido a los efectos cancerígenos de este material. Desde entonces se ha prodigado la utilización de todas las diferentes tipologías de esta clase de tubería, de conformidad a los procesos de fabricación empleados que se encuentran recopilados en el AWWA Manual M45 (Fiberglass Pipe Design), obteniéndose muy diversos resultados. Durante estos años, ha surgido una creciente preocupación en los usuarios de este tipo de tuberías dadas las continuas y numerosas averías en todo el ámbito geográfico. Esto ha promovido el desarrollo de la presente investigaicón, que se ha dividido en dos partes y que ha concluido con la determinación de un nuevo mecanismo específico de fractura. La primera parte se centró en la obtención y desarrollo del modelo teórico que hemos venido a denominar como "Teoría de la Caja Mecánicamente Contaminada", y que está basado en la contaminación o separación por un impacto de dos de las tres capas que forman la tubería, la capa intermedia de arena y la capa más interna o "inner layer". La consecuencia es la disminución del canto resistente, la rotura del inner layer y la entrada de fluido a la capa de arena. Para la evaluación de la magnitud de esta separación se ha desarrollado un modelo analítico que ha determinado la existencia de una relación cuadrática que la rige, y que ha sido verificado mediante ensayos de impacto sobre probetas de tuberías, alcanzando ajustes de hasta el 92%. Así, se ha determinado que impactos de muy baja intensidad, del entorno de 90 a 160 Julios en tuberías Filament Winding continuo PN 16-20 (de 800 a 1000mm) pueden comprometer seriamente la integridad estructural de la tubería sin dejar, en un principio, muesca o traza alguna que pueda alertar del problema. Los siguientes pasos en el estudio se dirigieron a determinar qué otros mecanismos, aparte del golpe, podrían contaminar la tubería y a estudiar el consiguiente avance de la fractura a las capas externas. Se trataba además de analizar la aparición en el tubo de unas misteriosas manchas en forma de "piel de leopardo" y de otros fenómenos aparecidos en las averías como que algunas de las deformaciones de la rotura por presión interna son hacia el interior del tubo y no al revés, como habría sido de esperar a priori. Se optó entonces por comenzar la que ha constituido la segunda parte de la investigación. Para ello se recurrió a realizar ensayos hidráulicos en banco de pruebas a alta presión, cuyos resultados fueron sorprendentes al descubrir que en el proceso se producía la hidrólisis de la resina de poliéster no catalizada que fluía hacia el exterior del tubo. Como consecuencia se llevaron a cabo nuevos ensayos físicos y químicos para estudiar la migración del material y la hidrólisis producida en el proceso de fractura. En este estudio, resultó muy relevante el hecho de sobrepasar o no la presión que producía el desagarro entre las capas del tubo. En definitiva, en esta investigación, que ha constado de estudios analíticos y estudios experimentales, químicos y numéricos, se ha determinado un nuevo mecanismo de fractura que explica gran parte de los fallos acontecidos en las tuberías de poliéster reforzado con fibra de vidrio. Como aplicación se exponen recomendaciones para mejorar el comportamiento mecánico de esta tipología y evitar así los sobrecostes millonarios producidos por su reposición. Numerous and continuous failures in fiberglass reinforced polyester pipes of different companies and manufacturing processes of the AWWA Manual M45 (Fiberglass Pipe Design), have prompted the development of this research, that has concluded with a specific mechanism describing pipe fractures. This research was carried out via two independent studies. The first one is the development of the hypothesis that turned into the Mechanically Contaminated Layer Theory. This theory describes the fracture mchanism which explains a significant part of massive failures due to the existence of a sand layer placed near the neutral axis in the core making the composite very sensitive to impacts in fibreglass reinforced polyester pipes. These failures create interface delamination and consequently fluid can leak into supporting sand backfill thereby iniating the fracture process. In order to assess the delimination magnitude, an analytic method is developed and a squared root law between delamination and energy applied proposed. Vertical blunt ram testts on samples extracted from complete pipes have been carried out to verify this theory, reaching a goodness of fit up to 92%. It is concluded that low energy impacts, around 90-160J in 800-1000mm diameter PN 16-20 continuous filament winding pipes, can seriously compromise their structural integraty with no external trace. The next step in the study was to determine what other mechanism, apart from the brittle hit, could contaminate the pipe and to analyse the consequente advance of the fracture to the external layers. Another aim was to analyse two phenomena occurred in real pipe failures. The first one is the appearance on the tube of "leopard fur" stains on some of the analysed failures, and the other phenomenon is the "inverse fracture", in which the deformations of the failure due to internal pressure are towards the inside of the tube and not the other way round, as it would be expected. It was then chosen to follow a new branch of the investigation by hydraulic high-pressure bench tests that study seepage and load transmission. The results were very surprising as it was discovered that in the process, hydrolysis of the non-catalysed polyester resin occured, flowing towards the outer of the pipe, which entailed the development of chemical and physical tests of the exuded material to study material migration and hydrolysis of the fracture process. In this particular study it was relevant to exceed or not the pressure that produced the rip between the layers of the tube. In conclusion, a new breakage mechanism in FRP pies with sand-filled layer has been found, which explains a high part of the failure global cases. The whole failure process is justified by the Mechanically Contaminated Layer Theory, which has been corroborated by means of analytical, numerical and experimental studies. Several recommendations are also provided in order to improve the mechanical behaviour of this typology and avoid the millionaire overruns generated by its massive failures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad existe un gran conocimiento en la caracterización de rellenos hidráulicos, tanto en su caracterización estática, como dinámica. Sin embargo, son escasos en la literatura estudios más generales y globales de estos materiales, muy relacionados con sus usos y principales problemáticas en obras portuarias y mineras. Los procedimientos semi‐empíricos para la evaluación del efecto silo en las celdas de cajones portuarios, así como para el potencial de licuefacción de estos suelos durantes cargas instantáneas y terremotos, se basan en estudios donde la influencia de los parámetros que los rigen no se conocen en gran medida, dando lugar a resultados con considerable dispersión. Este es el caso, por ejemplo, de los daños notificados por el grupo de investigación del Puerto de Barcelona, la rotura de los cajones portuarios en el Puerto de Barcelona en 2007. Por estos motivos y otros, se ha decidido desarrollar un análisis para la evaluación de estos problemas mediante la propuesta de una metodología teórico‐numérica y empírica. El enfoque teórico‐numérico desarrollado en el presente estudio se centra en la determinación del marco teórico y las herramientas numéricas capaces de solventar los retos que presentan estos problemas. La complejidad del problema procede de varios aspectos fundamentales: el comportamiento no lineal de los suelos poco confinados o flojos en procesos de consolidación por preso propio; su alto potencial de licuefacción; la caracterización hidromecánica de los contactos entre estructuras y suelo (camino preferencial para el flujo de agua y consolidación lateral); el punto de partida de los problemas con un estado de tensiones efectivas prácticamente nulo. En cuanto al enfoque experimental, se ha propuesto una metodología de laboratorio muy sencilla para la caracterización hidromecánica del suelo y las interfaces, sin la necesidad de usar complejos aparatos de laboratorio o procedimientos excesivamente complicados. Este trabajo incluye por tanto un breve repaso a los aspectos relacionados con la ejecución de los rellenos hidráulicos, sus usos principales y los fenómenos relacionados, con el fin de establecer un punto de partida para el presente estudio. Este repaso abarca desde la evolución de las ecuaciones de consolidación tradicionales (Terzaghi, 1943), (Gibson, English & Hussey, 1967) y las metodologías de cálculo (Townsend & McVay, 1990) (Fredlund, Donaldson and Gitirana, 2009) hasta las contribuciones en relación al efecto silo (Ranssen, 1985) (Ravenet, 1977) y sobre el fenómeno de la licuefacción (Casagrande, 1936) (Castro, 1969) (Been & Jefferies, 1985) (Pastor & Zienkiewicz, 1986). Con motivo de este estudio se ha desarrollado exclusivamente un código basado en el método de los elementos finitos (MEF) empleando el programa MATLAB. Para ello, se ha esablecido un marco teórico (Biot, 1941) (Zienkiewicz & Shiomi, 1984) (Segura & Caron, 2004) y numérico (Zienkiewicz & Taylor, 1989) (Huerta & Rodríguez, 1992) (Segura & Carol, 2008) para resolver problemas de consolidación multidimensional con condiciones de contorno friccionales, y los correspondientes modelos constitutivos (Pastor & Zienkiewicz, 1986) (Fiu & Liu, 2011). Asimismo, se ha desarrollado una metodología experimental a través de una serie de ensayos de laboratorio para la calibración de los modelos constitutivos y de la caracterización de parámetros índice y de flujo (Castro, 1969) (Bahda 1997) (Been & Jefferies, 2006). Para ello se han empleado arenas de Hostun como material (relleno hidráulico) de referencia. Como principal aportación se incluyen una serie de nuevos ensayos de corte directo para la caracterización hidromecánica de la interfaz suelo – estructura de hormigón, para diferentes tipos de encofrados y rugosidades. Finalmente, se han diseñado una serie de algoritmos específicos para la resolución del set de ecuaciones diferenciales de gobierno que definen este problema. Estos algoritmos son de gran importancia en este problema para tratar el procesamiento transitorio de la consolidación de los rellenos hidráulicos, y de otros efectos relacionados con su implementación en celdas de cajones, como el efecto silo y la licuefacciones autoinducida. Para ello, se ha establecido un modelo 2D axisimétrico, con formulación acoplada u‐p para elementos continuos y elementos interfaz (de espesor cero), que tratan de simular las condiciones de estos rellenos hidráulicos cuando se colocan en las celdas portuarias. Este caso de estudio hace referencia clara a materiales granulares en estado inicial muy suelto y con escasas tensiones efectivas, es decir, con prácticamente todas las sobrepresiones ocasionadas por el proceso de autoconsolidación (por peso propio). Por todo ello se requiere de algoritmos numéricos específicos, así como de modelos constitutivos particulares, para los elementos del continuo y para los elementos interfaz. En el caso de la simulación de diferentes procedimientos de puesta en obra de los rellenos se ha requerido la modificacion de los algoritmos empleados para poder así representar numéricamente la puesta en obra de estos materiales, además de poder realizar una comparativa de los resultados para los distintos procedimientos. La constante actualización de los parámetros del suelo, hace también de este algoritmo una potente herramienta que permite establecer un interesante juego de perfiles de variables, tales como la densidad, el índice de huecos, la fracción de sólidos, el exceso de presiones, y tensiones y deformaciones. En definitiva, el modelo otorga un mejor entendimiento del efecto silo, término comúnmente usado para definir el fenómeno transitorio del gradiente de presiones laterales en las estructuras de contención en forma de silo. Finalmente se incluyen una serie de comparativas entre los resultados del modelo y de diferentes estudios de la literatura técnica, tanto para el fenómeno de las consolidaciones por preso propio (Fredlund, Donaldson & Gitirana, 2009) como para el estudio del efecto silo (Puertos del Estado, 2006, EuroCódigo (2006), Japan Tech, Stands. (2009), etc.). Para concluir, se propone el diseño de un prototipo de columna de decantación con paredes friccionales, como principal propuesta de futura línea de investigación. Wide research is nowadays available on the characterization of hydraulic fills in terms of either static or dynamic behavior. However, reported comprehensive analyses of these soils when meant for port or mining works are scarce. Moreover, the semi‐empirical procedures for assessing the silo effect on cells in floating caissons, and the liquefaction potential of these soils during sudden loads or earthquakes are based on studies where the underlying influence parameters are not well known, yielding results with significant scatter. This is the case, for instance, of hazards reported by the Barcelona Liquefaction working group, with the failure of harbor walls in 2007. By virtue of this, a complex approach has been undertaken to evaluate the problem by a proposal of numerical and laboratory methodology. Within a theoretical and numerical scope, the study is focused on the numerical tools capable to face the different challenges of this problem. The complexity is manifold; the highly non‐linear behavior of consolidating soft soils; their potentially liquefactable nature, the significance of the hydromechanics of the soil‐structure contact, the discontinuities as preferential paths for water flow, setting “negligible” effective stresses as initial conditions. Within an experimental scope, a straightforward laboratory methodology is introduced for the hydromechanical characterization of the soil and the interface without the need of complex laboratory devices or cumbersome procedures. Therefore, this study includes a brief overview of the hydraulic filling execution, main uses (land reclamation, filled cells, tailing dams, etc.) and the underlying phenomena (self‐weight consolidation, silo effect, liquefaction, etc.). It comprises from the evolution of the traditional consolidation equations (Terzaghi, 1943), (Gibson, English, & Hussey, 1967) and solving methodologies (Townsend & McVay, 1990) (Fredlund, Donaldson and Gitirana, 2009) to the contributions in terms of silo effect (Ranssen, 1895) (Ravenet, 1977) and liquefaction phenomena (Casagrande, 1936) (Castro, 1969) (Been & Jefferies, 1985) (Pastor & Zienkiewicz, 1986). The novelty of the study lies on the development of a Finite Element Method (FEM) code, exclusively formulated for this problem. Subsequently, a theoretical (Biot, 1941) (Zienkiewicz and Shiomi, 1984) (Segura and Carol, 2004) and numerical approach (Zienkiewicz and Taylor, 1989) (Huerta, A. & Rodriguez, A., 1992) (Segura, J.M. & Carol, I., 2008) is introduced for multidimensional consolidation problems with frictional contacts and the corresponding constitutive models (Pastor & Zienkiewicz, 1986) (Fu & Liu, 2011). An experimental methodology is presented for the laboratory test and material characterization (Castro 1969) (Bahda 1997) (Been & Jefferies 2006) using Hostun sands as reference hydraulic fill. A series of singular interaction shear tests for the interface calibration is included. Finally, a specific model algorithm for the solution of the set of differential equations governing the problem is presented. The process of consolidation and settlements involves a comprehensive simulation of the transient process of decantation and the build‐up of the silo effect in cells and certain phenomena related to self‐compaction and liquefaction. For this, an implementation of a 2D axi‐syimmetric coupled model with continuum and interface elements, aimed at simulating conditions and self‐weight consolidation of hydraulic fills once placed into floating caisson cells or close to retaining structures. This basically concerns a loose granular soil with a negligible initial effective stress level at the onset of the process. The implementation requires a specific numerical algorithm as well as specific constitutive models for both the continuum and the interface elements. The simulation of implementation procedures for the fills has required the modification of the algorithm so that a numerical representation of these procedures is carried out. A comparison of the results for the different procedures is interesting for the global analysis. Furthermore, the continuous updating of the model provides an insightful logging of variable profiles such as density, void ratio and solid fraction profiles, total and excess pore pressure, stresses and strains. This will lead to a better understanding of complex phenomena such as the transient gradient in lateral pressures due to silo effect in saturated soils. Interesting model and literature comparisons for the self‐weight consolidation (Fredlund, Donaldson, & Gitirana, 2009) and the silo effect results (Puertos del Estado (2006), EuroCode (2006), Japan Tech, Stands. (2009)). This study closes with the design of a decantation column prototype with frictional walls as the main future line of research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente proyecto se redacta un estudio sobre la resistencia al corte de escolleras en cajón de 1x1m2.Con este estudio se intentará valores aproximados al ángulo de rozamiento. Estos parámetros se distinguirán en función si las escolleras son directamente vertidas o si han sufrido una previa compactación. Para ello se han realizado una serie de ensayos, con materias traído de varias zonas de España al Laboratorio de Geotecnia de CEDEX. Los datos obtenidos se han interpretado de varias formas. Primero se ha analizado las curvas resultantes de la tensión tangencial en función del desplazamiento. Después se ha aplicado un análisis de la relación entre el ángulo de rozamiento y la tensión normal. Por otra parte se han utilizado dos modelos, uno de hiperbólico y otro modelo rotura. Dentro del modelo de rotura se han tomado dos criterios. Un primer criterio según el criterio de rotura de Morh-Coulomb y un segundo criterio no lineal sino parabólico. Con los resultados obtenidos de las interpretaciones, se ha realizado una comparativa. Por una parte se han comparada con los datos que dieron otros autores y por otra parte con los resultados obtenidos en los ensayos de corte directo en caja de 30x30 cm2. Las conclusiones obtenidas, un valor del ángulo de rozamiento sería de 42° para escolleras que no han sido compactadas y de 47° para escolleras que hayan sido compactadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las mujeres de la Bauhaus: El camino hacia la arquitectura, no es un simple título, es una secuencia en el tiempo. Al igual que la meta final de la Bauhaus era la Arquitectura, la Construcción, la obra de arte total donde participaban todas las disciplinas; la Escuela, sin la participación femenina hubiese nacido castrada, no hubiese sido la Bauhaus. En una entrevista se le preguntó a un alumno la razón de su ingreso, qué era lo más importante que le hizo tomar dicha decisión, a lo que contestó: “la forma de vida comunitaria de la gente de la Bauhaus”. Las mujeres, en un principio, con ser admitidas ya se daban por satisfechas. Eran disciplinadas, muy trabajadoras y se conformaban con las tareas que se les asignaba. Todos los estudiantes conocían las dificultades que acarreaba el ingreso y ser admitido era un hecho trascendente. Käthe Brachmann, agradecía en 1919 poder formar parte del alumnado: “Por lo tanto, nosotras las mujeres, también vinimos a esta escuela, porque cada una de nosotras encontró un trabajo que realizar aquí ¡que no nos atrevíamos a descuidar! ¡Puede que nadie envidiase nuestro trabajo! Gracias a todos aquellos que nos lo concedieron…” Somos nosotras, las siguientes generaciones de arquitectas, historiadoras, ingenieras, publicistas, diseñadoras… las que envidiamos y resaltamos su trabajo. Cuando Isabelle Anskombe contactó a principios de 1981, a través de Gunta Stölzl, con Marianne Brandt, ésta se encontraba en un asilo cercano a su lugar de nacimiento (antigua DDR) y quedó gratamente sorprendida del interés despertado. A lo largo de treinta años, hemos sido y continuamos siendo muchas mujeres, también algunos hombres, las que hemos impulsado y restituido el largo historial de méritos de las mujeres que estudiaron y trabajaron en la Bauhaus. Era una carencia que persistía desde el cierre de la escuela en 1933. Esta necesidad de restauración de la pequeña historia de la Bauhaus debe ser satisfecha por lo que esta tesis debe ser leída y entendida como una relectura desde sus orígenes en la que se incluyen dos aspectos fundamentales; el primero formado por los trabajos escolares de una parte importante del alumnado constituido por mujeres y el segundo en la consecución de una meta: lograr inscribirse en las clases de arquitectura y conseguir titularse como arquitectas. Este trabajo de investigación demuestra que la asociación de mujeres de la Bauhaus y el taller textil no fue exclusiva, existieron mujeres en otros talleres y lo más importante, hubo mujeres diplomadas en arquitectura. No se puede reducir el interés que despierta esta tesis sólo al ámbito femenino, porque no debemos olvidar que una tesis dedicada a un determinado maestro o alumno del mundo de la arquitectura se entiende que debe tener un interés global. De la misma manera, el estudio de una determinada maestra y de determinadas alumnas no se puede restringir a un determinado sector, debe ser de interés para toda la comunidad científica, no solo para las mujeres. Para que ello ocurra los trabajos de las alumnas deben tener una calidad mínima. Estudiando el fin de carrera de la alumna Vera Meyer-Waldeck y comparándolo con el de sus compañeros se puede afirmar que la complejidad arquitectónica de su trabajo no desmerece ante las dos propuestas ofrecidas por varones. La célebre frase de Marienne Brand en la que describe cuántas bolitas de alpaca tuvo que conformar hasta que por fin alguien le asignó una tarea mucho más gratificante, ilustra la paciencia y el tesón demostrado por ellas a lo largo del tiempo hasta ganarse el respeto entre los maestros y sus compañeros. La imposición inicial que supuso organizar a la mayorÍa de mujeres en el taller de tejidos influyó en un sentimiento femenino de autolimitación, algunas no se sentían capacitadas para la abstracción y el dominio espacial. Ello les llevó a reafirmarse como las más aptas en el campo bidimensional y por tanto convirtieron dicha limitación en un refugio. Se han explicado ejemplos de mujeres que no participaron en el taller textil (inicialmente establecido para ellas) y paulatinamente fueron dando pasos hacía un mayor compromiso con las relaciones espaciales y la arquitectura, a veces sin ser conscientes de ello. La propia Marianne Brandt tiene unas axonométricas fechadas en 1923 y su carnet de la Werkbund la acreditaba como arquitecta de interiores. Al mismo tiempo, Alma Buscher se sentía plena con sus célebres juguetes infantiles de madera en Weimar, pero sin embargo, ya en Dessau, redactó unos magníficos apuntes de construcción de edificios fechados en 1925. Incluso una alumna del taller textil, Benita Otte, sorprendió a sus maestros con una logradísima isométrica de la casa experimental Haus am Horn para la exposición del año 1923. Un ejemplo extraordinario fue el de la arquitecta Friedl Dicker. Una vez hubo abandonado sus estudios en Weimar, ejerció la profesión en Viena junto con su compañero de estudios Franz Singer, construyendo un club de tenis como trabajo más sobresaliente. El hecho de no existir ningún taller específico de arquitectura en Weimar, jugó a su favor, porque el nuevo profesor contratado para tal fin en Dessau era Hannes Meyer, un convencido de que la arquitectura y la vida debían ir a la par. El hijo de Paul Klee recordaba aquella época “Meyer (…) tenía ideas muy diferentes y la Bauhaus de Dessau llegó a estar muy regulada y agarrotada. Ahora todo el mundo estaba orientado hacía la arquitectura. Un estricto programa de 10 horas al día mantenía a la gente ocupada desde muy temprana la mañana hasta bien entrada la noche, y por si esto fuera poco, se enfatizaba la gimnasia y los deportes. Era un contraste muy fuerte respecto a las ideas fundacionales de la Bauhaus de Weimar…” La secuencia de los acontecimientos se ha detallado en el capítulo correspondiente, demostrándose que Gropius llamó conscientemente a Hannes Meyer porque era el hombre adecuado para este nuevo enfoque en Dessau. En el artículo del año 1926 que cautivó a Gropius, Die Neue Welt (los nuevos tiempos), Hannes Meyer colocaba en la misma página un trabajo de El Lissitzky con otro de Sophie Arp-Täuber. Su folleto de publicidad para ingresar en la escuela utilizaba como reclamo la pregunta, ¿buscas la verdadera igualdad como mujer estudiante? Convencido de que el “talento” no era tan importante como una buena predisposición, permitió eliminar el aura creadora que se suponía fundamentalmente masculina. Apasionado hombre político, cautivó a las jóvenes con su espíritu de justicia social, aunque su relación afectiva con Lotte Stam-Beese y con Hans Wittwer dejó al descubierto su temperamento y la dificultad de trabajar con él. El libro de Moholy Nagy titulado Von Material zu Architecktur (De lo material a la arquitectura) aparecido en 1929, impulsó a muchas mujeres a seguir avanzando y les sirvió como acicate, pues algunas se habían adaptado a un estado inferior al de sus plenas capacidades. Una voz autorizada y respetada les comunicaba que todo “ser humano debe tener la oportunidad de experimentar el espacio en la arquitectura”. Desgraciadamente, las teorías (Schopenhauer y posteriormente Freud … Gregorio Marañón) que primaban el sexo de la mujer por encima de su capacidad como persona , habían permitido crear en la opinión pública una cuantificación del grado de masculinidad o feminidad dependiendo de las actividades que se realizasen. Las relaciones espaciales, las ciencias puras, el proceso creador del artista, se habían considerado eminentemente masculinos en contraposición a la cerámica, las artesanías textiles y cualquier trabajo manual repetitivo que debían ser asignados a las mujeres. Betty Friedman denunciaba en 1962 lo que los educadores sexistas habían transmitido a lo largo del tiempo a sus alumnas : “A las mujeres les gusta la belleza tanto como a los hombres, pero quieren una belleza que esté relacionada con el proceso de la vida (…) La mano es tan admirable y digna de respeto como el cerebro.” En la Bauhaus, según avanzaba el tiempo, la integración ganaba terreno a los prejuicios por lo que la mano y el cerebro estaban conectados. Artista y artesano debían ser todo uno y los planes de estudio de la escuela, fieles a su origen de que el fin último era la arquitectura, ya permitían acceder a la sección de construcción (baulehre) a las personas que una vez terminadas las pruebas en el taller textil, quisieran seguir estudiando dentro de la Bauhaus. Las mujeres ya elegían libremente y se inscribían en los demás talleres según sus preferencias. La estudiante de carpintería y futura arquitecta Vera Meyer-Waldeck era entrevistada en la revista de la escuela y contestaba desinhibidamente que “para mí, es exactamente igual de interesante la literatura, el baile o la música, como las formas, el color, la matemáticas o cualquier problema de estática.” Numerosas alumnas estudiaron en la Bauhaus pero no consiguieron el diploma por no terminar todos los semestres requeridos. Fue el caso de Lotte Stam Beese que empezó en el taller textil con la maestra Gunta Stölzl, continuó en el departamento de construcción y, aunque no llega a diplomarse, si ejerció de arquitecta. Después de trabajar en diversos países, se titula en 1940 en la escuela VHBO de Ámsterdam. La entrada de Mies en la escuela cambia el planteamiento social y enfatiza aún más el estudio de la arquitectura. Unifica en su plan de estudios dos disciplinas que Hannes Meyer las tenía separadas: “construcción y acabados” (bau-ausbau) de manera que la pintura mural, la carpintería y todo lo referente al interior-exterior de un edificio se estudia en el mismo taller. Esta unificación presentaba una gran ventaja para las mujeres ya que se podían apuntar sin sentirse comprometidas ni apabulladas por las connotaciones que una carrera de ciencias tenía ya que en realidad, la palabra arquitectura con grandes letras no aparecía. Por supuesto, tal y como se ha detallado en el plan de estudios, existían todo tipo de asignaturas técnicas, pero el hecho de que la arquitectura de interiores, muy asumida en la opinión pública como actividad perfectamente factible para una mujer, se uniese a la actividad constructora, eminentemente masculina hasta entonces, ayudó a desembocar el final de los estudios de varias mujeres en el fin último de la Bauhaus: la arquitectura. Como ejemplo, Vera Meyer-Waldeck, había trabajado activamente en el edificio de Bernau en la creación de las mesas de estudio de los dormitorios dentro de la sección de carpintería (tischlerei), y gracias a la unificación de talleres, puede seguir ampliando conocimientos de construcción de forma gradual. Las alumnas Vera Meyer-Waldeck, María Müller, Hilde Reiss y Annemarie Wilke lograron de esta manera culminar sus estudios con un diploma que las permitía ejercer como arquitectas. Se ha dispuesto de los proyectos y trabajos profesionales en el campo de la arquitectura y el diseño de Vera y Annemarie. Desgraciadamente, de María y Hilde no se ha encontrado material de estudio. También se amplian datos sobre Annemarie Wimmer (Lange de casada), ella no finalizó sus estudios de Bau, pero se diplomó en ausbau (Ausbauabteilung), equivalente a arquitectura de interiores y escribió una guía de arquitectura de Berlín. Es conocido que la Bauhaus no era la única escuela donde las mujeres podían estudiar teoría de la construcción. Existían en la República de Weimar varias escuelas técnicas donde las mujeres estudiaban arquitectura , pero uno de los rasgos diferenciadores de esta escuela era el fuerte sentimiento de comunidad y la relación alumno-profesor. Las clases distendidas las recordaba el alumno Pius Pahl venido de un estricto instituto técnico: “(…) Durante el cuarto semestre intenté estudiar planeamiento urbano con Hilberseimer. Entré en la habitación donde se impartían las clases y me senté un poco apartado respecto a los demás. Ellos iban llegando uno a uno y encontraban sitios en las mesas, bancos, taburetes y alfeizares de las ventanas. Debatían entre ellos. Estaba esperando a Hilbs (Hilberserimer), pero en vano. Después de algún tiempo uno de los estudiantes veteranos apoyado en un radiador se presento como Hilbs. ¡Que sorpresa para un estudiante formado en la Höheres Staatliches Technikum!” Otro rasgo diferenciador frente a las escuelas técnicas era la posibilidad de acceder a la Bauhaus sin un bachillerato previo. Teniendo dotes artísticas y disponibilidad para el trabajo de diseño se podía ingresar en la Bauhaus. Estas condiciones beneficiaban a cierto número de mujeres que no habían tenido posibilidad de una instrucción académica. Como ejemplo, el currículo anterior de la alumna Lotte Burckhardt , matriculada en la sección de carpintería en el año 1928, consistía en haber trabajado en una sastrería, de secretaría y como trabajadora social. La Bauhaus no obstante, presentaba muchos rasgos comunes con otras escuelas surgidas en la República de Weimar. Varios profesores de la Bauhaus fueron contratados por otras escuelas. La escuela Reimann en Berlín (contrató al maestro de fotografía Peterhans una vez clausurada la Bauhaus de Berlín), la de Breslau (contrató a Schlemmer a partir de 1929) y especialmente la de Frankfurt (contrató a Adolf Meyer cuando éste se separa de Gropius) participaban de idearios similares. Esta última escuela estaba directamente relacionada con la oficina municipal de la construcción de Frankfurt, liderada por el arquitecto Ernst May. Bajo sus ordenes trabajó la arquitecta Margarete Schütte-Lihotzky. Ella, junto con un grupo de trabajo, realizaron para la exposición de la Werkbund de 1927- organizada por Mies y en parte por Lilly Reich- unas viviendas prefabricadas. Al igual que en la feria de Frankfurt, aquí también se ocupó del amueblamiento de las cocinas. Su posterior estancia en la Unión Soviética y sus proyectos son comparables con los realizados en la misma época por Lotte Stam-Beese. Estos proyectos se analizarán estableciéndose similitudes. Si bien hay características similares entre todas estas escuelas, un signo distintivo de la Bauhaus era la ausencia de un departamento o sección de modas que en cambio sí existían en las escuelas de Reimann y Frankfurt . La causa inicial era el riesgo de feminización que temía Gropius y que venía precedido por la escuela de Van de Velde. Posteriormente, en el curriculum de Hannes Meyer, que buscaba las necesidades del pueblo en lugar de ambicionar el lujo, no tenía justificación un taller dedicado a la moda. Cuando llegó Mies, la escuela ya estaba muy profesionalizada y las mujeres que estudiaban allí siempre comprendieron que su objetivo era la arquitectura y el diseño de objetos útiles. Curiosamente, Lilly Reich, la maestra de Ausbau (interiorismo), si venía del mundo de la moda. No hay constancia de que ninguna mujer denunciara un trato discriminatorio, así como tampoco parece que ellas sintieran que abrían nuevas vías a otras mujeres . Tenían un sentimiento de comunidad mixta, no se sentían especiales, creían firmemente en un mundo más justo y pensaban que trabajando en la Bauhaus podrían aportar algo nuevo a la sociedad junto con sus compañeros. Según palabras textuales de Walter Gropius: “La Bauhaus sintió el peso de una doble responsabilidad moral: hacer que sus alumnos tomaran plena conciencia de la época en que vivían, y prepararlos para que plasmaran su inteligencia natural y conocimientos adquiridos en diseños de prototipos que expresaran directamente esta conciencia.” La grave crisis económica y la guerra truncaron muchas esperanzas pero esos fuertes lazos duraron en el tiempo . Son incontables las parejas que se formaron en la Bauhaus, muchas de ellas duraderas en el tiempo. Eran numerosos los matrimonios formados por alumnos arquitectos y alumnas de otros talleres que ayudaban y aconsejaban. Quizás, el caso de Gertrud Arndt, llama la atención porque ella quiso originalmente ser arquitecta. Había estado como aprendiz en un estudio de arquitectura de Erfurt y a instancias de su jefe, empezó a documentar fotográficamente los edificios mientras se formaba. Al ver la primera exposición de la Bauhaus del año 1923 y con una beca de estudios, decidió trasladarse a Weimar para estudiar arquitectura. Cuando llegó allí descubrió que no existía tal departamento (solo alumnos aventajados disfrutaban de algunas clases semiparticulares) y después de aprobar el curso preliminar acabó en el taller de tejidos. Una vez hubo completado todos sus estudios, no volvió a trabajar en el diseño textil. Se casó con el arquitecto Alfred Arndt y cuando éste fue nombrado profesor, ella estuvo apoyando a su marido sin dejar de ocuparse de su otra pasión: la fotografía. Gertrud fue redescubierta como fotógrafa en los años 80 y en enero de 2013, el archivo Bauhaus le ha dedicado una exposición monográfica con sus obras textiles y fotográficas. Como anécdota, cabe reseñar la carta que le escribe Gertrud a su amiga Gunta Stölzl, animándola a emigrar a España ya que nuestro país se veía como una oportunidad para trabajar ante una Alemania deprimida económicamente. Tratamiento singular se merece también Hermine Luise Scheper- Berkenkamp, conocida como Lou. Alumna del taller de pintura mural, se casó con su compañero de estudios Hinnerk Scheper. Él terminó como profesor de la escuela y ella se dedicó a ayudarle al tiempo que ejercía de pintora e ilustradora de libros para niños. La prematura muerte de su marido en 1957 le impulsó a ejercer sus funciones. Se hizo cargo de las labores compositivas del color en la arquitectura de numerosos edificios en Berlín. Fue responsable del diseño de color del último proyecto ejecutado por Otto Bartning (un hogar infantil en Berlín), la Filarmónica de Hans Scharoun, el Museo Egipcio, varios edificios de Walter Gropius en los distritos de Berlín Britz, Buckow y Rudow así como el edificio del aeropuerto de Tegel. Cuando murió el 11-4-1976, Lou estaba trabajando en el esquema de color para la construcción de la biblioteca de Scharoun en Berlín. Es una evidencia que el trabajo de la escuela ha pasado a la posteridad fundamentalmente por la creación de objetos, telas, tipografías, fotografías, collages, pinturas, publicidad y técnicas de color. A excepción de sus tres directores, arquitectos de profesión, ni siquiera el arquitecto Breuer logra superar en reconocimiento al Breuer creador de sillas tubulares. Es por tanto mi intención mostrar el lado menos conocido de la escuela más famosa: el trabajo de las arquitectas que surgieron de la Bauhaus. Lamentablemente, el trabajo realizado por Peter Hahn en 1995 y recogido en el libro Bauten und projekte. Bauhaus in Berlín (Construcciones y proyectos. Bauhaus en Berlín) que editó el Bauhaus-archiv, sólo contiene los trabajos realizados por estudiantes y profesores de la escuela en el área metropolitana de Berlín, no aparece plano alguno ni fotografías de ninguna estudiante. Tan solo se citan las biografías de Lilly Reich y Vera Meyer-Waldeck. Con la colaboración del propio archivo Bauhaus, he podido contemplar los trabajos de las alumnas y compararlos con los de sus compañeros que sí figuran en dicho libro. Se analizarán dichos proyectos Por último, una imagen, que parece retroceder en el tiempo: Mies en América con sus estudiantes, solo hombres. Cuando Gropius emigró a Inglaterra, realizó con Maxwell Fry una escuela mixta que continuaba sus planteamientos ético-sociales traspuestos a la arquitectura. Sin embargo, al aceptar el puesto docente en Harvard (1937-1952), donde la educación estaba segregada por sexos -las mujeres aprendían en el Radcliffe College- no debió poder instruir prácticamente a ninguna mujer . La arquitecta Anne Thyn, colaboradora de Louis Kahn, fue una de las escasas alumnas. Empezó en 1944 y se licenció en 1949. ¿Coincidirían en alguna clase? Parece que la guerra hizo retroceder los espacios ganados por las mujeres, al menos en Estados Unidos. La feminista Bety Fridman denunciaba una vuelta de la mujer al hogar y a “ese malestar que no tiene nombre” denominado por ella la mística de la feminidad. En el año 1953, en América se publicaban manuales dirigidos a las mujeres en los siguientes términos: “En el momento histórico actual, la muchacha más adaptada probablemente sea la que es lo suficientemente inteligente como para tener buenas notas es la escuela pero no tan brillante como para sacar sobresaliente en todo (…); la que es competente, pero no en áreas relativamente nuevas para las mujeres; la que sabe ser independiente y ganarse la vida, pero no tanto como para competir con lo s varones; la que es capaz de hacer bien algún trabajo (en el supuesto de que no se case o si por otras razones no tiene más remedio que trabajar) pero no está tan identificada con una profesión como para necesitar ejercerla para ser feliz.” Afortunadamente, las protagonistas de esta tesis se sentían tan identificadas con su profesión que necesitaban ejercerla para ser personas, porque “ser mujer no es ni más ni menos que ser humana” ABSTRACT The Bauhaus was created in 1919 in a brand new government which looks for a rapprochement between the people and university elites. A new, modern and democratic perspective where the ideals of collectivism and individualism come together to serve the same cause: architecture, total construction. To access the Bauhaus previous studies were not necessary, just an artistic disposition. The Weimar period lasted until 1925, year in which were expelled finding a new headquarters in Dessau. The school appealed especially to young people wanting to learn and in need of change. For women marked a double jump, to acquire a profession and feel equal to their peers. Its founder, Walter Gropius, wanted to combine artistic creation of standardized design prototypes looking for a common goal around the architecture. Under the slogan "art and industry, a new unit," an exhibition from 15 August to 30 September 1923 where the pilot house called "Haus am Horn", executed and organized by all the school's workshops and in which some female students were able to demonstrate his extraordinary talent. When the Bauhaus moved to Dessau, Gropius invited architect Hannes Meyer to join them for the inauguration of the architecture section. No sooner had Meyer joint the Bauhaus when he became the new director. He advertised the school under the slogan “Come to the Bauhaus” with which he wanted to attract more female students. In his advertising papers, Mayer asked “Are you looking for a real equality as a female student?” During his mandate the Bauhaus sought predisposition for artistic talent to face a new and fairer world. “The needs of the people instead of a lust for luxury” were also reflected in the new architecture. The female students Lotte Gerson and Lotte Besse enrolled themselves in 1929 in the construction section. The destitution of Hannes Meyer in summer in 1930 made the designation of Mies van der Rohe, the school’s last director. Lilly Reich substituted master Gunta Stölzl. This well known couple of professionals with professor Hilberseimer formed a global section of construction-interior design (bau-ausbau) where edification and urbanism a quota of exigency not fewer than any other technical school in Germany. The Bauhaus, harassed by the Nazis, was obligated to leave their headquarters in Dessau, to move to Berlin, as a private institute in an abandoned factory. Before leaving Dessau, four women got their architect diplomas. These women were Hilde Reiss, Maria Müller, Annemarie Wilke and Wera Meyer Waldeck The closing of the Berlin headquarters in 1933 by the Nazi government, at the time the Weimar Republic ended with Hitler’s raise to the power. This made the Bauhaus a symbol of the sullied freedom by totalitarianism. The work and biography of the following female architects that represent the three headquarters of the school is analyzed here: -Friedl Dicker in Weimar -Wera Meyer-Waldeck in Dessau - Annemarie Wilke in Berlin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se realiza un estudio experimental del comportamiento de veinte vigas de madera aserrada de pino silvestre para uso estructural, de dimensiones 155x75x1090mm y reforzadas con materiales compuestos de fibra de carbono. La procedencia de la madera es el aserradero de Valsaín. Los ensayos se han realizado en el Laboratorio de Materiales de Construcción de la Escuela Universitaria de Arquitectura Técnica de Madrid con una máquina de ensayos Universal. El objetivo del trabajo es el análisis del comportamiento a flexión de las piezas ensayadas reforzadas con materiales compuestos de fibra de carbono realizados con tejidos unidireccionales y bidireccionales. De las veinte vigas ensayadas nueve fueron sin reforzar y el resto se reforzaron con el refuerzo en forma de ?U?, adhiriendo el material compuesto a la cara inferior y los laterales de las vigas, hasta una altura de la mitad del canto. Para la realización de los FRP se han empleado tejidos de fibra de carbono unidireccionales y bidireccionales. El gramaje de los tejidos unidireccionales es de 300gr/m2 y se ha aplicado en una capa. Los tejidos bidireccionales utilizados tienen dos gramajes distintos, 160gr/m2 y 210gr/m2. Éstos últimos se han aplicado en una y en dos capas. Las nueve vigas ensayadas sin reforzar han servido como testigo para analizar el aumento de la capacidad de carga de las vigas reforzadas. A partir de los datos facilitados por el software se asociado a la máquina de ensayos se trazaron los gráficos carga-desplazamiento, con el fin de analizar las cargas máximas de rotura alcanzadas, desplazamientos y rigidez de las piezas. Posteriormente se realiza un análisis analítico hallando los valores medio de las cargas de rotura y los desplazamientos, realizando una comparación entre los datos obtenidos para las vigas sin reforzar y las reforzadas con los distintos sistemas. En las conclusiones se presentan los resultados del análisis realizado, estudiando el incremento de la capacidad de carga de las vigas reforzadas con respecto a las no reforzadas, y comparando entre sí el funcionamiento de los refuerzos aplicados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ebullición en película es el mecanismo de transferencia de calor básico que acopla térmicamente un líquido y una superficie caliente cuando existe una gran diferencia de temperatura entre ambos. El conocimiento preciso del comportamiento de este mecanismo térmico en torno a esferas es necesario para el análisis de seguridad de escenarios industriales en los que exista contacto entre un líquido y un material fundido fragmentado, generalmente en piezas esferoidales, y resulta esencial para garantizar la seguridad de los reactores nucleares ante escenarios accidentales de muy baja probabilidad, pero de gran severidad, en los que se postule la rotura en guillotina del circuito de refrigeración del reactor simultánea al fallo total activo del sistema de refrigeración de emergencia del núcleo. En tal hipotético escenario, se produciría la fusión del combustible en el plazo de algunas horas, con dispersión y relocalización de fragmentos sólidos esferoidales a muy alta temperatura. Para hacer frente a este escenario se precisa desarrollar procedimientos automáticos y manuales de operación de emergencia, resultando imprescindible disponer de modelos térmicos confiables, con un calificado soporte experimental, que permitan analizar de forma realista la refrigeración por ebullición en película, en modo ebullición en piscina, de las geometrías esferoidales sólidas resultantes. En el presente trabajo UNET-UPM abordan la verificación de las correlaciones más conocidas para ebullición en película en piscina en torno a esferas, mediante la comparación de las mismas con los resultados experimentales obtenidos por Liu-Theofanous. Algunos de los aspectos resaltantes son la limitada aplicabilidad de la correlación empírica de Frederking-Clark, el buen ajuste que muestran las correlaciones de Tou- Tso y de Grigoriew frente a los datos experimentales usados, y las deficiencias que muestran las correlaciones que toman en cuenta el subenfriamiento del líquido, sobre todo a altos niveles de subenfriamiento. En una futura segunda fase de esta investigación, de tipo analítica-numérica-experimental, se abordará en el desarrollo de nuevas correlaciones semi-empíricas, de mejor ajuste, que permitan una mejor capacidad predictiva en los modelos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La calidad del hormigón prefabricado se determina mediante ensayos de rotura a compresión en probetas transcurridos los 28 días de curado, según establece la EHE-08. Sin embargo, en la plantas de prefabricados es necesario además saber cuándo el hormigón está listo para ser procesado (destensado, cortado, trasladado), por lo que es necesario hacer ensayos de resistencia a la compresión entre las 48 y 72 horas, este tiempo se determina a partir de la experiencia previa adquirida y depende de las condiciones de cada planta. Si las probetas no han alcanzado el valor establecido, normalmente debido a un cambio en las condiciones climatológicas o en los materiales utilizados como el tipo de cemento o agregados, la solución adoptada suele ser dejar curar el material más horas en la pista para que alcance la resistencia necesaria para ser procesado. Si sigue sin alcanzarla, lo cual sucede muy ocasionalmente, se intenta analizar cuál ha sido el motivo, pudiéndose tirar toda la producción de ese día si se comprueba que ha sido un fallo en la fabricación de la línea, y no un fallo de la probeta. Por tanto, esta metodología de control de calidad, basada en técnicas destructivas, supone dos tipos de problemas, costes y representatividad. Los métodos no destructivos que más se han aplicado para caracterizar el proceso de curado del hormigón son los ultrasónicos y la medida de la temperatura como se recoge en la bibliografía consultada. Hay diferentes modelos que permiten establecer una relación entre la temperatura y el tiempo de curado para estimar la resistencia a compresión del material, y entre la velocidad de propagación ultrasónica y la resistencia. Aunque estas relaciones no son generales, se han obtenido muy buenos resultados, ejemplo de ello es el modelo basado en la temperatura, Maturity Method, que forma parte de la norma de la ASTM C 1074 y en el mercado hay disponibles equipos comerciales (maturity meters) para medir el curado del hormigón. Además, es posible diseñar sistemas de medida de estos dos parámetros económicos y robustos; por lo cual es viable la realización de una metodología para el control de calidad del curado que pueda ser implantado en las plantas de producción de prefabricado. En este trabajo se ha desarrollado una metodología que permite estimar la resistencia a la compresión del hormigón durante el curado, la cual consta de un procedimiento para el control de calidad del prefabricado y un sistema inalámbrico de sensores para la medida de la temperatura y la velocidad ultrasónica. El procedimiento para el control de calidad permite realizar una predicción de la resistencia a compresión a partir de un modelo basado en la temperatura de curado y otros dos basados en la velocidad, método de tiempo equivalente y método lineal. El sistema inalámbrico de sensores desarrollado, WilTempUS, integra en el mismo dispositivo sensores de temperatura, humedad relativa y ultrasonidos. La validación experimental se ha realizado mediante monitorizaciones en probetas y en las líneas de prefabricados. Los resultados obtenidos con los modelos de estimación y el sistema de medida desarrollado muestran que es posible predecir la resistencia en prefabricados de hormigón en planta con errores comparables a los aceptables por norma en los ensayos de resistencia a compresión en probetas. ABSTRACT Precast concrete quality is determined by compression tests breakage on specimens after 28 days of curing, as established EHE-08. However, in the precast plants is also necessary to know when the concrete is ready to be processed (slack, cut, moved), so it is necessary to test the compressive strength between 48 and 72 hours. This time is determined from prior experience and depends on the conditions of each plant. If the samples have not reached the set value, usually due to changes in the weather conditions or in the materials used as for example the type of cement or aggregates, the solution usually adopted is to cure the material on track during more time to reach the required strength for processing. If the material still does not reach this strength, which happens very occasionally, the reason of this behavior is analyzed , being able to throw the entire production of that day if there was a failure in the manufacturing line, not a failure of the specimen. Therefore, this method of quality control, using destructive techniques, involves two kinds of problems, costs and representativeness. The most used non-destructive methods to characterize the curing process of concrete are those based on ultrasonic and temperature measurement as stated in the literature. There are different models to establish a relationship between temperature and the curing time to estimate the compressive strength of the material, and between the ultrasonic propagation velocity and the compressive strength. Although these relationships are not general, they have been very successful, for example the Maturity Method is based on the temperature measurements. This method is part of the standards established in ASTM C 1074 and there are commercial equipments available (maturity meters) in the market to measure the concrete curing. Furthermore, it is possible to design inexpensive and robust systems to measure ultrasounds and temperature. Therefore is feasible to determine a method for quality control of curing to be implanted in the precast production plants. In this work, it has been developed a methodology which allows to estimate the compressive strength of concrete during its curing process. This methodology consists of a procedure for quality control of the precast concrete and a wireless sensor network to measure the temperature and ultrasonic velocity. The procedure for quality control allows to predict the compressive strength using a model based on the curing temperature and two other models based on ultrasonic velocity, the equivalent time method and the lineal one. The wireless sensor network, WilTempUS, integrates is the same device temperature, relative humidity and ultrasonic sensors. The experimental validation has been carried out in cubic specimens and in the production plants. The results obtained with the estimation models and the measurement system developed in this thesis show that it is possible to predict the strength in precast concrete plants with errors within the limits of the standards for testing compressive strength specimens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se presenta en este trabajo una investigación sobre el comportamiento de losas de hormigón armado sometidas a explosiones y la simulación numérica de dicho fenómeno mediante el método de los elementos finitos. El trabajo aborda el estudio de la respuesta de dichos elementos estructurales por comparación entre los resultados obtenidos en ensayos reales a escala 1:1 y los cálculos realizados mediante modelos de ordenador. Este procedimiento permite verificar la idoneidad, o no, de estos últimos. Se expone en primer lugar el comportamiento mecánico de los modelos de material que son susceptibles de emplearse en la simulación de estructuras mediante el software empleado en la presente investigación, así como las diferentes formas de aplicar cargas explosivas en estructuras modeladas mediante el método de los Elementos Finitos, razonándose en ambos casos la elección llevada a cabo. Posteriormente, se describen los ensayos experimentales disponibles, que tuvieron lugar en las instalaciones del Laboratorio de Balística de Efectos, perteneciente al Instituto Tecnológico de la Marañosa (ITM), de Madrid, para estudiar el comportamiento de losas de hormigón armado a escala 1:1 sometidas a explosiones reales. Se ha propuesto un método de interpretación del nivel de daño en las losas mediante el martillo de Schmidt, que posteriormente permitirá comparar resultados con los modelos de ordenador realizados. Asimismo, se propone un método analítico para la determinación del tamaño óptimo de la malla en las simulaciones realizadas, basado en la distribución de la energía interna del sistema. Es conocido que el comportamiento de los modelos pueden verse fuertemente influenciados por el mallado empleado. Según el mallado sea “grosero” o “fino” el fallo puede no alcanzarse o hacerlo de forma prematura, o excesiva, respectivamente. Es más, algunos modelos de material contemplan una “regularización” del tamaño de la malla, pero en la presente investigación se evidencia que dicho procedimiento tiene un rango de validez limitado, incluso se determina un entorno óptimo de valores. Finalmente, se han elaborado los modelos numéricos con el software comercial LS-DYNA, contemplando todos los aspectos reseñados en los párrafos anteriores, procediendo a realizar una comparación de los resultados obtenidos en las simulaciones con los procedidos en los ensayos reales a escala 1:1, observando que existe una muy buena correlación entre ambas situaciones que evidencian que el procedimiento propuesto en la investigación es de todo punto adecuado para la simulación de losas de hormigón armado sometidas a explosiones. ABSTRACT This doctoral thesis presents an investigation on the behavior of reinforced concrete slabs subjected to explosions along with the numerical simulation of this phenomenon by the finite elements method. The work involves the study of the response of these structural elements by comparing the results of field tests at full scale and the calculations performed by the computer model. This procedure allows to verify the appropriateness or not of the latter. Firstly, the mechanical behavior of the material models that are likely to be used in the modelling of structures is explained. In addition, different ways of choosing explosive charges when conducting finite element methods are analyzed and discussed. Secondly, several experimental tests, which took place at the Laboratorio de Balística de Efectos at the Instituto Tecnológico de la Marañosa (ITM), in Madrid, are described in order to study the behavior of these reinforced concrete slabs. A method for the description of the slab damage level by the Schmidt hammer is proposed, which will make possible to compare the modelling results extracted from the computation experiments. Furthermore, an analytical method for determining the optimal mesh size to be used in the simulations is proposed. It is well known that the behavior of the models can be strongly influenced by the mesh size used. According to this, when modifiying the meshing density the damaged cannot be reached or do it prematurely, or excessive, respectively. Moreover, some material models include a regularization of the mesh size, but the present investigation evidenced that this procedure has a limited range of validity, even an optimal environment values are determined. The method proposed is based on the distribution of the internal energy of the system. Finally, several expecific numerical models have been performed by using LS-DYNA commercial software, considering all the aspects listed in the preceding paragraphs. Comparisons of the results extracted from the simulations and full scale experiments were carried out, noting that there exists a very good correlation between both of them. This fact demonstrates that the proposed research procedure is highly suitable for the modelling of reinforced concrete slabs subjected to blast loading.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente Tesis plantea una metodología de análisis estadístico de roturas de tubería en redes de distribución de agua, que analiza la relación entre las roturas y la presión de agua y que propone la implantación de una gestión de presiones que reduzca el número de roturas que se producen en dichas redes. Las redes de distribución de agua se deterioran y una de sus graves consecuencias es la aparición de roturas frecuentes en sus tuberías. Las roturas llevan asociados elevados costes sociales, económicos y medioambientales y es por ello por lo que las compañías gestoras del agua tratan de reducirlas en la medida de lo posible. Las redes de distribución de agua se pueden dividir en zonas o sectores que facilitan su control y que pueden ser independientes o aislarse mediante válvulas, como ocurre en las redes de países más desarrollados, o pueden estar intercomunicados hidráulicamente. La implantación de una gestión de presiones suele llevarse a cabo a través de las válvulas reductoras de presión (VPR), que se instalan en las cabeceras de estos sectores y que controlan la presión aguas abajo de la misma, aunque varíe su caudal de entrada. Los métodos más conocidos de la gestión de presiones son la reducción de presiones, que es el control más habitual, el mantenimiento de la presión, la prevención y/o alivio de los aumentos repentinos de presión y el establecimiento de un control por alturas. A partir del año 2005 se empezó a reconocer el efecto de la gestión de presiones sobre la disminución de las roturas. En esta Tesis, se sugiere una gestión de presiones que controle los rangos de los indicadores de la presión de cabecera que más influyan en la probabilidad de roturas de tubería. Así, la presión del agua se caracteriza a través de indicadores obtenidos de la presión registrada en la cabecera de los sectores, debido a que se asume que esta presión es representativa de la presión de operación de todas las tuberías porque las pérdidas de carga son relativamente bajas y las diferencias topográficas se tienen en cuenta en el diseño de los sectores. Y los indicadores de presión, que se pueden definir como el estadístico calculado a partir de las series de la presión de cabecera sobre una ventana de tiempo, pueden proveer la información necesaria para ayudar a la toma de decisiones a los gestores del agua con el fin de reducir las roturas de tubería en las redes de distribución de agua. La primera parte de la metodología que se propone en esta Tesis trata de encontrar los indicadores de presión que influyen más en la probabilidad de roturas de tuberías. Para conocer si un indicador es influyente en la probabilidad de las roturas se comparan las estimaciones de las funciones de distribución acumulada (FDAs) de los indicadores de presiones, considerando dos situaciones: cuando se condicionan a la ocurrencia de una rotura (suceso raro) y cuando se calculan en la situación normal de operación (normal operación). Por lo general, las compañías gestoras cuentan con registros de roturas de los años más recientes y al encontrarse las tuberías enterradas se complica el acceso a la información. Por ello, se propone el uso de funciones de probabilidad que permiten reducir la incertidumbre asociada a los datos registrados. De esta forma, se determinan las funciones de distribución acumuladas (FDAs) de los valores del indicador de la serie de presión (situación normal de operación) y las FDAs de los valores del indicador en el momento de ocurrencia de las roturas (condicionado a las roturas). Si las funciones de distribución provienen de la misma población, no se puede deducir que el indicador claramente influya en la probabilidad de roturas. Sin embargo, si se prueba estadísticamente que las funciones proceden de la misma población, se puede concluir que existe una relación entre el indicador analizado y la ocurrencia de las roturas. Debido a que el número de valores del indicador de la FDA condicionada a las roturas es mucho menor que el número de valores del indicador de la FDA incondicional a las roturas, se generan series aleatorias a partir de los valores de los indicadores con el mismo número de valores que roturas registradas hay. De esta forma, se comparan las FDAs de series aleatorias del indicador con la FDA condicionada a las roturas del mismo indicador y se deduce si el indicador es influyente en la probabilidad de las roturas. Los indicadores de presión pueden depender de unos parámetros. A través de un análisis de sensibilidad y aplicando un test estadístico robusto se determina la situación en la que estos parámetros dan lugar a que el indicador sea más influyente en la probabilidad de las roturas. Al mismo tiempo, los indicadores se pueden calcular en función de dos parámetros de cálculo que se denominan el tiempo de anticipación y el ancho de ventana. El tiempo de anticipación es el tiempo (en horas) entre el final del periodo de computación del indicador de presión y la rotura, y el ancho de ventana es el número de valores de presión que se requieren para calcular el indicador de presión y que es múltiplo de 24 horas debido al comportamiento cíclico diario de la presión. Un análisis de sensibilidad de los parámetros de cálculo explica cuándo los indicadores de presión influyen más en la probabilidad de roturas. En la segunda parte de la metodología se presenta un modelo de diagnóstico bayesiano. Este tipo de modelo forma parte de los modelos estadísticos de prevención de roturas, parten de los datos registrados para establecer patrones de fallo y utilizan el teorema de Bayes para determinar la probabilidad de fallo cuando se condiciona la red a unas determinadas características. Así, a través del teorema de Bayes se comparan la FDA genérica del indicador con la FDA condicionada a las roturas y se determina cuándo la probabilidad de roturas aumenta para ciertos rangos del indicador que se ha inferido como influyente en las roturas. Se determina un ratio de probabilidad (RP) que cuando es superior a la unidad permite distinguir cuándo la probabilidad de roturas incrementa para determinados intervalos del indicador. La primera parte de la metodología se aplica a la red de distribución de la Comunidad de Madrid (España) y a la red de distribución de Ciudad de Panamá (Panamá). Tras el filtrado de datos se deduce que se puede aplicar la metodología en 15 sectores en la Comunidad de Madrid y en dos sectores, llamados corregimientos, en Ciudad de Panamá. Los resultados demuestran que en las dos redes los indicadores más influyentes en la probabilidad de las roturas son el rango de la presión, que supone la diferencia entre la presión máxima y la presión mínima, y la variabilidad de la presión, que considera la propiedad estadística de la desviación típica. Se trata, por tanto, de indicadores que hacen referencia a la dispersión de los datos, a la persistencia de la variación de la presión y que se puede asimilar en resistencia de materiales a la fatiga. La segunda parte de la metodología se ha aplicado a los indicadores influyentes en la probabilidad de las roturas de la Comunidad de Madrid y se ha deducido que la probabilidad de roturas aumenta para valores extremos del indicador del rango de la presión y del indicador de la variabilidad de la presión. Finalmente, se recomienda una gestión de presiones que limite los intervalos de los indicadores influyentes en la probabilidad de roturas que incrementen dicha probabilidad. La metodología propuesta puede aplicarse a otras redes de distribución y puede ayudar a las compañías gestoras a reducir el número de fallos en el sistema a través de la gestión de presiones. This Thesis presents a methodology for the statistical analysis of pipe breaks in water distribution networks. The methodology studies the relationship between pipe breaks and water pressure, and proposes a pressure management procedure to reduce the number of breaks that occur in such networks. One of the manifestations of the deterioration of water supply systems is frequent pipe breaks. System failures are one of the major challenges faced by water utilities, due to their associated social, economic and environmental costs. For all these reasons, water utilities aim at reducing the problem of break occurrence to as great an extent as possible. Water distribution networks can be divided into areas or sectors, which facilitates the control of the network. These areas may be independent or isolated by valves, as it usually happens in developing countries. Alternatively, they can be hydraulically interconnected. The implementation of pressure management strategies is usually carried out through pressure-reducing valves (PRV). These valves are installed at the head of the sectors and, although the inflow may vary significantly, they control the downstream pressure. The most popular methods of pressure management consist of pressure reduction, which is the common form of control, pressure sustaining, prevention and/or alleviation of pressure surges or large variations in pressure, and level/altitude control. From 2005 onwards, the effects of pressure management on burst frequencies have become more widely recognized in the technical literature. This thesis suggests a pressure management that controls the pressure indicator ranges most influential on the probability of pipe breaks. Operating pressure in a sector is characterized by means of a pressure indicator at the head of the DMA, as head losses are relatively small and topographical differences were accounted for at the design stage. The pressure indicator, which may be defined as the calculated statistic from the time series of pressure head over a specific time window, may provide necessary information to help water utilities to make decisions to reduce pipe breaks in water distribution networks. The first part of the methodology presented in this Thesis provides the pressure indicators which have the greatest impact on the probability of pipe breaks to be determined. In order to know whether a pressure indicator influences the probability of pipe breaks, the proposed methodology compares estimates of cumulative distribution functions (CDFs) of a pressure indicator through consideration of two situations: when they are conditioned to the occurrence of a pipe break (a rare event), and when they are not (a normal operation). Water utilities usually have a history of failures limited to recent periods of time, and it is difficult to have access to precise information in an underground network. Therefore, the use of distribution functions to address such imprecision of recorded data is proposed. Cumulative distribution functions (CDFs) derived from the time series of pressure indicators (normal operation) and CDFs of indicator values at times coincident with a reported pipe break (conditioned to breaks) are compared. If all estimated CDFs are drawn from the same population, there is no reason to infer that the studied indicator clearly influences the probability of the rare event. However, when it is statistically proven that the estimated CDFs do not come from the same population, the analysed indicator may have an influence on the occurrence of pipe breaks. Due to the fact that the number of indicator values used to estimate the CDF conditioned to breaks is much lower in comparison with the number of indicator values to estimate the CDF of the unconditional pressure series, and that the obtained results depend on the size of the compared samples, CDFs from random sets of the same size sampled from the unconditional indicator values are estimated. Therefore, the comparison between the estimated CDFs of random sets of the indicator and the estimated CDF conditioned to breaks allows knowledge of if the indicator is influential on the probability of pipe breaks. Pressure indicators depend on various parameters. Sensitivity analysis and a robust statistical test allow determining the indicator for which these parameters result most influential on the probability of pipe breaks. At the same time, indicators can be calculated according to two model parameters, named as the anticipation time and the window width. The anticipation time refers to the time (hours) between the end of the period for the computation of the pressure indicator and the break. The window width is the number of instantaneous pressure values required to calculate the pressure indicator and is multiple of 24 hours, as water pressure has a cyclical behaviour which lasts one day. A sensitivity analysis of the model parameters explains when the pressure indicator is more influential on the probability of pipe breaks. The second part of the methodology presents a Bayesian diagnostic model. This kind of model belongs to the class of statistical predictive models, which are based on historical data, represent break behavior and patterns in water mains, and use the Bayes’ theorem to condition the probability of failure to specific system characteristics. The Bayes’ theorem allows comparing the break-conditioned FDA and the unconditional FDA of the indicators and determining when the probability of pipe breaks increases for certain pressure indicator ranges. A defined probability ratio provides a measure to establish whether the probability of breaks increases for certain ranges of the pressure indicator. The first part of the methodology is applied to the water distribution network of Madrid (Spain) and to the water distribution network of Panama City (Panama). The data filtering method suggests that the methodology can be applied to 15 sectors in Madrid and to two areas in Panama City. The results show that, in both systems, the most influential indicators on the probability of pipe breaks are the pressure range, which is the difference between the maximum pressure and the minimum pressure, and pressure variability, referred to the statistical property of the standard deviation. Therefore, they represent the dispersion of the data, the persistence of the variation in pressure and may be related to the fatigue in material resistance. The second part of the methodology has been applied to the influential indicators on the probability of pipe breaks in the water distribution network of Madrid. The main conclusion is that the probability of pipe breaks increases for the extreme values of the pressure range indicator and of the pressure variability indicator. Finally, a pressure management which limits the ranges of the pressure indicators influential on the probability of pipe breaks that increase such probability is recommended. The methodology presented here is general, may be applied to other water distribution networks, and could help water utilities reduce the number of system failures through pressure management.