24 resultados para Años 80 y 90

em Universidad Politécnica de Madrid


Relevância:

90.00% 90.00%

Publicador:

Resumo:

La envolvente de la edificación es la responsable de equilibrar el intercambio energético entre el interior y el exterior, por lo tanto cualquier actuación encaminada a la reducción del consumo energético ha de establecer, como uno de sus objetivos prioritarios, la mejora del comportamiento de la misma. Las edificaciones anteriores a 1940 constituyen la mayor parte de las existentes en áreas rurales y centros urbanos. En ellas, la repercusión de la fachada sobre las transmitancias globales pone de manifiesto la necesidad de intervención. Sin embargo, su elevada inercia térmica y los importantes saltos térmicos característicos de gran parte de España plantean la importancia de que aquélla se efectúe por el exterior. A tal respecto, la falta de disponibilidad de espesor suficiente para implantar sistemas tipo SATE deriva en que, frecuentemente, la única solución viable sea la de aislar por el interior perdiendo con ello la capacidad de acumulación térmica del muro y con el asociado riesgo de condensaciones. La amplia tradición en el empleo de revestimientos, especialmente en base de cal, permiten que éstos sean utilizados no sólo como elemento estético o de protección de la obra de fábrica antigua sino también para la mejora del comportamiento térmico del soporte, si se aprovecha el mecanismo de transmisión térmica por radiación. Éste es el objetivo de la presente Tesis Doctoral en la que se estudia la modificación de las propiedades radiantes de los morteros de revestimiento para la mejora de la eficiencia energética de las construcciones históricas, principalmente las constituidas por muros monolíticos, aunque podría ser de aplicación a otro tipo de construcciones compuestas por diversas capas. Como punto de partida, se estudió y revisó la documentación disponible sobre las investigaciones de las tres áreas científico-tecnológicas que convergen en la Tesis Doctoral: rehabilitación, material y comportamiento térmico, a partir de lo cual se comprobó la inexistencia de estudios similares al objeto de la presente Tesis Doctoral. Complementariamente, se analizaron los revestimientos en lo concerniente a los materiales que los constituyen, la composición de las mezclas y características de cada una de las capas así como al enfoque que, desde el punto de vista térmico, se estimaba más adecuado para la obtención de los objetivos propuestos. Basándonos en dichos análisis, se preseleccionaron ochenta materiales que fueron ensayados en términos de reflectancia y emisividad para elegir cuatro con los que se continuó la investigación. Éstos, junto con la cal elegida para la investigación y el árido marmóreo característico de la última capa de revestimiento, fueron caracterizados térmicamente, de forma pormenorizada, así como química y físicamente. Los fundamentos teóricos y los estudios preliminares desarrollados con distintos materiales, en estado fresco y endurecido, fueron empleados en la dosificación de componentes de las mezclas, en dos proporciones distintas, para el estudio del efecto del agregado. Éstas se ensayaron en estado fresco, para comprobar su adecuación de puesta en obra y prever su VI adherencia al soporte, así como en estado endurecido a 28 y 90 días de curado, para conocer las propiedades que permitieran prever su compatibilidad con aquél y estimar el alcance de la reducción de transferencias térmicas lograda. Además, se estudiaron las características generales de las mezclas que sirvieron para establecer correlaciones entre distintas propiedades y entender los resultados mecánicos, físicos (comportamiento frente al agua) y energéticos. Del estudio conjunto de las distintas propiedades analizadas se propusieron dos mezclas, una blanca y otra coloreada, cuyas características permiten garantizar la compatibilidad con la obra de fábrica antigua, desde el punto de vista físico y mecánico, y preservar la autenticidad de los revestimientos, en cuanto a la técnica de aplicación tradicional en sistemas multicapa. El comportamiento térmico de las mismas, sobre una obra de fábrica de 40 cm de espesor, se estimó, en estado estacionario y pseudo-transitorio, demostrándose reducciones del flujo térmico entre 16-48%, en condiciones de verano, y entre el 6-11%, en invierno, en función de la coloración y de la rugosidad de la superficie, en comparación con el empleo de la mezcla tradicional. Por lo que, se constata la viabilidad de los materiales compuestos propuestos y su adecuación al objetivo de la investigación. VII ABSTRACT The envelope is responsible for balancing the energy exchange between the inside and outside in buildings. For this reason, any action aimed at reducing energy consumption must establish, as one of its key priorities, its improvement. In rural areas and urban centers, most of the constructions were built before 1940. In them, the impact of the façade on the global transmittance highlights the need for intervention. However, its high thermal inertia and fluctuation of temperatures in the majority of Spain bring up that it should be placed outside the insulation. In this regard, the lack of availability of enough thickness to implement systems such as ETICS results in that often the only viable solution is to isolate the interior, losing thereby the wall’s heat storage capacity with the associated risk of condensation. The tradition in the use of renders, especially lime-based, allows us to use them not only as an aesthetic element or to protect the ancient masonry, but also for improved thermal performance of the support by taking advantage of the heat transfer mechanism by radiation. This is the aim of this Doctoral Thesis in which the modification of the radiative properties of lime mortars for renders to improve the energy efficiency of historic buildings, mainly composed of monolithic walls, is studied, although it could be applied to other structures composed of several layers. As a starting point, the available literature in the three scientific-technological areas that converge at the Doctoral Thesis: rehabilitation, material and thermal behaviour, was reviewed, and confirmed the absence of researches similar to this Doctoral Thesis. Additionally, the renders were studied with regard to the materials that constitute them, the composition of the mixtures and the characteristics of each layer, as well as to the approach which, from a thermal point of view, was deemed the most suitable for achieving the objectives sets. Based on thre aforementioned analysis, eighty materials tested in terms of reflectance and emissivity were pre-selected, to choose four with which the research was continued. Common marble sand, used in the last layer of the renders, together with the appointed materials and hydrated lime were characterized thermally, in detail, as well as chemically and physically. The theoretical bases and preliminary studies with different materials, in fresh and hardened state, were used in the dosage of the composition of the mixtures. In order to study their effect they were used in two different proportions, that is, ten mixtures in total. These were tested in their fresh state to evaluate their setting-up suitability and foresee their adhesion to the support, as well as in their hardened state, at 28 and 90 days of curing, to establish the properties which enabled us to anticipate their compatibility with the old masonry walls and estimate the scope of the reduction of heat transfers achieved. In addition, the general characteristics of the mixtures used to establish correlations and to understand the mechanical, physical and energy results were studied. Two mixtures, one white and one colored, were proposed as the result of the different properties analysed, whose characteristics allow the guarantee of mechanical and physical compatibility VIII with the old masonry and preserve the authenticity of the renders. The thermal behavior of both, applied on a masonry wall 40 cm thick, was estimated at a steady and pseudo-transient state, with heat flow reductions between 16-48% during summertime and 6-11% during wintertime, depending on the color and surface roughness, compared to the use of the traditional mixture. So, the viability of the proposed composite materials and their fitness to the aim of the research are established.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El ruido como fenómeno físico capaz de generar molestias y de impactar la salud es uno de los agentes perturbadores presentes en las comunidades del siglo XXI, principalmente en las grandes urbes donde existe concentración poblacional, tal es el caso de la ciudad de Barquisimeto, capital del estado Lara en Venezuela, la cual ocupa el cuarto lugar en importancia a nivel nacional según criterios de ubicación geopolítica, densidad poblacional, infraestructuras, actividades económicas y educativas. La presente tesis doctoral, cuya área de emplazamiento es el centro de dicha ciudad, consiste en una investigación científica experimental de carácter correlacional, en la que se estableció la siguiente hipótesis �a mayor tiempo de exposición al ruido, mayores efectos neurológicos y psicológicos en la población que ocupa el centro de Barquisimeto�. Su singularidad y relevancia radica en articular el estudio del ruido como agente físico con la incidencia de éste en la actividad bioeléctrica cerebral humana y sus efectos en las inteligencias múltiples, tomando como basamento la teoría de las inteligencias múltiples del Dr. Howard Gardner, catedrático de la Universidad de Hardvard, siendo un importante aporte científico en el campo de la física, la medicina y la psicología. Para alcanzar la cristalización de la presente investigación, se realizó una revisión del estado del arte sobre la temática abordada. Tras analizar las fuentes, tanto bibliográficas como digitales, se diseñó el desarrollo de la misma gestionándose la autorización de la Alcaldía del Municipio Iribarren, tomando en consideración que en la fase experimental se aplicaron instrumentos de recolección de datos y se realizaron mediciones en espacios públicos. La fase experimental se ejecutó en seis etapas, obedeciendo a las siguientes variables: a.) Percepción neurológica y psicológica (estudio subjetivo); b) Sonoridad; c.) Dosimetría; d.) Valoración neurológica; e) Valoración psicológica sobre las inteligencias múltiples; f) Mapa de conflicto acústico. En relación al estudio subjetivo se tomó una muestra recurriendo al muestreo aleatorio estratificado, quedando conformada por 67 Residentes, 64 Funcionarios Públicos, 66 comerciantes formales y 64 Comerciantes Informales para un total de 261 sujetos, a los que se viiiaplicó una encuesta titulada Cuestionario Ruambar, conteniendo 30 Ítemes sobre la percepción de efectos neurológicos y psicológicos del ruido, utilizando la escala de Lickert. Para la toma de datos de la sonoridad y de la dosimetría se utilizaron métodos científicos estandarizados, usándose las normas ISO 1996-1, ISO 1999, los Decretos Reales 1367/2007 y el 286/2006; y los criterios técnicos de la OMS. Para lograr una mayor precisión y confiabilidad de los datos, se evaluó el cálculo de la incertidumbre según el documento GUM �Guide for the expresión of uncertainly in Measurement de la International Organization for Standardization� para medidas de categoría A. [JCGM 100:2008]. En cuanto a la valoración neurológica, se siguió el protocolo de la Sociedad Americana de Neurología. En el estudio neurológico participaron voluntariamente 192 sujetos, utilizándose un electroencefalógrafo Digital Stellate Systems con 18 electrodos que determinó la actividad bioeléctrica de los sujetos, estando sometidos a una estimulación sonora de 1000 Hz y a presiones sonoras de 20, 40, 60, 80 y 100 dB (A). Con respecto a la valoración psicológica del efecto del ruido sobre las inteligencias múltiples se diseñó el Test RUAMIN con 24 ítemes y con adaptación a una escala psicométrica. Con respecto a la prueba de hipótesis las correlaciones obtenidas son lineales positivas exceptuando el estrato funcionarios, confirmándose que se acepta la hipótesis planteada para los estratos residentes, comerciantes formales y comerciantes informales, y siendo esta misma hipótesis nula para el estrato funcionarios. Finalmente, como resultado de la investigación se elaboró un mapa de conflicto acústico con el propósito de establecer los puntos de mayor impacto acústico en la zona de emplazamiento, estableciéndose comparaciones entre los mismos y pudiendo ser útil el mencionado mapa para la adopción de disposiciones legales y civiles en aras de mejorar la calidad de vida de los ciudadanos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El uso de las partículas magnéticas ha venido a más durante los últimos 10 años. Lo anterior ha estado condicionado por factores como la amplia investigación en materiales a nivel atómico, los retos propuestos por las diferentes áreas de investigación donde los niveles nanométricos cobran importancia, la inherente innovación tecnológica que pueden aportar a la industria dichas escalas y finalmente, el impacto socioeconómico que pueden tener estos avances tecnológicos. Sin embargo, la traslación a la industria de los avances tecnológicos se ha visto limitada por la falta de estrategias, ya que el 88% del conocimiento se queda en Universidades y Centros de Investigación y el resto, 12%, pasa a la industria o es obtenido en ella. En este trabajo de investigación se ha tratado de completar el círculo de idea, conceptualización, generación de conocimiento, prototipo, prueba in vitro y prueba in vivo; todo ello para dejar el menor espacio posible entre Investigación e Industria. Se ha fabricado un recinto que permite la observación del comportamiento de las partículas magnéticas cuando están inmersas en un medio con viscosidad controlada y con una fuente magnética estática. De la observación experimental se han encontrado fenómenos magnéticos como la aglomeración y la autoorganización, que han sido aprovechados, no solo para ofrecer una solución alternativa a la corrección del desprendimiento de retina, sino también para promover las mejoras de métodos de separación y/o filtrado celular, ayuda en correcciones ortopédicas o en el diagnóstico y tratamiento de enfermedades degenerativas. Particularizando en la corrección del desprendimiento de retina, se ha desarrollado y patentado un Dispositivo Ocular cuya función es la de tapón del agujero retiniano, ayudando en la cicatrización de la retina. Dicho dispositivo ha sido evaluado en conejos albinos neozelandeses obteniéndose un éxito en la reaplicación de la retina del 80% y resultando su toxicidad en condición difusa tras evaluación anatomopatológica. Así mismo, el ferrofluido diseñado y fabricado se ha localizado en la zona de interacción magnética siempre y su disposición ha sido en el mayor de los casos en forma de placa pero también se han formado anillos; lo anterior no ha afectado en ningún sentido el éxito en la reaplicación de la retina. Por otro lado, no se han encontrado indicios de siderosis en la zona de interacción magnética, sus alrededores o el resto del globo ocular; ni las células han presentado apoptosis inducida por los materiales introducidos en el ojo. Sin embargo, se ha encontrado una fuerte necrosis inducida por la presión ejercida sobre la retina por el dispositivo ocular, evidenciando la necesidad de un mejor control de dicha presión. Tras la caracterización de los copos y la presión que éstos ejercen, se ha podido identificar que el dispositivo ocular se puede sintonizar para inducir una presión entre 0.5 y 2.5 mmHg; por tanto se puede vislumbrar que es posible minimizar la muerte celular causada en las células retinianas. Finalmente, tras la experimentación con conejos se ha observado que el dispositivo ocular resuelve los problemas inducidos por las siliconas o los gases e inclusive aporta ventajas competitivas de alto valor añadido como: no requerir de posiciones incómodas en el post-operatorio, no modifica las propiedades ópticas del ojo ya que no es necesario dejar silicona o gases en el interior del ojo, se pueden sellar múltiples agujeros retinianos, corrección de desprendimiento de retina inferior sin complicaciones asociadas, etc.; en definitiva mejora la calidad de vida domiciliaria del paciente además de solventar los problemas inducidos por las soluciones actuales. The using of magnetic particles has become more important during last 10 years. This event has been conditioned by several factors like a wide researching on materials at atomic level, the challenges proposed by different research areas where nanometric levels became important, the inherent technological innovation to the industry and finally, the socioeconomic impact of these kinds of technologies. However, the nanotechnological advances have not been well addressed to the industry since 88% of the acknowledge keeps on Universities and Research Centers, and the remaining 12% goes through the industry or is obtained in it. In this research work, we have tried to complete the entire process about idea, concept, acknowledge generation, prototyping and in vitro and in vivo testing; all to leave as little space as possible between Research and Industry. We have built an experimental hall which allows us the observation of magnetic particles' behavior when are immersing in a controlled viscous medium and under a static magnetic field. The experimental observation has been useful to identify and use two magnetic phenomena: agglomeration and self-organization; no only for retinal detachment, but also to improve cellular separation and/or filtered methods, orthopedic solutions or the diagnostic and treatment of degenerative diseases. Particularizing on retinal detachment, we have developed and patented an Ocular Device which its function is acting like a tampon of the retinal hole for helping with the scarring retina. The device has been evaluated in animals and the results show that we can achieve a success of 80% before rabbit’s death and non cell apoptosis, only necrosis, over the retina attached by the ocular device after anatomopathological evaluation. Also we have identified a diffuse toxicity after anatomopathological evaluation, so more experimenting must be proposed. Otherwise, the ferrofluid has been localized where the magnetic interaction area is located and its deposition has been in most cases plaque shape like but rings have also been observed; this has not affected in any way the successful reattachment of the retina. On the other hand, we have not found any evidence of siderosis in the magnetic interaction zone, near of or some other place of the ocular globe; and we did not find any apoptosis induced by the materials inserted within the eye. However full necrosis, exactly on the magnetic interaction zone, has been found and induced by the pressure exerted over the retina by the ocular device, evidencing the needing of its better control. After flakes’ characterization and its pressure exerted, we identified that the ocular device can be tuned in order to induce a pressure between 0.5 and 2.5 mmHg; therefore we can perceive that death caused to the retinal cells can be minimized. Finally, the experimentation has shown that the ocular device solves all problems induced by silicone or gases an even contributes with some other competitive advantages of high added value like: no uncomfortable postoperative positions, it does not modify any optical property of the eye because there is no needing of leaving silicone or gases inside the eye, many holes can be sealed, the inferior retinal detachment can be solve without any complications, etc.; definitively the ocular device improves patients’ quality of life.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esta investigación presenta un modelo de material para aleaciones de solidificación direccional que poseen un comportamiento mecánico transversalmente isótropo. Se han realizado una serie de ensayos de tracción sobre probetas cilíndricas a varias velocidades de deformación y a varias temperaturas sobre la superaleación de base níquel de solidificación direccional MAR-M 247 con objeto de conocer su comportamiento mecánico. Los ensayos se realizaron sobre probetas cilíndricas cuya dirección longitudinal forma 0º y 90º con la de la orientación de crecimiento de los granos. Para representar el comportamiento plástico anisótropo se ha formulado una función de plastificación de forma no cuadrática basada en la transformación lineal de tensores. Con el propósito de simplificar en todo lo posible el modelo se ha considerado un endurecimiento isótropo. Para probar la validez del modelo propuesto se ha implementado el mismo como modelo de material definido por el usuario en el código no lineal de elementos finitos LS-DYNA. In this research a material model for directionally solidified alloys with transversely isotropic mechanic behavior is presented. In order to characterize the mechanical behavior of the Mar-M 247 directionally solidified nickel based superalloy, tensile tests of axisymmetric smooth specimens were performed at various strain rates and temperatures. The specimens were machined making sure that the longitudinal axis of them was forming 0º and 90º with the grain growth orientation. To represent the plastic flow, a non-quadratic anisotropic function based on linear transformation of tensors has been formulated. For the sake of simplicity isotropic strain hardening of the material has been considered. To prove the validity of the model, a material subroutine has been implemented in LS-DYNA non-linear finite element code as a user defined material model.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

In the last few years there has been a heightened interest in data treatment and analysis with the aim of discovering hidden knowledge and eliciting relationships and patterns within this data. Data mining techniques (also known as Knowledge Discovery in Databases) have been applied over a wide range of fields such as marketing, investment, fraud detection, manufacturing, telecommunications and health. In this study, well-known data mining techniques such as artificial neural networks (ANN), genetic programming (GP), forward selection linear regression (LR) and k-means clustering techniques, are proposed to the health and sports community in order to aid with resistance training prescription. Appropriate resistance training prescription is effective for developing fitness, health and for enhancing general quality of life. Resistance exercise intensity is commonly prescribed as a percent of the one repetition maximum. 1RM, dynamic muscular strength, one repetition maximum or one execution maximum, is operationally defined as the heaviest load that can be moved over a specific range of motion, one time and with correct performance. The safety of the 1RM assessment has been questioned as such an enormous effort may lead to muscular injury. Prediction equations could help to tackle the problem of predicting the 1RM from submaximal loads, in order to avoid or at least, reduce the associated risks. We built different models from data on 30 men who performed up to 5 sets to exhaustion at different percentages of the 1RM in the bench press action, until reaching their actual 1RM. Also, a comparison of different existing prediction equations is carried out. The LR model seems to outperform the ANN and GP models for the 1RM prediction in the range between 1 and 10 repetitions. At 75% of the 1RM some subjects (n = 5) could perform 13 repetitions with proper technique in the bench press action, whilst other subjects (n = 20) performed statistically significant (p < 0:05) more repetitions at 70% than at 75% of their actual 1RM in the bench press action. Rate of perceived exertion (RPE) seems not to be a good predictor for 1RM when all the sets are performed until exhaustion, as no significant differences (p < 0:05) were found in the RPE at 75%, 80% and 90% of the 1RM. Also, years of experience and weekly hours of strength training are better correlated to 1RM (p < 0:05) than body weight. O'Connor et al. 1RM prediction equation seems to arise from the data gathered and seems to be the most accurate 1RM prediction equation from those proposed in literature and used in this study. Epley's 1RM prediction equation is reproduced by means of data simulation from 1RM literature equations. Finally, future lines of research are proposed related to the problem of the 1RM prediction by means of genetic algorithms, neural networks and clustering techniques. RESUMEN En los últimos años ha habido un creciente interés en el tratamiento y análisis de datos con el propósito de descubrir relaciones, patrones y conocimiento oculto en los mismos. Las técnicas de data mining (también llamadas de \Descubrimiento de conocimiento en bases de datos\) se han aplicado consistentemente a lo gran de un gran espectro de áreas como el marketing, inversiones, detección de fraude, producción industrial, telecomunicaciones y salud. En este estudio, técnicas bien conocidas de data mining como las redes neuronales artificiales (ANN), programación genética (GP), regresión lineal con selección hacia adelante (LR) y la técnica de clustering k-means, se proponen a la comunidad del deporte y la salud con el objetivo de ayudar con la prescripción del entrenamiento de fuerza. Una apropiada prescripción de entrenamiento de fuerza es efectiva no solo para mejorar el estado de forma general, sino para mejorar la salud e incrementar la calidad de vida. La intensidad en un ejercicio de fuerza se prescribe generalmente como un porcentaje de la repetición máxima. 1RM, fuerza muscular dinámica, una repetición máxima o una ejecución máxima, se define operacionalmente como la carga máxima que puede ser movida en un rango de movimiento específico, una vez y con una técnica correcta. La seguridad de las pruebas de 1RM ha sido cuestionada debido a que el gran esfuerzo requerido para llevarlas a cabo puede derivar en serias lesiones musculares. Las ecuaciones predictivas pueden ayudar a atajar el problema de la predicción de la 1RM con cargas sub-máximas y son empleadas con el propósito de eliminar o al menos, reducir los riesgos asociados. En este estudio, se construyeron distintos modelos a partir de los datos recogidos de 30 hombres que realizaron hasta 5 series al fallo en el ejercicio press de banca a distintos porcentajes de la 1RM, hasta llegar a su 1RM real. También se muestra una comparación de algunas de las distintas ecuaciones de predicción propuestas con anterioridad. El modelo LR parece superar a los modelos ANN y GP para la predicción de la 1RM entre 1 y 10 repeticiones. Al 75% de la 1RM algunos sujetos (n = 5) pudieron realizar 13 repeticiones con una técnica apropiada en el ejercicio press de banca, mientras que otros (n = 20) realizaron significativamente (p < 0:05) más repeticiones al 70% que al 75% de su 1RM en el press de banca. El ínndice de esfuerzo percibido (RPE) parece no ser un buen predictor del 1RM cuando todas las series se realizan al fallo, puesto que no existen diferencias signifiativas (p < 0:05) en el RPE al 75%, 80% y el 90% de la 1RM. Además, los años de experiencia y las horas semanales dedicadas al entrenamiento de fuerza están más correlacionadas con la 1RM (p < 0:05) que el peso corporal. La ecuación de O'Connor et al. parece surgir de los datos recogidos y parece ser la ecuación de predicción de 1RM más precisa de aquellas propuestas en la literatura y empleadas en este estudio. La ecuación de predicción de la 1RM de Epley es reproducida mediante simulación de datos a partir de algunas ecuaciones de predicción de la 1RM propuestas con anterioridad. Finalmente, se proponen futuras líneas de investigación relacionadas con el problema de la predicción de la 1RM mediante algoritmos genéticos, redes neuronales y técnicas de clustering.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El aumento de la temperatura media de la Tierra durante el pasado siglo en casi 1 ºC; la subida del nivel medio del mar; la disminución del volumen de hielo y nieve terrestres; la fuerte variabilidad del clima y los episodios climáticos extremos que se vienen sucediendo durante las ultimas décadas; y el aumento de las epidemias y enfermedades infecciosas son solo algunas de las evidencias del cambio climático actual, causado, principalmente, por la acumulación de gases de efecto invernadero en la atmósfera por actividades antropogénicas. La problemática y preocupación creciente surgida a raíz de estos fenómenos, motivo que, en 1997, se adoptara el denominado “Protocolo de Kyoto” (Japón), por el que los países firmantes adoptaron diferentes medidas destinadas a controlar y reducir las emisiones de los citados gases. Entre estas medidas cabe destacar las tecnologías CAC, enfocadas a la captura, transporte y almacenamiento de CO2. En este contexto se aprobó, en octubre de 2008, el Proyecto Singular Estratégico “Tecnologías avanzadas de generación, captura y almacenamiento de CO2” (PSE-120000-2008-6), cofinanciado por el Ministerio de Ciencia e Innovación y el FEDER, el cual abordaba, en su Subproyecto “Almacenamiento Geológico de CO2” (PSS-120000-2008-31), el estudio detallado, entre otros, del Análogo Natural de Almacenamiento y Escape de CO2 de la cuenca de Ganuelas-Mazarrón (Murcia). Es precisamente en el marco de dicho Proyecto en el que se ha realizado este trabajo, cuyo objetivo final ha sido el de predecir el comportamiento y evaluar la seguridad, a corto, medio y largo plazo, de un Almacenamiento Geológico Profundo de CO2 (AGP-CO2), mediante el estudio integral del citado análogo natural. Este estudio ha comprendido: i) la contextualización geológica e hidrogeológica de la cuenca, así como la investigación geofísica de la misma; ii) la toma de muestras de aguas de algunos acuíferos seleccionados con el fin de realizar su estudio hidrogeoquímico e isotópico; iii) la caracterización mineralógica, petrográfica, geoquímica e isotópica de los travertinos precipitados a partir de las aguas de algunos de los sondeos de la cuenca; y iv) la medida y caracterización química e isotópica de los gases libres y disueltos detectados en la cuenca, con especial atención al CO2 y 222Rn. Esta información, desarrollada en capítulos independientes, ha permitido realizar un modelo conceptual de funcionamiento del sistema natural que constituye la cuenca de Ganuelas-Mazarrón, así como establecer las analogías entre este y un AGP-CO2, con posibles escapes naturales y/o antropogénicos. La aplicación de toda esta información ha servido, por un lado, para predecir el comportamiento y evaluar la seguridad, a corto, medio y largo plazo, de un AGP-CO2 y, por otro, proponer una metodología general aplicable al estudio de posibles emplazamientos de AGP-CO2 desde la perspectiva de los reservorios naturales de CO2. Los resultados más importantes indican que la cuenca de Ganuelas-Mazarrón se trata de una cubeta o fosa tectónica delimitada por fallas normales, con importantes saltos verticales, que hunden al substrato rocoso (Complejo Nevado-Filabride), y rellenas, generalmente, por materiales volcánicos-subvolcánicos ácidos. Además, esta cuenca se encuentra rellena por formaciones menos resistivas que son, de muro a techo, las margas miocenas, predominantes y casi exclusivas de la cuenca, y los conglomerados y gravas pliocuaternarias. El acuífero salino profundo y enriquecido en CO2, puesto de manifiesto por la xx exploración geotérmica realizada en dicha cuenca durante la década de los 80 y objeto principal de este estudio, se encuentra a techo de los materiales del Complejo Nevado-Filabride, a una profundidad que podría superar los 800 m, según los datos de la investigación mediante sondeos y geofísica. Por ello, no se descarta la posibilidad de que el CO2 se encuentre en estado supe critico, por lo que la citada cuenca reuniría las características principales de un almacenamiento geológico natural y profundo de CO2, o análogo natural de un AGP-CO2 en un acuífero salino profundo. La sobreexplotación de los acuíferos mas someros de la cuenca, con fines agrícolas, origino, por el descenso de sus niveles piezométricos y de la presión hidrostática, el ascenso de las aguas profundas, salinas y enriquecidas en CO2, las cuales son las responsables de la contaminación de dichos acuíferos. El estudio hidrogeoquímico de las aguas de los acuíferos investigados muestra una gran variedad de hidrofacies, incluso en aquellos de litología similar. La alta salinidad de estas aguas las hace inservibles tanto para el consumo humano como para fines agrícolas. Además, el carácter ligeramente ácido de la mayoría de estas aguas determina que tengan gran capacidad para disolver y transportar, hacia la superficie, elementos pesados y/o tóxicos, entre los que destaca el U, elemento abundante en las rocas volcánicas ácidas de la cuenca, con contenidos de hasta 14 ppm, y en forma de uraninita submicroscópica. El estudio isotópico ha permitido discernir el origen, entre otros, del C del DIC de las aguas (δ13C-DIC), explicándose como una mezcla de dos componentes principales: uno, procedente de la descomposición térmica de las calizas y mármoles del substrato y, otro, de origen edáfico, sin descartar una aportación menor de C de origen mantélico. El estudio de los travertinos que se están formando a la salida de las aguas de algunos sondeos, por la desgasificación rápida de CO2 y el consiguiente aumento de pH, ha permitido destacar este fenómeno, por analogía, como alerta de escapes de CO2 desde un AGP-CO2. El análisis de los gases disueltos y libres, con especial atención al CO2 y al 222Rn asociado, indican que el C del CO2, tanto disuelto como en fase libre, tiene un origen similar al del DIC, confirmándose la menor contribución de CO2 de origen mantélico, dada la relación R/Ra del He existente en estos gases. El 222Rn sería el generado por el decaimiento radiactivo del U, particularmente abundante en las rocas volcánicas de la cuenca, y/o por el 226Ra procedente del U o del existente en los yesos mesinienses de la cuenca. Además, el CO2 actúa como carrier del 222Rn, hecho evidenciado en las anomalías positivas de ambos gases a ~ 1 m de profundidad y relacionadas principalmente con perturbaciones naturales (fallas y contactos) y antropogénicas (sondeos). La signatura isotópica del C a partir del DIC, de los carbonatos (travertinos), y del CO2 disuelto y libre, sugiere que esta señal puede usarse como un excelente trazador de los escapes de CO2 desde un AGPCO2, en el cual se inyectara un CO2 procedente, generalmente, de la combustión de combustibles fósiles, con un δ13C(V-PDB) de ~ -30 ‰. Estos resultados han permitido construir un modelo conceptual de funcionamiento del sistema natural de la cuenca de Ganuelas-Mazarrón como análogo natural de un AGP-CO2, y establecer las relaciones entre ambos. Así, las analogías mas importantes, en cuanto a los elementos del sistema, serian la existencia de: i) un acuífero salino profundo enriquecido en CO2, que seria análoga a la formación almacén de un AGPxxi CO2; ii) una formación sedimentaria margosa que, con una potencia superior a 500 m, se correspondería con la formación sello de un AGP-CO2; y iii) acuíferos mas someros con aguas dulces y aptas para el consumo humano, rocas volcánicas ricas en U y fallas que se encuentran selladas por yesos y/o margas; elementos que también podrían concurrir en un emplazamiento de un AGP-CO2. Por otro lado, los procesos análogos mas importantes identificados serian: i) la inyección ascendente del CO2, que seria análoga a la inyección de CO2 de origen antropogénico, pero este con una signatura isotópica δ13C(V-PDB) de ~ -30 ‰; ii) la disolución de CO2 y 222Rn en las aguas del acuífero profundo, lo que seria análogo a la disolución de dichos gases en la formación almacén de un AGP-CO2; iii) la contaminación de los acuíferos mas someros por el ascenso de las aguas sobresaturadas en CO2, proceso que seria análogo a la contaminación que se produciría en los acuíferos existentes por encima de un AGP-CO2, siempre que este se perturbara natural (reactivación de fallas) o artificialmente (sondeos); iv) la desgasificación (CO2 y gases asociados, entre los que destaca el 222Rn) del acuífero salino profundo a través de sondeos, proceso análogo al que pudiera ocurrir en un AGP-CO2 perturbado; y v) la formación rápida de travertinos, proceso análogo indicativo de que el AGP-CO2 ha perdido su estanqueidad. La identificación de las analogías más importantes ha permitido, además, analizar y evaluar, de manera aproximada, el comportamiento y la seguridad, a corto, medio y largo plazo, de un AGP-CO2 emplazado en un contexto geológico similar al sistema natural estudiado. Para ello se ha seguido la metodología basada en el análisis e identificación de los FEPs (Features, Events and Processes), los cuales se han combinado entre sí para generar y analizar diferentes escenarios de evolución del sistema (scenario analysis). Estos escenarios de evolución identificados en el sistema natural perturbado, relacionados con la perforación de sondeos, sobreexplotación de acuíferos, precipitación rápida de travertinos, etc., serian análogos a los que podrían ocurrir en un AGP-CO2 que también fuera perturbado antropogénicamente, por lo que resulta totalmente necesario evitar la perturbación artificial de la formación sello del AGPCO2. Por último, con toda la información obtenida se ha propuesto una metodología de estudio que pueda aplicarse al estudio de posibles emplazamientos de un AGP-CO2 desde la perspectiva de los reservorios naturales de CO2, sean estancos o no. Esta metodología comprende varias fases de estudio, que comprendería la caracterización geológico-estructural del sitio y de sus componentes (agua, roca y gases), la identificación de las analogías entre un sistema natural de almacenamiento de CO2 y un modelo conceptual de un AGP-CO2, y el establecimiento de las implicaciones para el comportamiento y la seguridad de un AGP-CO2. ABSTRACT The accumulation of the anthropogenic greenhouse gases in the atmosphere is the main responsible for: i) the increase in the average temperature of the Earth over the past century by almost 1 °C; ii) the rise in the mean sea level; iii) the drop of the ice volume and terrestrial snow; iv) the strong climate variability and extreme weather events that have been happening over the last decades; and v) the spread of epidemics and infectious diseases. All of these events are just some of the evidence of current climate change. The problems and growing concern related to these phenomena, prompted the adoption of the so-called "Kyoto Protocol" (Japan) in 1997, in which the signatory countries established different measurements to control and reduce the emissions of the greenhouse gases. These measurements include the CCS technologies, focused on the capture, transport and storage of CO2. Within this context, it was approved, in October 2008, the Strategic Singular Project "Tecnologías avanzadas de generación, captura y almacenamiento de CO2" (PSE-120000-2008-6), supported by the Ministry of Science and Innovation and the FEDER funds. This Project, by means of the Subproject "Geological Storage of CO2" (PSS- 120000-2008-31), was focused on the detailed study of the Natural Analogue of CO2 Storage and Leakage located in the Ganuelas-Mazarron Tertiary basin (Murcia), among other Spanish Natural Analogues. This research work has been performed in the framework of this Subproject, being its final objective to predict the behaviour and evaluate the safety, at short, medium and long-term, of a CO2 Deep Geological Storage (CO2-DGS) by means of a comprehensive study of the abovementioned Natural Analogue. This study comprises: i) the geological and hydrogeological context of the basin and its geophysical research; ii) the water sampling of the selected aquifers to establish their hydrogeochemical and isotopic features; iii) the mineralogical, petrographic, geochemical and isotopic characterisation of the travertines formed from upwelling groundwater of several hydrogeological and geothermal wells; and iv) the measurement of the free and dissolved gases detected in the basin, as well as their chemical and isotopic characterisation, mainly regarding CO2 and 222Rn. This information, summarised in separate chapters in the text, has enabled to build a conceptual model of the studied natural system and to establish the analogies between both the studied natural system and a CO2-DGS, with possible natural and/or anthropogenic escapes. All this information has served, firstly, to predict the behaviour and to evaluate the safety, at short, medium and long-term, of a CO2-DGS and, secondly, to propose a general methodology to study suitable sites for a CO2-DGS, taking into account the lessons learned from this CO2 natural reservoir. The main results indicate that the Ganuelas-Mazarron basin is a graben bounded by normal faults with significant vertical movements, which move down the metamorphic substrate (Nevado-Filabride Complex), and filled with acid volcanic-subvolcanic rocks. Furthermore, this basin is filled with two sedimentary formations: i) the Miocene marls, which are predominant and almost exclusive in the basin; xxiv and ii) the Plio-Quaternary conglomerates and gravels. A deep saline CO2-rich aquifer was evidenced in this basin as a result of the geothermal exploration wells performed during the 80s, located just at the top of the Nevado-Filabride Complex and at a depth that could exceed 800 m, according to the geophysical exploration performed. This saline CO2-rich aquifer is precisely the main object of this study. Therefore, it is not discarded the possibility that the CO2 in this aquifer be in supercritical state. Consequently, the aforementioned basin gathers the main characteristics of a natural and deep CO2 geological storage, or natural analogue of a CO2-DGS in a deep saline aquifer. The overexploitation of the shallow aquifers in this basin for agriculture purposes caused the drop of the groundwater levels and hydrostatic pressures, and, as a result, the ascent of the deep saline and CO2-rich groundwater, which is the responsible for the contamination of the shallow and fresh aquifers. The hydrogeochemical features of groundwater from the investigated aquifers show the presence of very different hydrofacies, even in those with similar lithology. The high salinity of this groundwater prevents the human and agricultural uses. In addition, the slightly acidic character of most of these waters determines their capacity to dissolve and transport towards the surface heavy and/or toxic elements, among which U is highlighted. This element is abundant in the acidic volcanic rocks of the basin, with concentrations up to 14 ppm, mainly as sub-microscopic uraninite crystals. The isotopic study of this groundwater, particularly the isotopic signature of C from DIC (δ13C-DIC), suggests that dissolved C can be explained considering a mixture of C from two main different sources: i) from the thermal decomposition of limestones and marbles forming the substrate; and ii) from edaphic origin. However, a minor contribution of C from mantle degassing cannot be discarded. The study of travertines being formed from upwelling groundwater of several hydrogeological and geothermal wells, as a result of the fast CO2 degassing and the pH increase, has allowed highlighting this phenomenon, by analogy, as an alert for the CO2 leakages from a CO2-DGS. The analysis of the dissolved and free gases, with special attention to CO2 and 222Rn, indicates that the C from the dissolved and free CO2 has a similar origin to that of the DIC. The R/Ra ratio of He corroborates the minor contribution of CO2 from the mantle degassing. Furthermore, 222Rn is generated by the radioactive decay of U, particularly abundant in the volcanic rocks of the basin, and/or by 226Ra from the U or from the Messinian gypsum in the basin. Moreover, CO2 acts as a carrier of the 222Rn, a fact evidenced by the positive anomalies of both gases at ~ 1 m depth and mainly related to natural (faults and contacts) and anthropogenic (wells) perturbations. The isotopic signature of C from DIC, carbonates (travertines), and dissolved and free CO2, suggests that this parameter can be used as an excellent tracer of CO2 escapes from a CO2-DGS, in which CO2 usually from the combustion of fossil fuels, with δ13C(V-PDB) of ~ -30 ‰, will be injected. All of these results have allowed to build a conceptual model of the behaviour of the natural system studied as a natural analogue of a CO2-DGS, as well as to establish the relationships between both natural xxv and artificial systems. Thus, the most important analogies, regarding the elements of the system, would be the presence of: i) a deep saline CO2-rich aquifer, which would be analogous to the storage formation of a CO2-DGS; ii) a marly sedimentary formation with a thickness greater than 500 m, which would correspond to the sealing formation of a CO2-DGS; and iii) shallow aquifers with fresh waters suitable for human consumption, U-rich volcanic rocks, and faults that are sealed by gypsums and/or marls; geological elements that could also be present in a CO2-DGS. On the other hand, the most important analogous processes identified are: i) the upward injection of CO2, which would be analogous to the downward injection of the anthropogenic CO2, this last with a δ13C(V-PDB) of ~ -30 ‰; ii) the dissolution of CO2 and 222Rn in groundwater of the deep aquifer, which would be analogous to the dissolution of these gases in the storage formation of a CO2-DGS; iii) the contamination of the shallow aquifers by the uprising of CO2-oversaturated groundwater, an analogous process to the contamination that would occur in shallow aquifers located above a CO2-DGS, whenever it was naturally (reactivation of faults) or artificially (wells) perturbed; iv) the degassing (CO2 and associated gases, among which 222Rn is remarkable) of the deep saline aquifer through wells, process which could be similar in a perturbed CO2- DGS; v) the rapid formation of travertines, indicating that the CO2-DGS has lost its seal capacity. The identification of the most important analogies has also allowed analysing and evaluating, approximately, the behaviour and safety in the short, medium and long term, of a CO2-DGS hosted in a similar geological context of the natural system studied. For that, it has been followed the methodology based on the analysis and identification of FEPs (Features, Events and Processes) that have been combined together in order to generate and analyse different scenarios of the system evolution (scenario analysis). These identified scenarios in the perturbed natural system, related to boreholes, overexploitation of aquifers, rapid precipitation of travertines, etc., would be similar to those that might occur in a CO2-DGS anthropogenically perturbed, so that it is absolutely necessary to avoid the artificial perturbation of the seal formation of a CO2-DGS. Finally, a useful methodology for the study of possible sites for a CO2-DGS is suggested based on the information obtained from this investigation, taking into account the lessons learned from this CO2 natural reservoir. This methodology comprises several phases of study, including the geological and structural characterisation of the site and its components (water, rock and gases), the identification of the analogies between a CO2 storage natural system and a conceptual model of a CO2-DGS, and the implications regarding the behaviour and safety of a CO2-DGS.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La aproximación de las organizaciones a la mejora de sus procesos ha venido por distintos caminos. Muchas Administraciones Públicas se acercaron a este universo a través del modelo EFQM de calidad y excelencia que surgió en la década de los 80 y que sirvió como referente en el ámbito de la Unión Europea como vía de autoevaluación y determinación de procesos de mejora continua. Está basado en la identificación de los puntos fuertes y débiles aplicados a diferentes ámbitos de la organización, siendo éstos el punto de partida para el proceso de mejora continua. Se trata de un modelo en el que puedes decir que estás en calidad aunque tu puntuación sea muy pequeña, por lo que, por imagen, muchas empresas públicas empezaron a implantarlo. La empresa privada sin embargo se decantó por los sistemas de calidad basados en normas ISO. En estos sistemas has de tener un nivel mínimo para poder exhibir una certificación o acreditación del sistema de calidad. La más extendida es la ISO 9001:2008 ya que es válida para todo tipo de empresa. Este sistema se centra en la satisfacción del cliente y está basada en gran medida en el PDCA, acrónimo de Plan, Do, Check, Act (Planificar, Hacer, Verificar y Actuar). Al tratarse de sistemas documentados, pasados los años se llega a la misma conclusión, aquellas empresas que simplemente tienen un certificado colgado en la pared y que arreglan los papeles antes de la auditoría no tienen nada que aporte valor añadido a la empresa y se autoengañan. La potencia de todo sistema de gestión de calidad reside en aprovechar el potencial de sus recursos humanos dirigiendo los recursos de la empresa de forma eficiente y haciendo participe de los objetivos de la organización a su personal para que se impliquen y sepan que se espera de cada uno. La formación de ingeniero siempre nos hace ser críticos con los modelos existentes y tratar de buscar caminos alternativos que sean más eficientes. Para ello es necesario tener un conocimiento muy preciso de la organización. Por ello, después de más de cinco años trabajando en la Organización, desempeñando diversos cometidos, analizando diferentes esferas de actuación y tras estudiar informes de diferentes organizaciones que supervisan el funcionamiento de la empresa me di cuenta que la Dirección General de la Marina Mercante podía cambiar de forma de actuar para modernizarse y ser más transparente, eficaz y eficiente. Esta tesis versa sobre la posibilidad de implantar un nuevo servicio en la Dirección General de la Marina Mercante que le permita mejorar su competitividad a nivel mundial, como estado de abanderamiento, y que, dentro de nuestras fronteras, haga que sus servicios se reorienten aprovechando el conocimiento de su personal, teniendo en cuenta las necesidades de sus usuarios y los recursos de la Organización. Las cartas de servicio permiten acercar al ciudadano al funcionamiento de la organización. Le informa de las condiciones en las que se presta el servicio, los compromisos de la empresa y la forma en la que puede participar para mejorarlos, entre otros. Por otra parte, la empresa no necesita previamente tener ningún sistema de calidad implantado, aunque, como veremos en el capítulo tres y cuatro siempre ayuda a la hora de tener sistemas de aseguramiento implantados. En el capítulo seis se detallan los objetivos que se lograrían con la implantación de las cartas de servicio en la DGMM y en el capítulo siete se discuten dichos resultados y conclusiones. ABSTRACT Different ways have been used by organizations to approach process improvement. Many Public Administrations chose quality and excellence EFQM model for that approachment. This quality program began in 80 decade and that it was the Europe Unión reference to continuous improvement autoevaluation and determination. It is based on strong and weak points of different organization fields, and they are considered as starting point for continuous improvement. This model allows enterprises to say that they are working on a quality scheme even though their score is very little, and this was why a lot of Public Administrations began using it. Nevertheless private enterprises chose quality management systems based on ISO standards. In these systems there is a threshold you must have to be able to have a certification or an accreditation of quality management system. ISO 9001:2008 is the standard most used because of it can be applied to a great range of enterprises. This system is focused on customer satisfaction and it is based on PDCA, Plan, Do, Check, Act. All these systems are documented ones, so once time goes by the same conclusion is reached: enterprises that have the certificate hung on the wall and that papers are fixed for audits have nothing that give them added value and they self-delusion. Quality management system power is related to the usage of human resources potential to lead enterprise resources efficiently and to make them participate in organization objectives. Naval architect training makes them to be critic with existing models and to try to find alternative ways to be more efficient. To achieve this goal, a precise knowledge of the organization is needed. That is the reason why, after five years in quality related issues in the Organization, in different chores, analyzing our scope and reports of organizations that supervise our operation, I realized that Merchant Marine Directorate could change the way of operation to modernize and be more transparent, efficient and effective. This thesis is about the possibility of implantation of a new service in Merchant Marine Directorate that will make it possible to improve their worldwide competitiveness as Flag State, and that to reorient all services taking into account citizens needs and Organization resources. Citizen’s charters able approachment to organization operation. It gives the following information: which are terms in which service is given, enterprise compromises, ways in which citizen can collaborate to improve them, and etc. Additionally, no quality management system is needed to be implemented. Although we’ll see in chapter three and four that having it is of great help. In chapter six are detailed goals achieved if citizen’s charters are implemented in Merchant Marine Directorate, and in chapter seven conclusions and results are discussed.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El triatlón es un deporte combinado en el que sin solución de continuidad se hace un tramo de nado, en aguas abiertas, seguido por uno de ciclismo, para terminar en carrera a pie. Las distancias son muy variadas, aunque la que nos importa en esta tesis es la de-nominada olímpica: 1.500 metros nadando, 40 km en bicicleta y 10 km en carrera a pie. Es un deporte joven, nació a finales de los 80 y es olímpico solo desde los JJ. OO. de Sídney 2000. Sin embargo, esta juventud le ha hecho crecer con fuerza y con muchas ganas de conocerse por dentro a sí mismo. La elección de este deporte se debe, entre otros factores, a la afinidad personal como entrenador del equipo nacional en dos JJ. OO. Por otro lado, al ser un deporte que se desarrolla al aire libre hace que sus par-ticipantes estén expuestos a los cambios climáticos, por lo que la adaptación a los mismos es un factor que juega a favor de la mejora del rendimiento. Cuando la temperatura del agua donde se nada es baja se permite la utilización de un traje especial de neopreno que aísla de dicha temperatura. Ambos elementos, neopreno y clima, están directamente relacionados con el resultado final de la prueba. El objetivo de la presente investigación es demostrar cómo la utilización del neo-preno influye en el resultado final de la misma y cómo las condiciones de calor también tienen una clara influencia en el resultado de la competición de élite femenino en triatlón olímpico de élite internacional. Realizado el análisis de los resultados de la competición de máximo nivel internacional entre 2005 y 2014 (382) participantes y 2.500 participaciones, claramente, los resultados obtenidos determinan que el uso del neopreno hace que la natación sea más rápida y que el calor influye negativamente en el ritmo de carrera a pie. ABSTRACT Triathlon is a combined sport consisting on open water swimming, cycling and running, one after the other with no stops. Distance of the segments can vary, however this thesis will be focus in the called olympic distance: 1.500 meters swimming, 40 km cycling and 10 km running. It´s a relatively new sport, born in the final 80´s, and olympic since Sydney Olympic Games in 2000. Nevertheless, it´s growing fast and there´s a high inte¬rest in knowing all the aspects of it. The choice of triathlon is due, between other reasons, to the special personal affi¬nity with the sport, coming from being the principal trainer of the Spanish Na¬tional Team in two different Olympic Games (Sydney 2000 and Athens 2004). As an outdoor sport, participants are exposed to weather changes and their adaptation to them plays a role in the final performance. When the water tem-perature in the swimming section is bellow certain degrees (20º C in the case of the olympic distance), a special isolation wetsuit is allowed for swimming. Both elements, weather and wetsuit, are related with the final results. Main goal of this paper is to show the influence of the use of wetsuits in the final results, and how hot weather clearly impacts the result of the female elite races in olympic triathlon. Results from highest performance competitions between 2005 and 2014 has been analysed. 382 participants and 2.500 participations. Results show clearly that the use of a wetsuit makes swimming faster and high temperature makes running slower.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

1. Nuestra investigación se centra en el estudio de los “ámbitos o espacios intermedios” en momentos de la arquitectura contemporánea, en un período de transición entre finales de los años 80 y nuestros días. Pretendemos analizar cómo se presenta el ámbito intermedio en el objeto o lugar arquitectónico y su función o relación con el entorno cercano, desde el proyecto hasta su repercusión en la experiencia vivida. 2. El concepto de intermedio entendido como ámbito o espacio intersticial, fronterizo y ambivalente (o multivalente), atraviesa en la presente investigación el campo de la etimología, de la ciencia, del pensamiento y del arte, para detenerse en la arquitectura actual, llevándose a cabo una indagación concreta en el proceso de concepción, en la propuesta formal, espacial y funcional, así como en la percepción y demás experiencias o vivencias en el lugar arquitectónico. 3. En primer lugar nos proponemos estudiar y explorar el concepto de “intermedio” en sus características, funciones y ubicaciones dentro de la cultura contemporánea, detectando sus antecedentes culturales más importantes, para a continuación aplicarlo reflexivamente a obras significativas de arquitectura. La investigación se enfoca en la modalidad figural (imprecisa) de lo intermedio (en alusión al “figural” deleuziano), cuyas metáforas base son lo translúcido, la penumbra y la espuma, vinculadas al actual paradigma cultural de la complejidad (C. Jencks). A continuación se analizan las relaciones o implicaciones de dicha modalidad figural en obras de arquitectos como Eisenman, Holl, Tschumi, Ito, Fujimoto, Van Berkel y Bos, y Siza, comprobando su valor operativo y poniendo de manifiesto su sentido e importancia en la actualidad y en la disciplina. El estudio tiene como trasfondo el concepto de in-between de la obra de Eisenman, y utiliza conceptos de la filosofía del límite de Trías como algunos de sus principales fundamentos. 4. En cada una de las obras de arquitectura presentadas esta modalidad imprecisa se traduce en un ámbito o espacio intermedio figural específico. Son obras en las que real y virtual, matricial y objetual, arquitectura y territorio, existente y nuevo, colectivo e individual, social e íntimo, interior y exterior, y demás usos y funciones se entrelazan o funden. Son arquitecturas cuya geometría ya no se encuentra tan determinada por aspectos bi o tridimensionales del dibujo o de la construcción. A través de la manipulación de estas geometrías más o menos complejas, dinámicas e intersticiales, estas obras reflejan (o intuyen) las premisas del actual Zeitgeist: un cambio de esquemas de objetos a relaciones basado en un pensamiento más holístico, transdisciplinar, sistémico o complejo (E. Morin), y una nueva conciencia colectiva sobre la realidad que anuncia la crisis de la percepción, el cambio de paradigma y nuevos valores (F. Capra). Emerge otra forma de sentir y percibir el mundo, los lugares y los espacios, que poco a poco está cambiando el modo de pensar y dibujar la arquitectura, y consecuentemente de interaccionar con ella. 5. El sentido del espacio intermedio figural, emerge en las cada vez más complejas cualidades morfológico-espaciales y funcionales de una parte importante de la arquitectura actual. Arquitectura, geometría y tecnología informática están más entrelazadas que nunca, y de un modo más libre, para así poder indagar en nuevas formas de pensar y crear lugares en que los “espacios intermedios” que investigamos son un testimonio. El espacio arquitectónico se vuelve afectivo e interactivo, un lugar intermedio figural, formalizado por espacialidades intersticiales que parecen aludir a lo líquido, donde la forma es más matriz que configuración, el espacio más espacialidad que compartimiento, la función más versátil y multivalente que específica o autónoma, y la perplejidad, la imaginación y la evocación se entrecruzan y vuelven patentes. 6. La arquitectura de los lugares intermedios valora no solamente el “plano”, la “configuración” y la “transparencia”, sino sobre todo el “espacio” y la “relación” en sus interrelaciones con los usuarios y demás contextos. De la identidad a la relacionalidad, de la representación a la presentación, es una arquitectura que propone “otros espacios” que más que espacios son topografías y espacialidades intersticiales, de tensión, transición, transformación, relación, intercambio e interacción. Son lugares intermedios reales y virtuales, que se sirven tanto de la morfología como de la topología para conquistar nuevas espacialidades, pretendiendo salir de la estricta operación de “forming”/”morphing”/formación/”conformación” para explorar la de “spacing”/espaciamiento. Son lugares que se basan en conceptos como la zona de indiscernibilidad de Deleuze, la imagen- flujo de Buci-Glucksmann, la suspensión-entre de Sloterdijk, o el espacio no-objetivo al que se refiere José Gil, plasmándose en la arquitectura contemporánea como tropos de lo intersticial. 7. Son los lugares intermedios de la arquitectura actual, de espacialidad háptica, más “afectiva”, generativa e interactiva, donde ese ámbito intermedio transforma y es transformado, “afecta”, “con-mueve” (nos hace mover/accionar) y evoca otros lugares, otras posibilidades de espacio habitable u ocupable. Emerge lo intermedio como lugar, algo que anuncia y exhibe, de manera paradigmática y manifiesta, el monumento de Eisenman en Berlín. ABSTRACT 1. Our research focuses on the study of “in-between spaces or environments” at particular times in contemporary architecture, in a transition period from the end of the 1980’s through to today. We aim to analyse how in-between environments are presented in the architectural object or place and their function or their relationship with the nearby surroundings, from the project through to the experience had. 2. In this research, the in-between concept, understood as an interstitial, border and ambivalent (or multi-purpose) environment or space, is assessed from the viewpoint of etymology, science, thought and art, to conclude in current architecture, with specific exploration of the conception process, of the formal, spatial and functional proposal, together with the perception and other experiences in the architectural place. 3. Firstly, we aim to study and explore the “in-between” concept as regards its features, functions and locations within contemporary culture, revealing its most important cultural background, to then apply it reflexively to important works of architecture. The research focuses on the figural (imprecise) mode of in-between (in allusion to Deleuze’s “figural” approach) whose base metaphors are the translucent, semi-darkness and foam, linked to the current cultural paradigm of complexity (C. Jenks). We then go on to assess the relationships or implications of said figural mode in architectural works by Eisenman, Holl, Tschumi, Ito, Fujimoto, Van Berkel and Bos, and Siza, verifying their operational worth and revealing their meaning and importance today and in this discipline. The backdrop of the study is the in-between concept of Eisenman’s work and it also uses concepts from the philosophy of the limit of Trías as its main underpinnings. 4. In each of the architectural works presented, this imprecise mode is translated into a specific in-between environment or space. They are works in which real and virtual, matricial and objectual, architecture and territory, existing and new, collective and individual, social and intimate, interior and exterior and other uses and functions all intertwine or blend together. They are architectures the geometry of which is not so much determined by bi- or tri-dimensional aspects of the drawing or construction. Through the manipulation of these more or less complex, dynamic and interstitial geometries, these works reflect (or insinuate) the premises of the current Zeitgeist: A change in the scheme of objects to relationships towards a more holistic, transdisciplinary, systemic or complex thought (E. Morin), and a new collective conscience about the reality which announces the crisis of perception, the change in paradigm and new values (F. Capra). Another way of feeling and perceiving the world, places and spaces, which little by little is changing the way of thinking and drawing architecture and hence of interacting with it. 5. The meaning of figural in-between space emerges in the increasingly complex, morphological-spatial and functional qualities of a large part of architecture today. Architecture, geometry and computer technology are more than ever intertwined in a freer way to inquire into other ways of thinking and making places, where the “in-between” spaces we research are a testimony. Architectural space becomes affective and interactive, a figural in-between place, formed by interstitial spatiality which seems to allude to something liquid, where shape is more matrix than configuration, space more spatiality than compartment, its function more versatile and multi-purpose than specific or autonomous, and perplexity, imagination and evocation criss-cross each other, becoming obvious. 6. The architecture of in-between places values not only “flat”, “configuration” and “transparency”, but above all “space” and the “relationship” in its interrelations with users and other contexts. From identity to relationality, from representation to presentation, it is an architecture that proposes “other spaces”, which more than spaces are topographies and interstitial spatialities, of tension, transition, transformation, relation, exchange and interaction. They are real and virtual in-between places, that take in both morphology and topology to conquer new spatialities, aiming to depart from the strict “forming”/”morphing” operation in order to explore “spacing”. They are places that derive both from Deleuze’s indiscernibility zone concept, from Buci-Glucksmann´s image-flow concept, from Sloterdijk’s suspension-between, and from the non-objective space referred to by José Gil, and they are embodied in contemporary architecture as tropes of the interstitial. 7. They are the in-between places in architecture today, of haptic spatiality, more “affective”, generative and interactive, where that in-between environment transforms and is transformed, “affects”, “moves” (it makes us move/act) and evokes other places, other possibilities of habitable or occupiable space. The in-between emerges as a place, which paradigmatically and declaredly, Eisenman´s monument in Berlin announces and exhibits. RESUMO 1. A investigação centra-se no estudo dos “âmbitos ou espaços intermédios” em momentos da arquitectura contemporânea, no período de transição entre os finais dos anos 80 e os nossos dias. Pretende-se analisar como se apresenta o âmbito intermédio no objecto ou lugar arquitectónico e sua função ou relação com o meio envolvente, desde o projecto até à sua repercussão na experiencia vivenciada. 2. O conceito de intermédio entendido como âmbito ou espaço intersticial, fronteiriço e ambivalente (ou multivalente), atravessa na presente investigação o campo da etimologia, da ciência, do pensamento e da arte, para deter-se na arquitectura actual, realizando-se uma indagação concreta no processo de concepção, na proposta formal, espacial e funcional, assim como na percepção e demais experiencias ou vivencias no lugar arquitectónico. 3. Em primeiro lugar, explora-se o conceito de “intermédio” nas suas características, funções e concretizações na cultura contemporânea, detectando os seus antecedentes culturais mais importantes, para em seguida aplicá-lo reflexivamente a obras significativas de arquitectura. A investigação centra-se na modalidade figural (imprecisa) do intermédio (alusão ao figural deleuziano) cujas metáforas base são o translúcido, a penumbra e a espuma, relacionadas com o actual paradigma da complexidade (C. Jencks). Em seguida analisam-se as relações ou implicações da referida modalidade figural em obras de arquitectos como Eisenman, Holl, Tschumi, Ito, Fujimoto, Van Berkel e Bos, e Siza, como modo de comprovar o seu valor operativo e revelar o seu sentido e importância na actualidade e na disciplina. O estudo tem como referencia o conceito de in-between da obra de Eisenman, e utiliza conceitos da filosofia do limite de Trias como alguns dos seus principais fundamentos. 4. Em cada uma das obras de arquitectura apresentadas esta modalidade imprecisa traduz-se num âmbito ou espaço intermédia figural especifico. São obras nas quais real e virtual, matricial e objectual, arquitectura e território, existente e novo, colectivo e individual, social e intimo, interior e exterior, e outros usos e funções se entrelaçam ou fundem. São arquitecturas cuja geometria já não está tão determinada por aspectos bi ou tridimensionais do desenho ou da construção. Através do uso destas geometrias mais ou menos complexas, dinâmicas e intersticiais, estas obras reflectem (ou intuem) as premissas do actual zeitgeist: uma mudança de esquemas de objectos a relações para um pensamento mais holístico, transdisciplinar, sistémico ou complexo (E. Morin) e uma nova consciência colectiva sobre a realidade, que anuncia a crise da percepção, a mudança de paradigma e novos valores (F. Capra). Emerge uma outra forma de sentir e perceber o mundo, os lugares e os espaços, que gradualmente vai alterando o modo de pensar e desenhar a arquitectura, e consequentemente de interagir com ela. 5. O sentido do espaço intermédio figural, emerge nas cada vez mais complexas qualidades morfológico-espaciais e funcionais de uma parte importante da arquitectura actual. Cada vez mais, arquitectura, geometria e tecnologia informática, relacionam-se de um modo mais livre para indagar outras formas de pensar e fazer lugares, onde os espaços intermédios que investigamos são um testemunho. O espaço arquitectónico torna-se afectivo e interactivo, um lugar intermédio figural, formalizado por espacialidades intersticiais que parecem aludir ao estado liquido, onde a forma é mais matriz que configuração, o espaço mais espacialidade que compartimento, a função mais versátil e multivalente que especifica ou autónoma, e a perplexidade, a imaginação e a evocação entrecruzam-se e tornam-se patentes. 6. A arquitectura dos lugares intermédios valoriza não só o “plano”, a “configuração” e a “transparência”, mas sobretudo o” espaço” e a ”relação” nas suas inter-relações com os utentes e restante contextos. Da identidade à relacionalidade, da representação à apresentação, é uma arquitectura que propõe “outros espaços”, que além de espaços são topografias e espacialidades intersticiais, de tensão, transição, transformação, relação, intercambio e interacção. São lugares intermédios reais e virtuais que utilizam tanto a morfologia como a topologia para conquistar novas espacialidades, pretendendo ultrapassar a estrita operação de “forming”/“morphing”/formação para explorar a de “spacing”/espaçamento. São lugares que se apoiam tanto no conceito de zona de indescernibilidade de Deleuze, como na de imagem-fluxo de Buci-Glucksmann como no de suspensão–entre de Sloterdijk ou de espaço-não objectivo que refere José Gil, e se plasmam na arquitectura contemporânea como tropos do intersticial. 7. São os lugares intermédios da arquitectura actual, de espacialidade háptica, mais “afectiva”, generativa e interactiva, onde esse âmbito intermédio transforma e é transformado, “afecta”, ”co-move “(nos faz mover/agir) e evoca outros lugares, outras possibilidades de espaço habitável ou ocupável. Emerge o intermédio como lugar que, paradigmática e manifestamente, o monumento de Eisenmann em Berlim, anuncia e exibe.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La energía eólica, así como otras energías renovables, ha experimentado en la última década un gran auge que va extendiéndose alrededor de todo el mundo, cada vez más concienciado de la importancia de las energías renovables como una fuente alternativa de energía. Se han sumado al reto todos los países acogidos al Protocolo de Kyoto, que a fin de reducir emisiones están potenciando la energía eólica como la fuente de energía renovable hoy día más viable para la generación eléctrica. Brasil alcanzó en 2011 los 1.509 MW instalados, lo que representa el 50% de Latinoamérica, seguido por México con el 31%. Las características del sector eléctrico así como un marco legal favorable y el alto potencial eólico, hacen que la perspectiva de crecimiento en este tipo de energía sea muy favorable durante los próximos años, con estimaciones de unos 20.000 MW para 2020. El asentamiento del sector en el país de algunos de los fabricantes más importantes y los avances en cuanto a eficiencia de los aerogeneradores, mayor aprovechamiento de la energía de los vientos menos intensos, amplía las posibles ubicaciones de parques eólicos permitiendo una expansión grande del sector. El parque eólico objeto del proyecto está ubicado en el estado de Rio Grande do Sul, al sur del país, y está constituido por 33 aerogeneradores de 2,0 MW de potencia unitaria, lo que supone una potencia total instalada de 66 MW. La energía eléctrica generada en él será de 272,8 GWh/año. Esta energía se venderá mediante un contrato de compraventa de energía (PPA, Power Purchase Agreement) adjudicado por el gobierno Brasileño en sus sistemas de subasta de energía. En el proyecto se aborda primeramente la selección del emplazamiento del parque eólico a partir de datos de viento de la zona. Estos datos son estudiados para evaluar el potencial eólico y así poder optimizar la ubicación de las turbinas eólicas. Posteriormente se evalúan varios tipos de aerogeneradores para su implantación en el emplazamiento. La elección se realiza teniendo en cuenta las características técnicas de las máquinas y mediante un estudio de la productividad del parque con el aerogenerador correspondiente. Finalmente se opta por el aerogenerador G97-2.0 de GAMESA. La ejecución técnica del parque eólico se realiza de forma que se minimicen los impactos ambientales y de acuerdo a lo establecido en el Estudio de Impacto Ambiental realizado. Este proyecto requiere una inversión de 75,4 M€, financiada externamente en un 80 % y el 20 % con recursos propios del promotor. Del estudio económico-financiero se deduce que el proyecto diseñado es rentable económicamente y viable, tanto desde el punto de vista técnico como financiero. Abstract Wind energy, as well as other renewable energies, has experienced over the last decade a boom that is spreading around the world increasingly aware of the importance of renewable energy as an alternative energy source. All countries that ratified the Kyoto Protocol have joined the challenge promoting wind energy in order to reduce emissions as the more feasible renewable energy for power generation. In 2011 Brazil reached 1509 MW installed, 50% of Latin America, followed by Mexico with 31%. Electric sector characteristics as well as a favorable legal framework and the high wind potential, make the perspective of growth in this kind of energy very positive in the coming years, with estimates of about 20,000 MW by 2020. Some leading manufacturers have settled in the country and improvements in wind turbines efficiency with less intense winds, make higher the number of possible locations for wind farms allowing a major expansion of the sector. The planned wind farm is located in the state of Rio Grande do Sul, in the south of the Brazil, and is made up of 33 wind turbines of 2,0 MW each, representing a total capacity of 66 MW. The electricity generated, 272,8 GWh/year will be sold through a power purchase agreement (PPA) awarded by the Brazilian government in its energy auction systems. The project deals with the site selection of the wind farm from wind data in the area. These data are studied to evaluate the wind potential and thus optimize the location of wind turbines. Then several types of turbines are evaluated for implementation at the site. The choice is made taking into account the technical characteristics of the machines and a study of the productivity of the park with the corresponding turbine. Finally selected wind turbine is Gamesa G97-2.0. The technical implementation of the wind farm is done to minimize environmental impacts as established in the Environmental Impact Study. This project requires an investment of 75,4 M€, financed externally by 80% and 20% with equity from the promoter. The economic-financial study shows that the project is economically viable, both technically and financially.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Actualmente, las redes sociales se han instaurado como un mecamismo muy potente de comunicaci¿on y contacto entre individuos. Sin embargo, las pol¿?ticas de privacidad que normalmente han acompa?nado a estas redes sociales no han sido capaces de evitar el mal uso de las mismas en temas relacionados con protecci¿on a menores. El caso m¿as significativo es el de adultos, haci¿endose pasar por menores. Este trabajo investiga la viabilidad del uso de t¿ecnicas biom¿etricas basadas en rasgos faciales para la detecci¿on de rangos de edad, con el prop¿osito de evitar que adultos se hagan pasar por menores, o incluso que ciertos menores puedan acceder a redes sociales, cuyo acceso debe estar trestringido por su edad. Los resultados muestran que es posible hacer esta distinci¿on entre adultos y menores, seleccionando edades umbrales cercanas a los 18 a? nos, con tasas de acierto cercanas al 80 %, y empleando clasificadores basados en m¿aquinas de vector soporte (SVMs) lineales.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En la actualidad el uso de adiciones activas en las dosificaciones de morteros y hormigones es una práctica ampliamente extendida. En este trabajo de investigación se estudiaron morteros con incorporación de nanosílice que nos permitiesen ampliar las perspectivas de uso de este tipo de material. Como objetivo último se trataría de extrapolar el comportamiento de este material a microhormigones. Dentro de las posibilidades de uso que se proponían para este nuevo material se podrían encontrar la fabricación de losas de pavimento, la puesta en obra en continuo, el uso en elementos decorativos y funcionales de bajo coste, expuestos a ambientes moderados de abrasión, etc. En las dosificaciones ensayadas se determinó el comportamiento mecánico del material, mediante La determinación de las resistencias a compresión y flexión, y la determinación de la energía de fractura del material, a 7, 28 y 90 días. Se evaluó la dureza superficial antes y después de un proceso de carbonatación acelerada. Se realizaron medidas del desgaste del material por choque usando el ensayo de Los Ángeles. Los resultados obtenidos indican que el material propuesto presenta una dureza superficial similar al de rocas naturales después del proceso de carbonatación de las muestras. Existe cierta relación entre la adherencia que presenta el material (determinado a partir del coeficiente de Los Ángeles) y la tenacidad del material (evaluada a través de la determinación de la energía de fractura).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El deterioro del hormigón debido a la presencia del ion cloruro es causa frecuente de problemas en estructuras localizadas en ambiente marino y alta montaña. Su principal efecto consiste en la despasivación del acero de refuerzo embebido en el hormigón y su consecuente inicio de la corrosión del mismo. El ingreso del ion cloruro al interior del hormigón, está condicionado por una serie de parámetros de origen medioambiental e intrínsecos del hormigón. En función de estos parámetros el ingreso de cloruros en el hormigón puede deberse principalmente a los siguientes mecanismos: difusión y succión capilar. El estudio y evaluación de la resistencia del hormigón frente a cloruros, se ha desarrollado principalmente en condiciones saturadas del hormigón. Lo que ha significado que parámetros de importancia no sean considerados. Debido a esto, distintos procesos que suceden en estructuras reales no han sido identificados y estudiados correctamente. En este trabajo, se diseñó un programa de investigación para evaluar los parámetros que influyen en el transporte cloruros en hormigones no saturados. Para esto se diseñaron tres dosificaciones diferentes de hormigón. En la primera se empleó únicamente cemento portland, para el resto se utilizaron adiciones minerales (humo de sílice y escoria de alto horno). El empleo de adiciones se debió a que tienen un papel importante en la durabilidad de hormigones frente a cloruros. Los hormigones fueron dosificados con una relación agua/material cementício de 0,40 para el hormigón elaborado únicamente con cemento portland y 0,45 para las mezclas con adiciones. Para evaluar las propiedades de los hormigones en estado fresco y endurecido se realizaron ensayos vigentes en las normativas. Con los resultados obtenidos se determinaron parámetros de resistencia mecánica, microestructurales, resistencia al transporte de cloruros e higroscópicos. Una vez caracterizados los hormigones, se diseñó una propuesta experimental para estudiar los principales parámetros presentes en estructuras reales con presencia de cloruros. Tanto la concentración de cloruro como las condiciones ambientales se han variado teniendo como referencia las situaciones reales que podrían producirse en ambientes de alta montaña en la zona centro de España. La propuesta experimental consistió en tratar de evaluar la capacidad de los hormigones al transporte de iones en ambientes de alta montaña con presencia de sales fundentes. Para esto se establecieron 5 fases experimentales donde los principales parámetros ambientales y la presencia de iones agresivos sufrieron variaciones. Al término de cada fase se obtuvieron perfiles de penetración de cloruros en los hormigones y se evaluó la influencia de los parámetros presentes en cada fase. Los resultados experimentales se implementaron en un modelo numérico basado en la teoría de elementos finitos, desarrollado por el grupo de investigación del Departamento de Materiales de Construcción. Para esto fue necesario realizar la calibración y validación del modelo numérico para cada hormigón. El calibrado del modelo precisa de datos químicos y microestructurales de cada hormigón, tales como: capacidad de combinación de cloruros y propiedades difusivas e higroscópicas. Para la validación del modelo numérico se realizaron simulaciones de la propuesta experimental. Los resultados obtenidos se compararon con los valores experimentales. Con el objeto de poder estudiar en mayor profundidad la influencia del grado de saturación del hormigón durante la difusión de cloruros, se llevó a cabo una campaña experimental que consideró distintos grados de saturación en los hormigones. Para esto se establecieron en los hormigones cuatro grados de saturación distintos (50%, 60%, 80% y 100%, aproximadamente), posteriormente se expusieron a cloruro de sodio finamente molido. Una vez transcurrido el tiempo necesario se obtuvieron experimentalmente los perfiles de penetración de cloruros para cada grado de saturación y se calcularon los coeficientes de difusión. Los datos obtenidos durante la campaña experimental han demostrado la influencia positiva que ejercen las adiciones en las mezclas de hormigón. Sus principales ventajas son el refinamiento de la red porosa y el aumento en la capacidad de combinación de cloruros, además de mejorar sus propiedades mecánicas. La porosidad total en las mezclas no presentó grandes cambios, sin embargo, el cambio en la distribución del tamaño de poros es importante en las muestras con adiciones. En especial las fabricadas con humo de sílice. Los coeficientes de difusión y migración de cloruros para las mezclas con adiciones disminuyeron significativamente, igual que los valores de resistividad eléctrica. En los ensayos de penetración del agua bajo presión, fueron las muestras con adiciones las que mostraron las menores penetraciones. Los resultados obtenidos al final de la propuesta experimental permitieron estudiar los distintos parámetros involucrados. Se observó claramente que el proceso de difusión provoca el mayor transporte de cloruros hacia el interior del hormigón. Así mismo se comprobó que el lavado superficial y el secado de las probetas, trasladan cloruros hacia las zonas externas del hormigón. El primero debido a una baja concentración de cloruros externa, mientras que el secado provoca el movimiento de la solución de poro hacia las zonas de secado depositando cloruros en ellas. Las medidas higroscópicas permitieron determinar la existencia de dos zonas distintas en el interior del hormigón. La primera se localizó en el rango de 0-10mm, aproximadamente, en ésta se puso de manifiesto una mayor sensibilidad a los cambios experimentados en el exterior de las probetas. La segunda zona se localizó a una profundidad mayor de 10mm, aproximadamente. Se observó claramente una baja influencia de los cambios externos, siendo la difusión de cloruros el principal mecanismo de transporte presente en ella. En cuanto al estudio de la influencia del grado de saturación en la difusión de cloruros, se observó claramente una marcada diferencia entre los coeficientes de difusión de cloruro obtenidos. Para grados de saturación mayores del 80% el mecanismo de penetración de cloruros por difusión existe de forma significativa. Mientras que para valores inferiores los resultados revelaron que las vías de acceso disminuyen (poros conectado con agua) considerablemente limitando en un alto grado la penetración del agresivo. Para grados de saturación inferiores del 50% los valores del coeficiente de difusión son despreciables. The deterioration of concrete due to chloride ions is a frequent problem identified in structures located in marine and high-mountain environments. After entering the outer layer of the concrete, the chlorides tend to penetrate until they reach and then depassivate the steel bars. Subsequently, this induces the deterioration process of the reinforced concrete. This chloride penetration depends on the environmental conditions and intrinsic parameters of the concrete. Several transport mechanisms, such as diffusion, capillary suction and permeability can be present into the concrete. While recent research into the study and evaluation of concretes with chloride presence has been carried out in saturated concrete, it has not considered certain parameters that can modify this condition. Consequently, at the time of writing several processes that take place in real structures have not been identified and studied. In this work a research programme is designed to evaluate the parameters that influence chloride transport into non-saturated concrete. For this, three concrete mixes were designed by using high-early-strength Portland cement and mineral admixtures (silica fume and blast-slag furnace). The water-cement ratio was 0.40 for the concrete made solely with Portland cement and 0.45 for the concretes that used mineral admixtures as a cement replacement. A set of experimental tests were performed to evaluate the concrete properties both in fresh and hardened state. In addition, an experimental simulation was carried out under laboratory conditions in which the main objective was to assess resistance of concrete to chloride penetration under high-mountain conditions with the presence of de-icing salts. The environmental conditions and surface chloride concentration of the concrete used during the experimental simulation were chosen by considering conditions found in the high-mountain environment in central Spain. For the experimental simulation five phases were designed by varying the environmental parameters and concrete surface concentration. At the end of each phase a chloride profile was obtained with the aim of assessing the influence of the parameters on chloride transport. The experimental results were then used to calibrate and validate a numerical model based on finite element theory developed by the research team from the Construction Materials Department in a previous work. In order to carry out model calibration chemical and microstructural data for the concretes was required, such as binding capacity and the diffusive and hygroscopic properties. The experimental results were compared with the numerical simulations and provided a good fit. With the objective of studying the influence of the degree of concrete saturation on chloride diffusion, an experimental programme was designed. This entailed four saturation degrees (50%, 60%, 80% and 100%) being established in several concrete samples. The samples were then exposed to ground sodium chloride. Once the time required was achieved, the chloride profiles and diffusion coefficients were obtained for each saturation degree. The results obtained from the experimental program revealed a positive influence of the mineral admixtures on the concretes. Their effects were reflected in the pore-network refinement and the increase of chloride binding capacity, together with the improvement of the mechanical properties of the concretes. Total porosity did not reveal any notable change, though the pore-size distribution showed a significant degree of change in the concretes with mineral admixtures, specifically the samples prepared through use of silica fume. The chloride diffusion and migration coefficient, as well as the electrical resistivity values, decreased significantly in the concretes with admixtures. In the water penetration under pressure test, the concretes with admixtures presented the lowest penetration depth. The results obtained in the experimental simulation allowed study of the main parameters involved during the chloride penetration processes in non-saturated concretes in the presence of chlorides. According to the results, the diffusion process was the transport mechanism that transferred the greatest amount of chlorides into the concrete samples. In addition, a chloride movement toward external zones of the concrete, caused by the washing of concrete surface and the drying processes, was identified. The washing occurred when the concrete surface came into contact with a low-chloride concentration solution which initiated the outward movement of chloride diffusion. The drying processes corresponded to a movement of pore solution launched by water evaporation from the outer layer. Furthermore, hygroscopic measurements made in the concrete allowed two areas with distinct behavioural patterns to be identified. The first one, located in the range of approximately 0-10mm, showed a greater degree of influence regarding the changes of the external conditions. The second, situated at depths greater than 10mm, displayed a low influence of external conditions. The main process in this area was diffusion. Study of the influence of the degree of concrete saturation on chloride diffusion showed a clear difference among the chloride diffusion coefficients obtained. For degrees of concrete saturation higher than 80%, chloride penetration by diffusion tends to be significant. However, in the case of extent of saturation of lower than 80%, the results revealed that the access zone through which chlorides can penetrate decreased considerably. For degrees of concrete saturation lower than 50%, the chloride diffusion coefficients were negligible.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Positive composite electrodes having LiNi0.5Mn1.5O4 spinel as active material, a blend of graphite and carbon black for increasing the electrode electrical conductivity and either polyvinyldenefluoride (PVDF) or a blend of PVDF with a small amount of Teflon® (1 wt%) for building up the electrode. They have been processed by tape casting on an aluminum foil as current collector using the doctor blade technique. Additionally, the component blends were either sonicated or not, and the processed electrodes were compacted or not under subsequent cold pressing. Composites electrodes with high weight, up to 17 mg/cm2, were prepared and studied as positive electrodes for lithium-ion batteries. The addition of Teflon® and the application of the sonication treatment lead to uniform electrodes that are well-adhered to the aluminum foil. Both parameters contribute to improve the capacity drained at high rates (5C). Additional compaction of the electrode/aluminum assemblies remarkably enhances the electrode rate capabilities. At 5C rate, remarkable capacity retentions between 80% and 90% are found for electrodes with weights in the range 3–17 mg/cm2, having Teflon® in their formulation, prepared after sonication of their component blends and compacted under 2 tonnes/cm2.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las mujeres de la Bauhaus: El camino hacia la arquitectura, no es un simple título, es una secuencia en el tiempo. Al igual que la meta final de la Bauhaus era la Arquitectura, la Construcción, la obra de arte total donde participaban todas las disciplinas; la Escuela, sin la participación femenina hubiese nacido castrada, no hubiese sido la Bauhaus. En una entrevista se le preguntó a un alumno la razón de su ingreso, qué era lo más importante que le hizo tomar dicha decisión, a lo que contestó: “la forma de vida comunitaria de la gente de la Bauhaus”. Las mujeres, en un principio, con ser admitidas ya se daban por satisfechas. Eran disciplinadas, muy trabajadoras y se conformaban con las tareas que se les asignaba. Todos los estudiantes conocían las dificultades que acarreaba el ingreso y ser admitido era un hecho trascendente. Käthe Brachmann, agradecía en 1919 poder formar parte del alumnado: “Por lo tanto, nosotras las mujeres, también vinimos a esta escuela, porque cada una de nosotras encontró un trabajo que realizar aquí ¡que no nos atrevíamos a descuidar! ¡Puede que nadie envidiase nuestro trabajo! Gracias a todos aquellos que nos lo concedieron…” Somos nosotras, las siguientes generaciones de arquitectas, historiadoras, ingenieras, publicistas, diseñadoras… las que envidiamos y resaltamos su trabajo. Cuando Isabelle Anskombe contactó a principios de 1981, a través de Gunta Stölzl, con Marianne Brandt, ésta se encontraba en un asilo cercano a su lugar de nacimiento (antigua DDR) y quedó gratamente sorprendida del interés despertado. A lo largo de treinta años, hemos sido y continuamos siendo muchas mujeres, también algunos hombres, las que hemos impulsado y restituido el largo historial de méritos de las mujeres que estudiaron y trabajaron en la Bauhaus. Era una carencia que persistía desde el cierre de la escuela en 1933. Esta necesidad de restauración de la pequeña historia de la Bauhaus debe ser satisfecha por lo que esta tesis debe ser leída y entendida como una relectura desde sus orígenes en la que se incluyen dos aspectos fundamentales; el primero formado por los trabajos escolares de una parte importante del alumnado constituido por mujeres y el segundo en la consecución de una meta: lograr inscribirse en las clases de arquitectura y conseguir titularse como arquitectas. Este trabajo de investigación demuestra que la asociación de mujeres de la Bauhaus y el taller textil no fue exclusiva, existieron mujeres en otros talleres y lo más importante, hubo mujeres diplomadas en arquitectura. No se puede reducir el interés que despierta esta tesis sólo al ámbito femenino, porque no debemos olvidar que una tesis dedicada a un determinado maestro o alumno del mundo de la arquitectura se entiende que debe tener un interés global. De la misma manera, el estudio de una determinada maestra y de determinadas alumnas no se puede restringir a un determinado sector, debe ser de interés para toda la comunidad científica, no solo para las mujeres. Para que ello ocurra los trabajos de las alumnas deben tener una calidad mínima. Estudiando el fin de carrera de la alumna Vera Meyer-Waldeck y comparándolo con el de sus compañeros se puede afirmar que la complejidad arquitectónica de su trabajo no desmerece ante las dos propuestas ofrecidas por varones. La célebre frase de Marienne Brand en la que describe cuántas bolitas de alpaca tuvo que conformar hasta que por fin alguien le asignó una tarea mucho más gratificante, ilustra la paciencia y el tesón demostrado por ellas a lo largo del tiempo hasta ganarse el respeto entre los maestros y sus compañeros. La imposición inicial que supuso organizar a la mayorÍa de mujeres en el taller de tejidos influyó en un sentimiento femenino de autolimitación, algunas no se sentían capacitadas para la abstracción y el dominio espacial. Ello les llevó a reafirmarse como las más aptas en el campo bidimensional y por tanto convirtieron dicha limitación en un refugio. Se han explicado ejemplos de mujeres que no participaron en el taller textil (inicialmente establecido para ellas) y paulatinamente fueron dando pasos hacía un mayor compromiso con las relaciones espaciales y la arquitectura, a veces sin ser conscientes de ello. La propia Marianne Brandt tiene unas axonométricas fechadas en 1923 y su carnet de la Werkbund la acreditaba como arquitecta de interiores. Al mismo tiempo, Alma Buscher se sentía plena con sus célebres juguetes infantiles de madera en Weimar, pero sin embargo, ya en Dessau, redactó unos magníficos apuntes de construcción de edificios fechados en 1925. Incluso una alumna del taller textil, Benita Otte, sorprendió a sus maestros con una logradísima isométrica de la casa experimental Haus am Horn para la exposición del año 1923. Un ejemplo extraordinario fue el de la arquitecta Friedl Dicker. Una vez hubo abandonado sus estudios en Weimar, ejerció la profesión en Viena junto con su compañero de estudios Franz Singer, construyendo un club de tenis como trabajo más sobresaliente. El hecho de no existir ningún taller específico de arquitectura en Weimar, jugó a su favor, porque el nuevo profesor contratado para tal fin en Dessau era Hannes Meyer, un convencido de que la arquitectura y la vida debían ir a la par. El hijo de Paul Klee recordaba aquella época “Meyer (…) tenía ideas muy diferentes y la Bauhaus de Dessau llegó a estar muy regulada y agarrotada. Ahora todo el mundo estaba orientado hacía la arquitectura. Un estricto programa de 10 horas al día mantenía a la gente ocupada desde muy temprana la mañana hasta bien entrada la noche, y por si esto fuera poco, se enfatizaba la gimnasia y los deportes. Era un contraste muy fuerte respecto a las ideas fundacionales de la Bauhaus de Weimar…” La secuencia de los acontecimientos se ha detallado en el capítulo correspondiente, demostrándose que Gropius llamó conscientemente a Hannes Meyer porque era el hombre adecuado para este nuevo enfoque en Dessau. En el artículo del año 1926 que cautivó a Gropius, Die Neue Welt (los nuevos tiempos), Hannes Meyer colocaba en la misma página un trabajo de El Lissitzky con otro de Sophie Arp-Täuber. Su folleto de publicidad para ingresar en la escuela utilizaba como reclamo la pregunta, ¿buscas la verdadera igualdad como mujer estudiante? Convencido de que el “talento” no era tan importante como una buena predisposición, permitió eliminar el aura creadora que se suponía fundamentalmente masculina. Apasionado hombre político, cautivó a las jóvenes con su espíritu de justicia social, aunque su relación afectiva con Lotte Stam-Beese y con Hans Wittwer dejó al descubierto su temperamento y la dificultad de trabajar con él. El libro de Moholy Nagy titulado Von Material zu Architecktur (De lo material a la arquitectura) aparecido en 1929, impulsó a muchas mujeres a seguir avanzando y les sirvió como acicate, pues algunas se habían adaptado a un estado inferior al de sus plenas capacidades. Una voz autorizada y respetada les comunicaba que todo “ser humano debe tener la oportunidad de experimentar el espacio en la arquitectura”. Desgraciadamente, las teorías (Schopenhauer y posteriormente Freud … Gregorio Marañón) que primaban el sexo de la mujer por encima de su capacidad como persona , habían permitido crear en la opinión pública una cuantificación del grado de masculinidad o feminidad dependiendo de las actividades que se realizasen. Las relaciones espaciales, las ciencias puras, el proceso creador del artista, se habían considerado eminentemente masculinos en contraposición a la cerámica, las artesanías textiles y cualquier trabajo manual repetitivo que debían ser asignados a las mujeres. Betty Friedman denunciaba en 1962 lo que los educadores sexistas habían transmitido a lo largo del tiempo a sus alumnas : “A las mujeres les gusta la belleza tanto como a los hombres, pero quieren una belleza que esté relacionada con el proceso de la vida (…) La mano es tan admirable y digna de respeto como el cerebro.” En la Bauhaus, según avanzaba el tiempo, la integración ganaba terreno a los prejuicios por lo que la mano y el cerebro estaban conectados. Artista y artesano debían ser todo uno y los planes de estudio de la escuela, fieles a su origen de que el fin último era la arquitectura, ya permitían acceder a la sección de construcción (baulehre) a las personas que una vez terminadas las pruebas en el taller textil, quisieran seguir estudiando dentro de la Bauhaus. Las mujeres ya elegían libremente y se inscribían en los demás talleres según sus preferencias. La estudiante de carpintería y futura arquitecta Vera Meyer-Waldeck era entrevistada en la revista de la escuela y contestaba desinhibidamente que “para mí, es exactamente igual de interesante la literatura, el baile o la música, como las formas, el color, la matemáticas o cualquier problema de estática.” Numerosas alumnas estudiaron en la Bauhaus pero no consiguieron el diploma por no terminar todos los semestres requeridos. Fue el caso de Lotte Stam Beese que empezó en el taller textil con la maestra Gunta Stölzl, continuó en el departamento de construcción y, aunque no llega a diplomarse, si ejerció de arquitecta. Después de trabajar en diversos países, se titula en 1940 en la escuela VHBO de Ámsterdam. La entrada de Mies en la escuela cambia el planteamiento social y enfatiza aún más el estudio de la arquitectura. Unifica en su plan de estudios dos disciplinas que Hannes Meyer las tenía separadas: “construcción y acabados” (bau-ausbau) de manera que la pintura mural, la carpintería y todo lo referente al interior-exterior de un edificio se estudia en el mismo taller. Esta unificación presentaba una gran ventaja para las mujeres ya que se podían apuntar sin sentirse comprometidas ni apabulladas por las connotaciones que una carrera de ciencias tenía ya que en realidad, la palabra arquitectura con grandes letras no aparecía. Por supuesto, tal y como se ha detallado en el plan de estudios, existían todo tipo de asignaturas técnicas, pero el hecho de que la arquitectura de interiores, muy asumida en la opinión pública como actividad perfectamente factible para una mujer, se uniese a la actividad constructora, eminentemente masculina hasta entonces, ayudó a desembocar el final de los estudios de varias mujeres en el fin último de la Bauhaus: la arquitectura. Como ejemplo, Vera Meyer-Waldeck, había trabajado activamente en el edificio de Bernau en la creación de las mesas de estudio de los dormitorios dentro de la sección de carpintería (tischlerei), y gracias a la unificación de talleres, puede seguir ampliando conocimientos de construcción de forma gradual. Las alumnas Vera Meyer-Waldeck, María Müller, Hilde Reiss y Annemarie Wilke lograron de esta manera culminar sus estudios con un diploma que las permitía ejercer como arquitectas. Se ha dispuesto de los proyectos y trabajos profesionales en el campo de la arquitectura y el diseño de Vera y Annemarie. Desgraciadamente, de María y Hilde no se ha encontrado material de estudio. También se amplian datos sobre Annemarie Wimmer (Lange de casada), ella no finalizó sus estudios de Bau, pero se diplomó en ausbau (Ausbauabteilung), equivalente a arquitectura de interiores y escribió una guía de arquitectura de Berlín. Es conocido que la Bauhaus no era la única escuela donde las mujeres podían estudiar teoría de la construcción. Existían en la República de Weimar varias escuelas técnicas donde las mujeres estudiaban arquitectura , pero uno de los rasgos diferenciadores de esta escuela era el fuerte sentimiento de comunidad y la relación alumno-profesor. Las clases distendidas las recordaba el alumno Pius Pahl venido de un estricto instituto técnico: “(…) Durante el cuarto semestre intenté estudiar planeamiento urbano con Hilberseimer. Entré en la habitación donde se impartían las clases y me senté un poco apartado respecto a los demás. Ellos iban llegando uno a uno y encontraban sitios en las mesas, bancos, taburetes y alfeizares de las ventanas. Debatían entre ellos. Estaba esperando a Hilbs (Hilberserimer), pero en vano. Después de algún tiempo uno de los estudiantes veteranos apoyado en un radiador se presento como Hilbs. ¡Que sorpresa para un estudiante formado en la Höheres Staatliches Technikum!” Otro rasgo diferenciador frente a las escuelas técnicas era la posibilidad de acceder a la Bauhaus sin un bachillerato previo. Teniendo dotes artísticas y disponibilidad para el trabajo de diseño se podía ingresar en la Bauhaus. Estas condiciones beneficiaban a cierto número de mujeres que no habían tenido posibilidad de una instrucción académica. Como ejemplo, el currículo anterior de la alumna Lotte Burckhardt , matriculada en la sección de carpintería en el año 1928, consistía en haber trabajado en una sastrería, de secretaría y como trabajadora social. La Bauhaus no obstante, presentaba muchos rasgos comunes con otras escuelas surgidas en la República de Weimar. Varios profesores de la Bauhaus fueron contratados por otras escuelas. La escuela Reimann en Berlín (contrató al maestro de fotografía Peterhans una vez clausurada la Bauhaus de Berlín), la de Breslau (contrató a Schlemmer a partir de 1929) y especialmente la de Frankfurt (contrató a Adolf Meyer cuando éste se separa de Gropius) participaban de idearios similares. Esta última escuela estaba directamente relacionada con la oficina municipal de la construcción de Frankfurt, liderada por el arquitecto Ernst May. Bajo sus ordenes trabajó la arquitecta Margarete Schütte-Lihotzky. Ella, junto con un grupo de trabajo, realizaron para la exposición de la Werkbund de 1927- organizada por Mies y en parte por Lilly Reich- unas viviendas prefabricadas. Al igual que en la feria de Frankfurt, aquí también se ocupó del amueblamiento de las cocinas. Su posterior estancia en la Unión Soviética y sus proyectos son comparables con los realizados en la misma época por Lotte Stam-Beese. Estos proyectos se analizarán estableciéndose similitudes. Si bien hay características similares entre todas estas escuelas, un signo distintivo de la Bauhaus era la ausencia de un departamento o sección de modas que en cambio sí existían en las escuelas de Reimann y Frankfurt . La causa inicial era el riesgo de feminización que temía Gropius y que venía precedido por la escuela de Van de Velde. Posteriormente, en el curriculum de Hannes Meyer, que buscaba las necesidades del pueblo en lugar de ambicionar el lujo, no tenía justificación un taller dedicado a la moda. Cuando llegó Mies, la escuela ya estaba muy profesionalizada y las mujeres que estudiaban allí siempre comprendieron que su objetivo era la arquitectura y el diseño de objetos útiles. Curiosamente, Lilly Reich, la maestra de Ausbau (interiorismo), si venía del mundo de la moda. No hay constancia de que ninguna mujer denunciara un trato discriminatorio, así como tampoco parece que ellas sintieran que abrían nuevas vías a otras mujeres . Tenían un sentimiento de comunidad mixta, no se sentían especiales, creían firmemente en un mundo más justo y pensaban que trabajando en la Bauhaus podrían aportar algo nuevo a la sociedad junto con sus compañeros. Según palabras textuales de Walter Gropius: “La Bauhaus sintió el peso de una doble responsabilidad moral: hacer que sus alumnos tomaran plena conciencia de la época en que vivían, y prepararlos para que plasmaran su inteligencia natural y conocimientos adquiridos en diseños de prototipos que expresaran directamente esta conciencia.” La grave crisis económica y la guerra truncaron muchas esperanzas pero esos fuertes lazos duraron en el tiempo . Son incontables las parejas que se formaron en la Bauhaus, muchas de ellas duraderas en el tiempo. Eran numerosos los matrimonios formados por alumnos arquitectos y alumnas de otros talleres que ayudaban y aconsejaban. Quizás, el caso de Gertrud Arndt, llama la atención porque ella quiso originalmente ser arquitecta. Había estado como aprendiz en un estudio de arquitectura de Erfurt y a instancias de su jefe, empezó a documentar fotográficamente los edificios mientras se formaba. Al ver la primera exposición de la Bauhaus del año 1923 y con una beca de estudios, decidió trasladarse a Weimar para estudiar arquitectura. Cuando llegó allí descubrió que no existía tal departamento (solo alumnos aventajados disfrutaban de algunas clases semiparticulares) y después de aprobar el curso preliminar acabó en el taller de tejidos. Una vez hubo completado todos sus estudios, no volvió a trabajar en el diseño textil. Se casó con el arquitecto Alfred Arndt y cuando éste fue nombrado profesor, ella estuvo apoyando a su marido sin dejar de ocuparse de su otra pasión: la fotografía. Gertrud fue redescubierta como fotógrafa en los años 80 y en enero de 2013, el archivo Bauhaus le ha dedicado una exposición monográfica con sus obras textiles y fotográficas. Como anécdota, cabe reseñar la carta que le escribe Gertrud a su amiga Gunta Stölzl, animándola a emigrar a España ya que nuestro país se veía como una oportunidad para trabajar ante una Alemania deprimida económicamente. Tratamiento singular se merece también Hermine Luise Scheper- Berkenkamp, conocida como Lou. Alumna del taller de pintura mural, se casó con su compañero de estudios Hinnerk Scheper. Él terminó como profesor de la escuela y ella se dedicó a ayudarle al tiempo que ejercía de pintora e ilustradora de libros para niños. La prematura muerte de su marido en 1957 le impulsó a ejercer sus funciones. Se hizo cargo de las labores compositivas del color en la arquitectura de numerosos edificios en Berlín. Fue responsable del diseño de color del último proyecto ejecutado por Otto Bartning (un hogar infantil en Berlín), la Filarmónica de Hans Scharoun, el Museo Egipcio, varios edificios de Walter Gropius en los distritos de Berlín Britz, Buckow y Rudow así como el edificio del aeropuerto de Tegel. Cuando murió el 11-4-1976, Lou estaba trabajando en el esquema de color para la construcción de la biblioteca de Scharoun en Berlín. Es una evidencia que el trabajo de la escuela ha pasado a la posteridad fundamentalmente por la creación de objetos, telas, tipografías, fotografías, collages, pinturas, publicidad y técnicas de color. A excepción de sus tres directores, arquitectos de profesión, ni siquiera el arquitecto Breuer logra superar en reconocimiento al Breuer creador de sillas tubulares. Es por tanto mi intención mostrar el lado menos conocido de la escuela más famosa: el trabajo de las arquitectas que surgieron de la Bauhaus. Lamentablemente, el trabajo realizado por Peter Hahn en 1995 y recogido en el libro Bauten und projekte. Bauhaus in Berlín (Construcciones y proyectos. Bauhaus en Berlín) que editó el Bauhaus-archiv, sólo contiene los trabajos realizados por estudiantes y profesores de la escuela en el área metropolitana de Berlín, no aparece plano alguno ni fotografías de ninguna estudiante. Tan solo se citan las biografías de Lilly Reich y Vera Meyer-Waldeck. Con la colaboración del propio archivo Bauhaus, he podido contemplar los trabajos de las alumnas y compararlos con los de sus compañeros que sí figuran en dicho libro. Se analizarán dichos proyectos Por último, una imagen, que parece retroceder en el tiempo: Mies en América con sus estudiantes, solo hombres. Cuando Gropius emigró a Inglaterra, realizó con Maxwell Fry una escuela mixta que continuaba sus planteamientos ético-sociales traspuestos a la arquitectura. Sin embargo, al aceptar el puesto docente en Harvard (1937-1952), donde la educación estaba segregada por sexos -las mujeres aprendían en el Radcliffe College- no debió poder instruir prácticamente a ninguna mujer . La arquitecta Anne Thyn, colaboradora de Louis Kahn, fue una de las escasas alumnas. Empezó en 1944 y se licenció en 1949. ¿Coincidirían en alguna clase? Parece que la guerra hizo retroceder los espacios ganados por las mujeres, al menos en Estados Unidos. La feminista Bety Fridman denunciaba una vuelta de la mujer al hogar y a “ese malestar que no tiene nombre” denominado por ella la mística de la feminidad. En el año 1953, en América se publicaban manuales dirigidos a las mujeres en los siguientes términos: “En el momento histórico actual, la muchacha más adaptada probablemente sea la que es lo suficientemente inteligente como para tener buenas notas es la escuela pero no tan brillante como para sacar sobresaliente en todo (…); la que es competente, pero no en áreas relativamente nuevas para las mujeres; la que sabe ser independiente y ganarse la vida, pero no tanto como para competir con lo s varones; la que es capaz de hacer bien algún trabajo (en el supuesto de que no se case o si por otras razones no tiene más remedio que trabajar) pero no está tan identificada con una profesión como para necesitar ejercerla para ser feliz.” Afortunadamente, las protagonistas de esta tesis se sentían tan identificadas con su profesión que necesitaban ejercerla para ser personas, porque “ser mujer no es ni más ni menos que ser humana” ABSTRACT The Bauhaus was created in 1919 in a brand new government which looks for a rapprochement between the people and university elites. A new, modern and democratic perspective where the ideals of collectivism and individualism come together to serve the same cause: architecture, total construction. To access the Bauhaus previous studies were not necessary, just an artistic disposition. The Weimar period lasted until 1925, year in which were expelled finding a new headquarters in Dessau. The school appealed especially to young people wanting to learn and in need of change. For women marked a double jump, to acquire a profession and feel equal to their peers. Its founder, Walter Gropius, wanted to combine artistic creation of standardized design prototypes looking for a common goal around the architecture. Under the slogan "art and industry, a new unit," an exhibition from 15 August to 30 September 1923 where the pilot house called "Haus am Horn", executed and organized by all the school's workshops and in which some female students were able to demonstrate his extraordinary talent. When the Bauhaus moved to Dessau, Gropius invited architect Hannes Meyer to join them for the inauguration of the architecture section. No sooner had Meyer joint the Bauhaus when he became the new director. He advertised the school under the slogan “Come to the Bauhaus” with which he wanted to attract more female students. In his advertising papers, Mayer asked “Are you looking for a real equality as a female student?” During his mandate the Bauhaus sought predisposition for artistic talent to face a new and fairer world. “The needs of the people instead of a lust for luxury” were also reflected in the new architecture. The female students Lotte Gerson and Lotte Besse enrolled themselves in 1929 in the construction section. The destitution of Hannes Meyer in summer in 1930 made the designation of Mies van der Rohe, the school’s last director. Lilly Reich substituted master Gunta Stölzl. This well known couple of professionals with professor Hilberseimer formed a global section of construction-interior design (bau-ausbau) where edification and urbanism a quota of exigency not fewer than any other technical school in Germany. The Bauhaus, harassed by the Nazis, was obligated to leave their headquarters in Dessau, to move to Berlin, as a private institute in an abandoned factory. Before leaving Dessau, four women got their architect diplomas. These women were Hilde Reiss, Maria Müller, Annemarie Wilke and Wera Meyer Waldeck The closing of the Berlin headquarters in 1933 by the Nazi government, at the time the Weimar Republic ended with Hitler’s raise to the power. This made the Bauhaus a symbol of the sullied freedom by totalitarianism. The work and biography of the following female architects that represent the three headquarters of the school is analyzed here: -Friedl Dicker in Weimar -Wera Meyer-Waldeck in Dessau - Annemarie Wilke in Berlin.