571 resultados para diagrama cuadrangular


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El retroceso de las costas acantiladas es un fenómeno muy extendido sobre los litorales rocosos expuestos a la incidencia combinada de los procesos marinos y meteorológicos que se dan en la franja costera. Este fenómeno se revela violentamente como movimientos gravitacionales del terreno esporádicos, pudiendo causar pérdidas materiales y/o humanas. Aunque el conocimiento de estos riesgos de erosión resulta de vital importancia para la correcta gestión de la costa, el desarrollo de modelos predictivos se encuentra limitado desde el punto de vista geomorfológico debido a la complejidad e interacción de los procesos de desarrollo espacio-temporal que tienen lugar en la zona costera. Los modelos de predicción publicados son escasos y con importantes inconvenientes: a) extrapolación, extienden la información de registros históricos; b) empíricos, sobre registros históricos estudian la respuesta al cambio de un parámetro; c) estocásticos, determinan la cadencia y magnitud de los eventos futuros extrapolando las distribuciones de probabilidad extraídas de catálogos históricos; d) proceso-respuesta, de estabilidad y propagación del error inexplorada; e) en Ecuaciones en Derivadas Parciales, computacionalmente costosos y poco exactos. La primera parte de esta tesis detalla las principales características de los modelos más recientes de cada tipo y, para los más habitualmente utilizados, se indican sus rangos de aplicación, ventajas e inconvenientes. Finalmente como síntesis de los procesos más relevantes que contemplan los modelos revisados, se presenta un diagrama conceptual de la recesión costera, donde se recogen los procesos más influyentes que deben ser tenidos en cuenta, a la hora de utilizar o crear un modelo de recesión costera con el objetivo de evaluar la peligrosidad (tiempo/frecuencia) del fenómeno a medio-corto plazo. En esta tesis se desarrolla un modelo de proceso-respuesta de retroceso de acantilados costeros que incorpora el comportamiento geomecánico de materiales cuya resistencia a compresión no supere los 5 MPa. El modelo simula la evolución espaciotemporal de un perfil-2D del acantilado que puede estar formado por materiales heterogéneos. Para ello, se acoplan la dinámica marina: nivel medio del mar, cambios en el nivel medio del lago, mareas y oleaje; con la evolución del terreno: erosión, desprendimiento rocoso y formación de talud de derrubios. El modelo en sus diferentes variantes es capaz de incluir el análisis de la estabilidad geomecánica de los materiales, el efecto de los derrubios presentes al pie del acantilado, el efecto del agua subterránea, la playa, el run-up, cambios en el nivel medio del mar o cambios (estacionales o interanuales) en el nivel medio de la masa de agua (lagos). Se ha estudiado el error de discretización del modelo y su propagación en el tiempo a partir de las soluciones exactas para los dos primeros periodos de marea para diferentes aproximaciones numéricas tanto en tiempo como en espacio. Los resultados obtenidos han permitido justificar las elecciones que minimizan el error y los métodos de aproximación más adecuados para su posterior uso en la modelización. El modelo ha sido validado frente a datos reales en la costa de Holderness, Yorkshire, Reino Unido; y en la costa norte del lago Erie, Ontario, Canadá. Los resultados obtenidos presentan un importante avance en los modelos de recesión costera, especialmente en su relación con las condiciones geomecánicas del medio, la influencia del agua subterránea, la verticalización de los perfiles rocosos y su respuesta ante condiciones variables producidas por el cambio climático (por ejemplo, nivel medio del mar, cambios en los niveles de lago, etc.). The recession of coastal cliffs is a widespread phenomenon on the rocky shores that are exposed to the combined incidence of marine and meteorological processes that occur in the shoreline. This phenomenon is revealed violently and occasionally, as gravitational movements of the ground and can cause material or human losses. Although knowledge of the risks of erosion is vital for the proper management of the coast, the development of cliff erosion predictive models is limited by the complex interactions between environmental processes and material properties over a range of temporal and spatial scales. Published prediction models are scarce and present important drawbacks: extrapolation, that extend historical records to the future; empirical, that based on historical records studies the system response against the change in one parameter; stochastic, that represent of cliff behaviour based on assumptions regarding the magnitude and frequency of events in a probabilistic framework based on historical records; process-response, stability and error propagation unexplored; PDE´s, highly computationally expensive and not very accurate. The first part of this thesis describes the main features of the latest models of each type and, for the most commonly used, their ranges of application, advantages and disadvantages are given. Finally as a synthesis of the most relevant processes that include the revised models, a conceptual diagram of coastal recession is presented. This conceptual model includes the most influential processes that must be taken into account when using or creating a model of coastal recession to evaluate the dangerousness (time/frequency) of the phenomenon to medium-short term. A new process-response coastal recession model developed in this thesis has been designed to incorporate the behavioural and mechanical characteristics of coastal cliffs which are composed of with materials whose compressive strength is less than 5 MPa. The model simulates the spatial and temporal evolution of a cliff-2D profile that can consist of heterogeneous materials. To do so, marine dynamics: mean sea level, waves, tides, lake seasonal changes; is coupled with the evolution of land recession: erosion, cliff face failure and associated protective colluvial wedge. The model in its different variants can include analysis of material geomechanical stability, the effect of debris present at the cliff foot, groundwater effects, beach and run-up effects, changes in the mean sea level or changes (seasonal or inter-annual) in the mean lake level. Computational implementation and study of different numerical resolution techniques, in both time and space approximations, and the produced errors are exposed and analysed for the first two tidal periods. The results obtained in the errors analysis allow us to operate the model with a configuration that minimizes the error of the approximation methods. The model is validated through profile evolution assessment at various locations of coastline retreat on the Holderness Coast, Yorkshire, UK and on the north coast of Lake Erie, Ontario, Canada. The results represent an important stepforward in linking material properties to the processes of cliff recession, in considering the effect of groundwater charge and the slope oversteeping and their response to changing conditions caused by climate change (i.e. sea level, changes in lakes levels, etc.).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente trabajo de tesis se afronta el problema de la optimización de la superficie de grandes antenas reflectoras. Es sabido que los grandes reflectores, formados por una superficie panelada, sufren deformaciones debidas al impacto del viento, a los cambios de temperatura y a los efectos gravitacionales derivados del gran peso de la estructura. Estos efectos hacen que los reflectores pierdan su forma ideal, generalmente de paraboloide, y se reduzca su eficiencia de apertura y, por tanto, se limite la máxima frecuencia de uso de los mismos. Es necesario, por tanto, disponer de técnicas que permitan medir el estado de la superficie de grandes reflectores, y derivar los ajustes necesarios a aplicar sobre los tornillos de soporte de cada uno de los paneles que conforman dicha superficie. De esta manera, se devolvería al reflector su forma óptima y aumentaría la eficiencia de apertura y el rango de frecuencias de uso. Hay que resaltar que el aumento de la eficiencia de un radiotelescopio supone una reducción en el tiempo de integración necesario para la detección de las debilísimas señales generadas por las radiofuentes naturales, ahorrando así valioso tiempo de observación. Además, el incremento en el rango de frecuencias permite la detección de nuevas líneas o especies moleculares en dichas radiofuentes. Tras un primer capítulo introductorio, se presenta, en el capítulo segundo, la geometría de estos grandes reflectores y la influencia de los distintos factores que afectan a la calidad de la superficie de los mismos, como la gravedad, el viento y la temperatura, particularizando para el caso del radiotelescopio de 40 metros del Centro Astronómico de Yebes. En el tercer capítulo, se presentan las diferentes técnicas metrológicas empleadas actualmente para abordar la determinación de estos ajustes, mostrándose las ventajas e inconvenientes de cada una de ellas. Actualmente, la técnica metrológica más precisa y rápida para llevar a cabo esta tarea de caracterización de la superficie de un gran reflector, es la radio-holografía de microondas presentada en el capítulo cuarto. A partir de las medidas proporcionadas por esta técnica, realizadas con la ayuda de un transmisor, y mediante transformaciones de campo, se calculan los errores de la superficie del reflector, respecto al paraboloide ideal, y se derivan los ajustes necesarios. En los capítulos quinto y sexto se presentan los resultados de la aplicación de esta técnica a dos radiotelescopios: el de 30 metros de IRAM en Pico de Veleta (Granada) y los prototipos de 12 metros de las antenas del proyecto ALMA. Por su parte, el capítulo séptimo contiene el núcleo fundamental de esta tesis y presenta el desarrollo de la técnica de radio-holografía de microondas para optimizar la superficie del radiotelescopio de 40 metros del Centro Astronómico de Yebes. Para ello, ha sido necesario diseñar, construir e instalar un receptor de doble canal en banda Ku en foco primario, y la instrumentación asociada para hacer las medidas de amplitud y fase del diagrama de radiación. Además, ha sido necesario desarrollar el software para llevar a cabo las transformaciones de campo y derivar los ajustes de los paneles. De las medidas holográficas iniciales resultó un error de la superficie del radiotelescopio de 485 μm WRMS, respecto al paraboloide ideal en dirección normal. Tras varias iteraciones del proceso de medida y ajuste, se consiguió reducir dicho error a 194 μm WRMS. Esta notable mejora de la calidad de la superficie ha supuesto aumentar la eficiencia de apertura desde 2,6% al 38,2% a 86 GHz, para un receptor a esta frecuencia situado en el foco primario que produjese la misma iluminación que el receptor de holografía. In this thesis the problem of large reflector antenna surface optimization is faced. It is well known that large reflectors, which are made of a panelled surface, suffer from deformations due to the impact of wind, temperature gradients and gravity loads coming from the high weigth of the structure. These effects distort the ideal reflector shape, which is a paraboloid in most cases, hence reducing the aperture efficiency of the reflector and limiting the maximum frequency of operation. Therefore, it is necessary to have some techniques to measure the status of large reflector surfaces and to derive the adjustment values to be applied to the screws that connect the surface panels to the reflector back-up structure. In this way, the reflector would recover its optimum shape and the aperture efficiency and frequency range would increase. It has to be stated that an increment in the radiotelescope aperture efficiency would imply a reduction in the integration time needed to detect such weak signals coming from natural radiosources in space and, hence, an important saving in observation time. In addition, the increase in the frequency range of operation would allow the detection of new molecular lines in those radiosources. After the introduction, the second chapter shows the geometry of large reflector antennas and the impact on its surface quality of different factors like gravity, wind and temperature, particularly for the case of the Centro Astronómico de Yebes 40 meter radiotelescope. The third chapter deals with the different metrology techniques used to determine the panel adjustments, including the advantages and drawbacks of each one Currently, the most accurate and fast metrologic technique to carry out the characterization of large reflector surfaces is microwave radio-holography2, which is shown in chapter four. From the measurements provided by microwave radio-holography, performed with the help of a transmitter, and with the use of field transformations, the reflector surface errors are computed and the panel adjustments are derived. Chapters five and six show the results of holographic measurements applied to two first class radiotelescopes: the IRAM 30 meter radiotelescope and the 12 meter prototype antennas for the ALMA project. Chapter seven contains the main work of this thesis. It presents the development of the microwave radio-holography technique for the optimization of the Centro Astronómico de Yebes 40m radiotelescope. The work implied the design, construction and instalation of a prime focus Ku-band dual channel receiver, together with the associated instrumentation to measure the amplitude and phase of the radiotelescope radiation pattern. In addition, the software to carry out field transformations and screw settings computations was developed too. Initial holography measurements came up with an surface error of 485 μmWRMS in normal direction with respect to the best-fit paraboloid. After a few iterations of the measurementadjustment cycle, the surface error was reduced to 194 μm WRMS. This remarkable improvement in surface quality means an increment in aperture efficiency from 2,6% to 38,2% at 86 GHz, assuming a receiver at this frequency in prime focus position which produces the same illumination as the holography receiver.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se presentan consideraciones elementales sobre el coeficiente de impacto y se indican los resultados de las medidas ORE-UIC, a los que, en general, no se ha prestado la atención que merecen. Para facilitar su uso se presenta un diagrama de alineación doble, que se compara con la fórmula de la instrucción vigente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMEN Los procesos de diseño de zonas o diseño del territorio implican la partición de un espacio geográfico, organizado en un conjunto de unidades de área, en diferentes regiones o zonas según un conjunto especifico de criterios que varían en función del campo de aplicación. En la mayoría de los casos, el objetivo fundamental consiste en crear zonas de tamaño aproximadamente igual respecto a uno o varios atributos de medida -de carácter cuantitativo- (zonas con igual número de habitantes, igual promedio de ventas...). Sin embargo, están apareciendo nuevas aplicaciones, algunas en el contexto de las políticas de desarrollo sostenible, cuya finalidad es la definición de regiones con un tamaño predeterminado, no necesariamente similar. Además, en estos casos las zonas han de formarse en torno a un conjunto específico de posiciones, semillas o generadores. Este tipo de particiones no han sido lo suficientemente investigadas, de manera que no se conocen modelos de solución para la delimitación automática de las zonas. En esta tesis se ha diseñado un nuevo método basado en una versión discreta del diagrama de Voronoi con peso aditivo adaptativo (DVPAA), que permite la partición de un espacio bidimensional en zonas de un tamaño específico, considerando tanto la posición como el peso de cada uno de los generadores. El método consiste en resolver repetidamente un tradicional diagrama de Voronoi con peso aditivo, de forma que los pesos de cada generador se actualizan en cada iteración. En el proceso de cálculo de distancias se usa una métrica basada en el camino más corto, lo que garantiza que la partición obtenida esté formada por un conjunto de zonas conexas. La heurística diseñada se integra en una aplicación prototipo, desarrollada en un entorno SIG (Sistemas de Información Geográfica), que permite el trazado automático de zonas según los criterios anteriormente expuestos. Para analizar la viabilidad del método se ha utilizado como caso de estudio la gestión de los recursos pastorales para la ganadería extensiva en tres municipios de Castilla-La Mancha. Las pruebas realizadas ponen de manifiesto que la heurística diseñada, adaptada a los criterios que se plantean en el contexto de la gestión de sistemas extensivos agropecuarios, es válida para resolver este tipo de problemas de partición. El método propuesto se caracteriza por su eficacia en el tratamiento de un gran número de unidades superficiales en formato vectorial, generando soluciones que convergen con relativa rapidez y verifican los criterios establecidos. En el caso estudiado, aunque la posición prefijada de los generadores reduce considerablemente la complejidad del problema, existen algunas configuraciones espaciales de estos elementos para las que el algoritmo no encuentra una solución satisfactoria, poniéndose de manifiesto una de las limitaciones de este modelo. Tal y como se ha podido comprobar, la localización de los generadores puede tener un considerable impacto en la zonificación resultante, por lo que, de acuerdo con Kalcsics et al. (2005), una selección "inadecuada" difícilmente puede generar regiones válidas que verifiquen los criterios establecidos. ABSTRACT Tenitory or zone design processes entail partitioning a geographic space, organized as a set of basic areal units, into different regions or zones according to a specific set of entena that are dependent on the application context. In most cases the aim is to create zones that have approximately equal sizes with respect to one or several measure attributes (zones with equal numbers of inhabitants, same average sales, etc). However, some of the new applications that have emerged, particularly in the context of sustainable development policies, are aimed at defining zones of a predetermined, though not necessarily similar, size. In addition, the zones should be built around a given set of positions, seeds or generators. This type of partitioning has not been sufñciently researched; therefore there are no known approaches for automated zone delimitation. This thesis proposes a new method based on a discrete versión of the Adaptive Additively Weighted Voronoi Diagram (AAWVD) that makes it possible to partition a 2D space into zones of specific sizes, taking both the position and the weight of each (seed) generator into account. The method consists of repeatedly solving a traditional additively weighted Voronoi diagram, so that the weights of each generator are updated at every iteration. The partition s zones are geographically connected nsing a metric based 011 the shortest path. The proposed heuristic lias been included in an application, developed in a GIS environment that allows the automated zone delimitation according to the mentioned criteria. The management of the extensive farming system of three municipalities of Castilla-La Mancha (Spain) has been used as study case to analyze the viability of the method. The tests carried out have established that the proposed method, adapted to the criteria of this application field, is valid for solving this type of partition problem. The applied algorithm is capable of handling a high number of vector areal units, generating solutions that converge in a reasonable CPU time and comply with the imposed constraints. Although the complexity of this problem is greatly reduced when the generator's positions are fixed, in many cases, these positions impose a spatial confignration that the algorithm proposed is unable to solve, thus revealing one of the limitations of this method. It has been shown that the location of the generators has a considerable impact on the final solution, so that, as Kalcsics et al. (2005) observed, an "inadequate" selection can hardly generate valid zones that comply with the established criteria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los arrays de ranuras son sistemas de antennas conocidos desde los años 40, principalmente destinados a formar parte de sistemas rádar de navíos de combate y grandes estaciones terrenas donde el tamaño y el peso no eran altamente restrictivos. Con el paso de los años y debido sobre todo a importantes avances en materiales y métodos de fabricación, el rango de aplicaciones de este tipo de sistemas radiantes creció en gran medida. Desde nuevas tecnologías biomédicas, sistemas anticolisión en automóviles y navegación en aviones, enlaces de comunicaciones de alta tasa binaria y corta distancia e incluso sistemas embarcados en satélites para la transmisión de señal de televisión. Dentro de esta familia de antennas, existen dos grupos que destacan por ser los más utilizados: las antennas de placas paralelas con las ranuras distribuidas de forma circular o espiral y las agrupaciones de arrays lineales construidos sobre guia de onda. Continuando con las tareas de investigación desarrolladas durante los últimos años en el Instituto de Tecnología de Tokyo y en el Grupo de Radiación de la Universidad Politécnica de Madrid, la totalidad de esta tesis se centra en este último grupo, aunque como se verá se separa en gran medida de las técnicas de diseño y metodologías convencionales. Los arrays de ranuras rectas y paralelas al eje de la guía rectangular que las alimenta son, sin ninguna duda, los modelos más empleados debido a la fiabilidad que presentan a altas frecuencias, su capacidad para gestionar grandes cantidades de potencia y la sencillez de su diseño y fabricación. Sin embargo, también presentan desventajas como estrecho ancho de banda en pérdidas de retorno y rápida degradación del diagrama de radiación con la frecuencia. Éstas son debidas a la naturaleza resonante de sus elementos radiantes: al perder la resonancia, el sistema global se desajusta y sus prestaciones degeneran. En arrays bidimensionales de slots rectos, el campo eléctrico queda polarizado sobre el plano transversal a las ranuras, correspondiéndose con el plano de altos lóbulos secundarios. Esta tesis tiene como objetivo el desarrollo de un método sistemático de diseño de arrays de ranuras inclinadas y desplazadas del centro (en lo sucesivo “ranuras compuestas”), definido en 1971 como uno de los desafíos a superar dentro del mundo del diseño de antennas. La técnica empleada se basa en el Método de los Momentos, la Teoría de Circuitos y la Teoría de Conexión Aleatoria de Matrices de Dispersión. Al tratarse de un método circuital, la primera parte de la tesis se corresponde con el estudio de la aplicabilidad de las redes equivalentes fundamentales, su capacidad para recrear fenómenos físicos de la ranura, las limitaciones y ventajas que presentan para caracterizar las diferentes configuraciones de slot compuesto. Se profundiza en las diferencias entre las redes en T y en ! y se condiciona la selección de una u otra dependiendo del tipo de elemento radiante. Una vez seleccionado el tipo de red a emplear en el diseño del sistema, se ha desarrollado un algoritmo de cascadeo progresivo desde el puerto alimentador hacia el cortocircuito que termina el modelo. Este algoritmo es independiente del número de elementos, la frecuencia central de funcionamiento, del ángulo de inclinación de las ranuras y de la red equivalente seleccionada (en T o en !). Se basa en definir el diseño del array como un Problema de Satisfacción de Condiciones (en inglés, Constraint Satisfaction Problem) que se resuelve por un método de Búsqueda en Retroceso (Backtracking algorithm). Como resultado devuelve un circuito equivalente del array completo adaptado a su entrada y cuyos elementos consumen una potencia acorde a una distribución de amplitud dada para el array. En toda agrupación de antennas, el acoplo mutuo entre elementos a través del campo radiado representa uno de los principales problemas para el ingeniero y sus efectos perjudican a las prestaciones globales del sistema, tanto en adaptación como en capacidad de radiación. El empleo de circuito equivalente se descartó por la dificultad que suponía la caracterización de estos efectos y su inclusión en la etapa de diseño. En esta tesis doctoral el acoplo también se ha modelado como una red equivalente cuyos elementos son transformadores ideales y admitancias, conectada al conjunto de redes equivalentes que representa el array. Al comparar los resultados estimados en términos de pérdidas de retorno y radiación con aquellos obtenidos a partir de programas comerciales populares como CST Microwave Studio se confirma la validez del método aquí propuesto, el primer método de diseño sistemático de arrays de ranuras compuestos alimentados por guía de onda rectangular. Al tratarse de ranuras no resonantes, el ancho de banda en pérdidas de retorno es mucho mas amplio que el que presentan arrays de slots rectos. Para arrays bidimensionales, el ángulo de inclinación puede ajustarse de manera que el campo quede polarizado en los planos de bajos lóbulos secundarios. Además de simulaciones se han diseñado, construido y medido dos prototipos centrados en la frecuencia de 12GHz, de seis y diez elementos. Las medidas de pérdidas de retorno y diagrama de radiación revelan excelentes resultados, certificando la bondad del método genuino Method of Moments - Forward Matching Procedure desarrollado a lo largo de esta tésis. Abstract The slot antenna arrays are well known systems from the decade of 40s, mainly intended to be part of radar systems of large warships and terrestrial stations where size and weight were not highly restrictive. Over the years, mainly due to significant advances in materials and manufacturing methods, the range of applications of this type of radiating systems grew significantly. From new biomedical technologies, collision avoidance systems in cars and aircraft navigation, short communication links with high bit transfer rate and even embedded systems in satellites for television broadcast. Within this family of antennas, two groups stand out as being the most frequent in the literature: parallel plate antennas with slots placed in a circular or spiral distribution and clusters of waveguide linear arrays. To continue the vast research work carried out during the last decades in the Tokyo Institute of Technology and in the Radiation Group at the Universidad Politécnica de Madrid, this thesis focuses on the latter group, although it represents a technique that drastically breaks with traditional design methodologies. The arrays of slots straight and parallel to the axis of the feeding rectangular waveguide are without a doubt the most used models because of the reliability that they present at high frequencies, its ability to handle large amounts of power and their simplicity of design and manufacturing. However, there also exist disadvantages as narrow bandwidth in return loss and rapid degradation of the radiation pattern with frequency. These are due to the resonant nature of radiating elements: away from the resonance status, the overall system performance and radiation pattern diminish. For two-dimensional arrays of straight slots, the electric field is polarized transverse to the radiators, corresponding to the plane of high side-lobe level. This thesis aims to develop a systematic method of designing arrays of angled and displaced slots (hereinafter "compound slots"), defined in 1971 as one of the challenges to overcome in the world of antenna design. The used technique is based on the Method of Moments, Circuit Theory and the Theory of Scattering Matrices Connection. Being a circuitry-based method, the first part of this dissertation corresponds to the study of the applicability of the basic equivalent networks, their ability to recreate the slot physical phenomena, their limitations and advantages presented to characterize different compound slot configurations. It delves into the differences of T and ! and determines the selection of the most suitable one depending on the type of radiating element. Once the type of network to be used in the system design is selected, a progressive algorithm called Forward Matching Procedure has been developed to connect the proper equivalent networks from the feeder port to shorted ending. This algorithm is independent of the number of elements, the central operating frequency, the angle of inclination of the slots and selected equivalent network (T or ! networks). It is based on the definition of the array design as a Constraint Satisfaction Problem, solved by means of a Backtracking Algorithm. As a result, the method returns an equivalent circuit of the whole array which is matched at its input port and whose elements consume a power according to a given amplitude distribution for the array. In any group of antennas, the mutual coupling between elements through the radiated field represents one of the biggest problems that the engineer faces and its effects are detrimental to the overall performance of the system, both in radiation capabilities and return loss. The employment of an equivalent circuit for the array design was discarded by some authors because of the difficulty involved in the characterization of the coupling effects and their inclusion in the design stage. In this thesis the coupling has also been modeled as an equivalent network whose elements are ideal transformers and admittances connected to the set of equivalent networks that represent the antennas of the array. By comparing the estimated results in terms of return loss and radiation with those obtained from popular commercial software as CST Microwave Studio, the validity of the proposed method is fully confirmed, representing the first method of systematic design of compound-slot arrays fed by rectangular waveguide. Since these slots do not work under the resonant status, the bandwidth in return loss is much wider than the longitudinal-slot arrays. For the case of two-dimensional arrays, the angle of inclination can be adjusted so that the field is polarized at the low side-lobe level plane. Besides the performed full-wave simulations two prototypes of six and ten elements for the X-band have been designed, built and measured, revealing excellent results and agreement with the expected results. These facts certify that the genuine technique Method of Moments - Matching Forward Procedure developed along this thesis is valid and trustable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El trabajo realizado ha pretendido desarrollar y caracterizar una solución de revestimiento continuo interior con características de barrera de vapor e higroscopicidad. El objetivo ha sido desarrollar una solución de revestimiento continuo interior, capaz de reducir el riesgo de condensación intersticial en los cerramientos, manteniendo la capacidad de regulación de la humedad del ambiente interior. ESTUDIO DE ANTECEDENTES 1 La condensación intersticial La condensación intersticial se produce cuando la presión de vapor sobrepasa la presión de vapor de saturación en una de las capas internas del cerramiento. El vapor de agua se transfiere de los locales de mayor presión de vapor a los de menor presión. Para la situación de condensación intersticial, en la estación de calentamiento, las presiones de vapor son más elevadas en el interior del edificio que en el exterior. Entonces existe una transferencia de vapor del interior hacia el exterior y es en ese trayecto cuando pueden producirse las condensaciones intersticiales si éste alcanza la temperatura de rocío. Las consecuencias de la condensación intersticial pueden ser varias, desde la degradación de los materiales, como la corrosión de elementos metálicos; la pudrición de productos orgánicos naturales, como la madera, variaciones dimensionales de las fábricas de ladrillo con posibilidad de deformación del cerramiento y de fisuración de los revestimientos continuos. Pueden también producirse fenómenos de corrosión física provocados por la congelación del agua en los elementos porosos del cerramiento. Los revestimientos continuos pueden también estar sujetos a vegetaciones parasitarias por el exterior del cerramiento o de hongos por el interior, por transferencia del agua condensada a las superficies del cerramiento. Los hongos pueden provocar enfermedades principalmente respiratorias o alergias, al alterar la calidad del aire. La condensación intersticial se produce principalmente en situaciones de bajas temperaturas y elevados grados de humedad especifica exterior. Pero las condiciones de temperatura y principalmente de humedad especifica interior tienen también gran influencia en esta situación patológica. Las condiciones de humedad relativa interior dependen de muchos factores como el tipo y uso del edificio, y en caso de vivienda, del número de ocupantes, de las actividades que se desarrollan, pero esencialmente de la temperatura interior y del grado de ventilación. Las soluciones constructivas también tienen influencia en el riesgo de condensaciones. Las soluciones de cerramientos con aislamientos por el interior y con capas impermeables al vapor por el exterior son las más problemáticas. En esta solución constructiva extrema, tenemos prácticamente todo el cerramiento cerca de las temperaturas exteriores, con gran concentración de vapor de agua. El tipo de aislamiento también es importante, los aislamientos con gran desequilibrio higrotérmico, como las lanas minerales, de fibra de madera, o de fibras textiles, caracterizados por el elevado aislamiento y la elevada permeabilidad al vapor, son los que presentan mayor riesgo. Éstos permiten el paso del vapor y producen un salto acentuado de la temperatura. Su colocación por el interior de los cerramientos incrementa aún más el riesgo de condensaciones. Estos materiales de aislamiento también se caracterizan por tener una menor energía primaria asociada a su fabricación. Por lo tanto merecen una atención especial en la búsqueda de soluciones sostenibles. Así mismo, también puede existir riesgo de condensaciones con aquellos aislamientos de menor permeabilidad al vapor, como los poliméricos o las espumas de vidrio, pero deficientemente aplicados, permitiendo el paso del vapor de agua por las juntas o en los encuentros con forjados, pilares o huecos. La condensación de agua en los aislamientos caracterizados por una elevada permeabilidad al vapor es la situación más problemática porque, además de poder conducir a la pudrición de aislamientos de origen orgánico (como los de fibra de madera), conduce a una disminución del aislamiento del cerramiento y al consecuente incremento del consumo de energía en la obtención del confort térmico. Existen un conjunto de reglas y de soluciones constructivas que pueden reducir el riesgo de condensaciones intersticiales como la colocación de materiales sucesivamente más permeables al vapor, o más aislantes, del interior al exterior. XXXIII Revestimientos exteriores discontinuos y ventilados y aislamientos aplicados por el exterior es la solución extrema de este principio. La aplicación de aislamientos impermeables al vapor es otra solución, siendo necesario que se garantice que las juntas de las placas del aislamiento sean estancas, así como los encuentros con los forjados, pilares y huecos. Otra solución es la aplicación de cerramientos dobles con cámara de aire ventilada, teniendo el cuidado de ventilar solamente la parte fría del cerramiento. Es necesario en estas situaciones, que se garantice que el aislamiento se encuentra aplicado en la cara exterior del ladrillo interior del cerramiento. También es importante controlar el grado de ventilación de la cámara para que no se produzca la pérdida de la resistencia térmica de la hoja de ladrillo exterior. La aplicación de barreras de vapor en la parte caliente del cerramiento es una solución que garantiza la reducción del flujo del vapor del interior hacia el exterior y consecuentemente contribuye a la reducción de la presión de vapor en su lado exterior y en la parte fría del cerramiento. 2 La normativa La normativa española, el Código Técnico de la Edificación de 2006, en su capítulo Ahorro de Energía, establece que no está permitida en ninguna situación, la condensación en el aislamiento. Todavía existiendo condensaciones en otras capas del cerramiento, en la estación de calentamiento, éstas no pueden ser mayores que la evaporación en la estación de enfriamiento. La misma normativa determina que si existe una barrera de vapor en la parte caliente del cerramiento no será necesario comprobar las condiciones anteriores. La normativa portuguesa, el Regulamento das Características do Comportamento Térmico dos Edifícios, de 2006, no tiene ninguna exigencia relativa a las condensaciones intersticiales. Sus autores defienden que en Portugal no es un fenómeno que pueda tener consecuencias graves en los elementos constructivos o en el consumo de energía. En la norma EN 13788 de 2001 están definidos los métodos más comunes de verificación de las condensaciones y de la evaporación y están basados en el Diagrama de Glaser. En base a esta norma es posible verificar el riesgo de condensaciones superficiales y la posibilidad de desarrollo de hongos en la superficie interior del cerramiento. Pero también permite evaluar el riesgo de condensaciones debido a la difusión de vapor de agua. En este método se considera que el agua incorporada en la construcción ha secado, y es aplicable en situaciones en que sean insignificantes los fenómenos de alteración de conductividad térmica con la humedad, la liberación y absorción de calor, alteración de las propiedades de los materiales con la humedad, succión capilar y transferencia de humedad líquida en los materiales, circulación de aire a través de grietas, y la capacidad higroscópica en los materiales. Me resulta extraño que la misma norma establezca que el método no debe ser utilizado para la comprobación de la existencia de condensaciones, sino solamente como método comparativo de diferentes soluciones constructivas o condiciones ambientales. Más recientemente, con la norma EN 15026 de 2007, se ha introducido una alteración en el método de verificación. Mientras que en base a la norma 13788 la verificación se realiza en régimen estacionario, y solamente considerando algunas propiedades de los materiales como la resistencia térmica (R) y el coeficiente de resistencia a la difusión de vapor de agua (μ), la norma EN 15026, determina que se realice en régimen variable y que otros fenómenos físicos sean considerados. Con respecto a la temperatura, el almacenamiento de calor en materiales secos o húmedos, la transferencia de calor con la transmitancia térmica dependiente de la cantidad de agua presente en los materiales, transferencia de calor latente por difusión de vapor de agua con cambio de fase. Con respecto a la humedad, el almacenamiento de humedad por adsorción y desorción de vapor de agua y fuerzas capilares. Transporte de humedad por difusión de vapor de agua, transporte de agua líquida por difusión de superficie y conducción capilar. 3 Barreras de vapor Las barreras de vapor se caracterizan por una reducida permeancia al vapor, que de acuerdo con la normativa española NBE 79 es inferior a 0,1g /MNs o resistencia superior a 10 MNs/g. (o permeancia inferior a 1,152 g/mmHg, o resistencia al vapor mayor que 0,86 mmHg∙m2∙día /g). Esta permeancia al vapor corresponde a una capa de aire de difusión equivalente (Sd) de 215 cm o 2,15 metros. XXXV Todos los materiales pueden alcanzar estos valores de resistencia al vapor siempre que se utilicen con grandes espesores, pero los que más interesan son los que puedan tener esa característica con pequeños espesores. Existen otras clasificaciones, como la del CSTC de la Bélgica que divide los materiales de acuerdo a su permeancia al vapor. Están definidas 4 categorías de barreras de vapor E1, E2, E3, E4. La categoría E1 para los materiales con - Sd entre 2 y 5 metros, E2 – con Sd entre 5 y 25 metros y 3 - con Sd entre 25 y 200 metros y finalmente E4 para valores de Sd superiores a 200 metros. Estos materiales pueden ser de diferentes tipos, y con diferentes aplicaciones. Las pinturas al esmalte o emulsiones bituminosas, los films de polietileno o de aluminio, y las membranas de betún o vinílicas son algunos ejemplos de productos con estas características y que se utilizan con ese fin. Su aplicación puede realizarse en la superficie interior del cerramiento como las pinturas al esmalte o en la cámara de aire como los otros tipos mencionados anteriormente. En todo caso deben ser colocados en la parte caliente del cerramiento, por el interior del aislamiento. Las pinturas al esmalte, los barnices, o las membranas vinílicas, cuando son aplicados sobre el revestimiento interior, presentan el problema de quitar la capacidad higroscópica del revestimiento, sea de yeso, mortero de cemento o incluso de madera. Las emulsiones de betún o las membranas de betún son generalmente aplicadas en la cara exterior de la hoja interior del cerramiento, cuando existe cámara de aire, por lo que necesitan ser aplicadas por el exterior del edificio y obligan a que la ejecución de la hoja de ladrillo de fuera sea hecha también por el exterior, con las condiciones de seguridad y de costo asociadas. Los films de aluminio o de polietileno presentan problemas de aplicación como la garantía de estanquidad, por no ser continuos, y por que el sistema de fijación poder no garantizarla. Las soluciones que parecen garantizar una mejor estanquidad y menor costo son las aplicaciones de barreras de vapor continuas y aplicadas por el interior del cerramiento, como la pintura al esmalte. Sin embargo, como ya se ha comentado con anterioridad, pueden reducir la capacidad higroscópica de los cerramientos y la inercia higroscópica de las construcciones. 4 La importancia de la capacidad higroscópica El agua actúa como un pequeño imán y es atraída por varios materiales en estado líquido o gaseoso. Muchos materiales son capaces de contener moléculas de vapor de aire, llamándose este fenómeno adsorción y ocurre en los materiales llamados hidrófilos. La capacidad de los materiales de variar su contenido de humedad con la humedad relativa del aire se llama capacidad higroscópica. La capacidad higroscópica de los materiales de revestimiento es importante por permitir la adsorción y desadsorción de agua en estado de vapor y así permitir la regulación de la humedad del ambiente interior, adsorbiendo cuando la humedad relativa del aire es elevada y desorbiendo cuando la humedad relativa es baja. De acuerdo con los datos del Fraunhofer Institut y para valores de humedad por unidad de volumen (Kg/m3), el revestimiento de yeso no es el producto que presenta una mejor capacidad higroscópica, comparado por ejemplo con los revocos de cemento. Para valores de humedad relativa del 50%, el revestimiento de yeso presenta valores de contenido de humedad de 3,6 g/m3, el revoco de cemento 9,66 g/m3, y el revestimiento acrílico de acabado de 2,7 g/m3. Para una humedad relativa del 95% y por tanto aún en el rango higroscópico, los valores para los mismos morteros son de 19 g/m3, 113,19 g/m3 y 34,55 g/m3, respectivamente. Para una humedad relativa del 100% y por tanto en el rango por encima de la saturación capilar, en la saturación máxima, los valores son de 400 g/m3, 280 g/m3 y 100 g/m3 respectivamente. Solo para valores de humedad relativa del 100% es posible verificar un contenido de humedad del revestimiento de yeso superior al del revoco de cemento. La inercia higroscópica permite que las variaciones de la humedad relativa del aire en una habitación, tenga una atenuación de los picos diarios pudiendo contribuir para el confort y para la disminución de los costos energéticos a él asociados. Puede también XXXVII tener un efecto a largo plazo traducido en alteraciones de las medias mensuales en los meses de inicio y de fin de ciclos estacionales, de variación de la humedad relativa. Estos son los fundamentos que han llevado al desarrollo de soluciones de revestimientos continuos interiores con características de barrera de vapor e higroscopicidad. ESTUDIO EXPERIMENTAL El estudio experimental consta de dos partes: - permeabilidad al vapor e capacidad higroscópica de materiales y productos - adherencia de revestimientos predosificados de yeso a capas impermeables al vapor. 1- Materiales y métodos I. Permeabilidad al vapor y capacidad higroscópica de materiales y productos El desarrollo de esta solución de revestimiento ha comenzado por el estudio de las características de permeabilidad al vapor y de capacidad higroscópica de los materiales y productos utilizados en los revestimientos continuos de cerramientos. Los primeros ensayos han sido realizados en el periodo de docencia del Curso de Doctorado en la asignatura de Aplicaciones Actuales de Conglomerantes Tradicionales, del Profesor Luis de Villanueva Domínguez, y han permitido el primer contacto con los métodos de ensayos y el conocimiento de las normas aplicables. En el trabajo de investigación realizado en la asignatura, se ha ensayado la permeabilidad al vapor e la capacidad higroscópica de morteros de revestimiento, de conglomerantes tradicionales Los materiales y productos ensayados, en ese primer trabajo experimental, han sido, mortero de escayola y cal aérea, yeso de proyectar, mortero de cal aérea y arena, mortero de cal hidráulica y arena, mortero de cemento y arena, mortero de cemento y arena con aditivos impermeabilizantes y morteros impermeabilizantes a base de cemento. En el periodo de investigación del Curso de Doctorado han sido ensayados otros materiales y productos. También con la orientación del Catedrático Luis de Villanueva Domínguez se ha desarrollado el Trabajo Tutelado en el cual se han ensayado materiales y productos de revestimiento continuo de conglomerantes no tradicionales, yesos puros con adiciones naturales, yesos de proyectar con adiciones sintéticas y capas peliculares de diferente origen. De los productos de origen sintético se ha ensayado la permeabilidad al vapor y capacidad higroscópica de estucos acrílicos de relleno (Matesica), estucos acrílicos de acabado (Matesica), mortero sintético de relleno/acabado para exterior o interior (Matesica), mortero sintético de acabado para exterior (Weber), mortero epoxi de relleno y acabado para interior (Gobbetto), morteros de agarre (BASF y Matesica), mortero de reparación de cemento (Weber), mortero de reparación de yeso (Weber). Se ha ensayado también la permeabilidad al vapor de capas peliculares continuas de diferentes orígenes, como aceite de linaza hervido, cera de abeja diluida en esencia de trementina, emulsión bituminosa (Shell), emulsión bituminosa con polímero (BASF), imprimación epoxídica con cemento (BASF), pintura epoxídica (Matesica), pintura anticarbonatación (BASF), estuco Veneciano de cal (La Calce de la Brenta), estuco Veneciano sintético (Gobbetto) e impermeabilización líquida (Weber). Han sido ensayadas también la permeabilidad al vapor y la capacidad higroscópica de yesos puros (portugueses) sin adiciones y con aditivos naturales (cal aérea hidratada 1/1, cola de pescado y cola de conejo). Los yesos de proyectar han sido ensayados sin adiciones y con adiciones de látex SBR (BASF), acrílico (Weber) y epoxi (Matesica). II Adherencia de revestimientos predosificados de yeso a capas impermeables al vapor Como ya se ha dicho anteriormente, hasta una humedad relativa por debajo del 95%, el revestimiento de yeso tiene una capacidad higroscópica inferior al revoco de cemento y al revestimiento acrílico de acabado. Se ha elegido, de acuerdo con el profesor Luis de Villanueva Domínguez, este producto como capa higroscópica del esquema de revestimiento. Las cuestiones de tradición cultural, de abundancia de materia prima en la Península Ibérica, esencialmente en España, y los menores costos energéticos asociados a su fabricación, determinan el origen de esta decisión. Para la producción de 1 m3 de XXXIX cemento son necesarios 12600 MJ, mientras que para 1 m3 de yeso son necesarios solamente 2640 MJ. Pero el yeso presenta otras características mejores que los morteros de cemento, como la menor densidad, menor conductividad térmica y menor efusividad térmica. La mejor capacidad de absorción de agua en la fase líquida por capilaridad, que el mortero de cemento, es otra de las ventajas de los revestimientos de yeso que en situaciones de condensación superficial interior puede evitar el goteo. El paso siguiente ha sido ensayar la adherencia de un revestimiento predosificado de yeso a las capas que han presentado característica de barrera de vapor con espesores hasta 6 mm, así como en aquellas en que los fabricantes recomiendan menores espesores, como el mortero epoxi de relleno y acabado y el mortero sintético de acabado. Se ha utilizado un revestimiento de yeso predosificado de aplicación manual, portugués. La elección de un producto de aplicación manual se ha debido a la dificultad de obtener la aplicación por proyección en el local donde se han hecho las muestras, el taller de la Faculdade de Arquitectura da Universidade Técnica de Lisboa. Se ha aplicado con espesor de 2 cm sobre las capas de aceite de linaza hervido, emulsión de bituminosa, imprimación epoxídica con cemento, pintura epoxídica, impermeabilización líquida, mortero epoxi de relleno y acabado, mortero sintético de acabado. Verificando que ninguno de los materiales que han presentado características de barrera de vapor hasta espesores de 0,6 mm proporcionaban una adherencia al revestimiento de yeso capaz de garantizar el cumplimento de todas las exigencias, se ha decidido elegir los materiales impermeables al vapor más finos y con diferentes orígenes para desarrollar los estudios de mejora de la adherencia. Ha sido necesario desarrollar un conjunto de experimentos con el objetivo de incrementar la adherencia del revestimiento de yeso a estos soportes no absorbentes. La adherencia de los revestimientos continuos de conglomerantes tradicionales, como el yeso sobre soportes absorbentes, se basa en una adherencia mecánica. En este caso los cristales de yeso se van a formar dentro de la red capilar del ladrillo cerámico o del hormigón. Aplicando una barrera de vapor sobre ellos, se elimina esta posibilidad por aplicarse una barrera entre la estructura porosa del soporte (ladrillo u hormigón) y el revestimiento de yeso. Se tiene que producir otro tipo de adherencia, la adherencia química. Esta adherencia se basa en los enlaces químicos, de tipo secundario, como los puentes de hidrógeno o las fuerzas bipolares de Van der Waals. Aunque este tipo de adherencia es menor que la que se produce sobre soportes absorbentes, puede alcanzar valores considerables. Los materiales impermeables al vapor elegidos han sido el aceite de linaza hervido, la emulsión bituminosa y la imprimación epoxi con cemento. A estos materiales de origen natural, artificial e sintético, han sido aplicadas capas intermedias de arena de sílice, mortero de cemento y arena, mortero de agarre y un puente de adherencia de acuerdo con las recomendaciones de Eurogypsum. La capa de arena ha sido aplicada con la última mano aún fresca, mientras que las otras capas intermedias han sido aplicadas con las capas impermeables al vapor ya secas. Las capas intermedias aplicadas han sido: - al aceite de linaza hervido - arena de sílice y puente de adherencia. - a la emulsión bituminosa - arena de sílice, mortero de cemento y arena 1:1 y puente de adherencia - a la capa de imprimación epoxídica con cemento - arena de sílice, mortero de agarre y puente de adherencia. El revestimiento de yeso utilizado ha sido un yeso predosificado de aplicación manual, de origen español, y se ha aplicado con un espesor de 2 centímetros. Para la capa intermedia de puente de adherencia y siguiendo la recomendación del fabricante, se ha añadido un látex de SBR (con relación látex/agua de 1/2) al revestimiento de yeso. Otra experimentación realizada ha sido la adición del látex SBR al revestimiento de yeso y su aplicación directamente sobre cada una de las capas impermeables al vapor, y a cada una de las capas intermedias aplicadas sobre las capas impermeables al vapor. XLI La aplicación del látex en las proporciones de 1/2, de relación látex/agua, puede cambiar algunas propiedades del revestimiento de yeso en pasta, en relación a su aplicación, o tiempo de inicio o fin de fraguado, e incluso tener influencia en el costo final del revestimiento. Puesto que la adherencia del revestimiento de yeso con adición del látex a la capa intermedia de puente de adherencia ha sido muy superior a las exigencias más estrictas, se ha realizado un ensayo, pero sin la adición del látex. Este ensayo se ha realizado aplicando el revestimiento de yeso sobre las capas de puente de adherencia anteriormente aplicadas sobre las capas impermeables al vapor, descritas con anterioridad. Se ha aplicado ahora un revestimiento de yeso predosificado también de aplicación manual, pero de origen portugués. Para garantizar el cumplimiento integral de la exigencia de adherencia de 0,5 MPa, se ha hecho otro ensayo con una menor adición de látex de SBR al yeso predosificado. Se ha aplicado el látex con una relación látex/agua de 1/3 y 1/4. 2 Resultados y discusión I. Permeabilidad al vapor y capacidad higroscópica de materiales y productos En el primer ensayo de permeabilidad al vapor se concluyó que ninguno de los productos ensayados puede constituir barrera de vapor en espesores hasta 2 cm. y que lo que ha presentado mayor resistividad al vapor ha sido el mortero impermeabilizante de capa fina. Tendría que tener un espesor próximo a los 14,12 cm para poder constituir barrera de vapor. En los ensayos de capacidad higroscópica, realizados solamente para humedades relativas del 50% y 95% a temperaturas de 23ºC, el mortero de escayola y cal aérea y el yeso de proyectar han presentado una capacidad higroscópica bastante elevada, pero como el secado ha sido realizado a 100º C (lo que no es la temperatura adecuada para los productos a base de yeso por poder éstos sufrir una deshidratación y un cambio en su constitución) los resultados no pueden ser considerados. El mortero de impermeabilización de capa fina también ha presentado una buena capacidad higroscópica, mejor que el mortero de cemento y arena, y éste mejor que el mortero de cal hidráulica y arena, y éste mejor que el mortero de cal aérea y arena. La adición de aditivos impermeabilizantes no ha cambiado significativamente esta característica. Como resultado de los segundos ensayos se ha concluido que existen diferentes materiales y productos que pueden constituir barrera de vapor con diferentes espesores. Los productos estuco acrílico de relleno, estuco sintético de acabado, mortero sintético de acabado para exterior, mortero epoxi de relleno y acabado, han presentado características de barrera de vapor con espesores hasta 2 cm, sin embargo, son espesores superiores a los recomendados por los fabricantes de los productos. De los productos peliculares, han constituido barrera de vapor, el aceite de linaza hervido (con valores muy próximos), la emulsión bituminosa sin polímero, la imprimación epoxídica con cemento, la pintura epoxídica y la impermeabilización líquida. Todos los demás productos ensayados no han presentado esa característica cuando aplicados en tres manos. Los yesos puros con adiciones naturales y los yesos de proyectar con adiciones sintéticas no han presentado características de barrera de vapor en espesores hasta dos centímetros. El mejor resultado ha sido el del yeso puro con adición de cola de pescado, que ha presentado característica de barrera de vapor con espesor de 16,32 cm. En cuanto a la capacidad higroscópica de los materiales y productos, el ensayo ha sido repetido recientemente con las mismas muestras, porque en el ensayo realizado para el Trabajo Tutelado no fue posible una correcta caracterización. En ese ensayo solo se han obtenido los valores de capacidad higroscópica para valores de humedad del 50 % ± 3 a temperatura de 23 ºC ± 2 por no disponerse de los medios necesarios para un estudio más completo. En el ensayo realizado recientemente en el Laboratório Nacional de Engenharia Civil de Portugal (LNEC), se ha utilizado una cámara climática, con control de temperatura y humedad relativa, y se han obtenido los valores de capacidad higroscópica para valores de humedad relativa del 25%, 50%, 75% y 95% a temperatura constante de 23º C. XLIII En ese último ensayo se ha verificado que para humedades relativas del 50 %, los yesos predosificados de aplicación manual, portugueses y españoles, tienen diferentes capacidades higroscópicas. Los yesos españoles han presentado una capacidad higroscópica de 0,2 % y el portugués de 0,05 %. La adición de látex de SRB no ha reducido la capacidad higroscópica del yeso predosificado español. Los valores se han mantenido próximos para las relaciones látex/agua de 1/4, 1/3 y 1/2, con 0,2 %. Para valores de capacidad higroscópica por volumen se ha verificado que la adición de látex incrementa la capacidad higroscópica, estableciéndose que los valores para el yeso español sin látex han sido de 2,2 g/dm3 y para los yesos con adición de látex han sido de cerca de 2,5 g/dm3. Para este valor de humedad relativa otros productos han presentado mayor capacidad higroscópica, como el yeso puro con cola de pescado con 5,1 g/dm3.Para morteros ensayados con espesores de 0,6 cm, el mortero de reparación de yeso ha presentado un valor de capacidad higroscópica de 4,1 g/dm3 y el mortero de agarre (BASF) ha presentado el valor de 4,6 g/dm3. Para valores de humedad relativa del 95 %, la capacidad higroscópica presentada por el yeso predosificado español ha sido de 1 % y por el portugués ha sido de 0,27 %. La adición de látex tampoco aquí ha alterado la capacidad higroscópica. Las pequeñas diferencia registradas pueden deberse al diferente tiempo en que se han realizado los pesajes, por existir ya mucha agua libre. Para valores de capacidad higroscópica por volumen se ha verificado que la adición de látex incrementa la capacidad higroscópica, estableciéndose que los valores para el yeso español sin látex han sido de 10,6 g/dm3 y para los yesos con adición de látex han sido de cerca de 11,60 g/dm3 para látex/agua de 1/4, 13,77 g/dm3 para látex/agua de 1/3 y 12,20 g/dm3 para látex/agua de 1/2. Para este valor de humedad relativa, otros productos han presentado mayor capacidad higroscópica, y superiores al yeso predosificado de aplicación manual español. El yeso predosificado de proyectar con adición de látex acrílico (Weber), con 14,1 g/dm3, el yeso puro con cola de pescado con 17,8 g/dm3, el yeso puro cal aérea hidratada con 18,3 g/dm3. Para los morteros ensayados con espesores de 0,6 cm, el mortero de agarre Matesica con valor 17,7 g/dm3, el mortero de reparación de yeso con valores de 31,2 g/dm3 y el mortero de agarre BASF con valores de 48,8 g/dm3. Este ultimo valor debería ser verificado por haberse podido producir un error en la cantidad de agua suministrada. XLIV II Adherencia de revestimientos predosificados de yeso a capas impermeables al vapor Realizado el ensayo de adherencia del revestimiento de yeso predosificado aplicado sobre las capas que han constituido barrera de vapor con espesor hasta 6 mm, se ha verificado que los valores requeridos por la norma europea EN 13279 de 2005, con valores de adherencia ≥ 0,1 MPa o rotura cohesiva por el soporte, solo no han sido satisfechos por la pintura epoxídica y por el revestimiento sintético de acabado. Todavía los valores de adherencia no han alcanzado los valores exigidos por las exigencias complementarias del Laboratório Nacional de Engenharia de Portugal (LNEC) o las exigencias españolas. Las exigencias del LNEC, determinan una adherencia ≥ 0,5 MPa, o una ruptura cohesiva. Las exigencias españolas determinan que la adherencia debe ser determinada por la rotura del revestimiento. La solución de revestimiento que mejor resultado ha presentado ha sido la del revestimiento predosificado de yeso aplicado sobre la capa de aceite de linaza hervido, con una adherencia de 0,324 MPa. También se ha ensayado la aplicación de una capa intermedia de mortero de agarre entre las capas impermeables al vapor de imprimación epoxídica y pintura epoxídica. Los resultados obtenidos han sido de 0,21 MPa y de 0,25 MPa respectivamente. De los valores obtenidos en el ensayo de adherencia del revestimiento de yeso predosificado a las capas peliculares elegidas que han constituido barrera de vapor cuando aplicadas en tres manos, solo algunas de las soluciones con adición de látex al yeso han cumplido las exigencias más estrictas. Éstas han sido las capas impermeables al vapor constituidas por emulsión bituminosa e imprimación epoxi con cemento. Las capas intermedias de arena de sílice sobre la emulsión bituminosa y sobre la imprimación epoxi también han cumplido. Las capas intermedias de mortero de cemento sobre emulsión bituminosa, y mortero de agarre sobre imprimación epoxi con cemento también han cumplido. El puente de adherencia sobre emulsión bituminosa e imprimación epoxídica con cemento, han presentado valores muy elevados de adherencia del revestimiento de XLV yeso. Los valores obtenidos han sido tres veces superiores a las exigencias más estrictas. Los valores obtenidos en el ensayo de adherencia del revestimiento de yeso predosificado sobre el puente adherencia aplicado sobre las capas peliculares impermeables al vapor han sido muy cercanos a la exigencia del Laboratório Nacional de Engenharia Civil de Portugal. Presentan una media de 0,456 MPa. Los valores más bajos han sido para la solución de capa impermeable al vapor constituida por aceite de linaza hervido, con el valor de 0,418 MPa. El valor más elevado ha sido para la solución de capa impermeable al vapor constituida por imprimación epoxídica con cemento, con el valor de adherencia de 0,484 MPa. Los valores obtenidos con las capas impermeables al vapor constituidas por aceite de linaza hervido han presentado roturas siempre adhesivas, o en su capa, pero con valores muy diferentes. Los valores de mayor adherencia se han producido con las capas de aceite con mayor tiempo de secado. En el ensayo de adherencia del revestimiento de yeso predosificado con adición de látex con relación agua/látex de 1/3 y 1/4, aplicado sobre el puente de adherencia, aplicado sobre la capa de imprimación epoxi se ha verificado que la solución con relación látex/agua de 1/4 ha superado la exigencia de 0,5 MPa en un 50 %. Esto resultado quiere decir que es posible aplicar una relación de látex/agua aún inferior. PRINCIPALES CONCLUSIONES Como principales conclusiones del estudio experimental podemos decir que es posible obtener un revestimiento continuo interior impermeable al vapor e higroscópico. Se pueden obtener con capas impermeables al vapor de aceite de linaza hervido (debidamente seco), emulsión bituminosa o con imprimación epoxídica con cemento, aplicadas directamente sobre el ladrillo. Como capa higroscópica se puede aplicar un revestimiento de yeso predosificado, no obstante sea menos higroscópico que un revestimiento de mortero de cemento y arena (hasta humedades relativas del 95%). La adherencia entre la capa impermeable al vapor y el revestimiento de yeso predosificado, puede conseguirse con un puente de adherencia entre las dos capas anteriormente descritas. Si la adherencia del yeso no fuera capaz de cumplir las exigencias más estrictas (0,5 MPa) puede añadirse un látex de SBR al yeso en una relación de látex agua de 1/4. Esa adición permite una adherencia un 50 % superior a las exigencias más estrictas, por lo que se pueden ensayar relaciones aún menores de L/A. Estas adiciones no restan capacidad higroscópica al revestimiento, pudiendo incluso incrementarla (para humedades relativas del 25% al 95%) con beneficio para la inercia higroscópica del edificio donde fuese aplicado. Con respecto a la influencia de la solución de revestimiento propuesta en el riesgo de condensaciones intersticiales, se puede decir que no ha sido posible observar una diferencia significativa en las simulaciones realizadas, entre la aplicación del revestimiento y su no aplicación. Las simulaciones han sido realizadas con la aplicación informática Wufi 5 Pro, que respeta la normativa más reciente relativa a las condensaciones intersticiales. Comparando con la solución tradicional de aplicación de barrera de vapor en la cámara de aire, tampoco se han verificado grandes diferencias. Cabe destacar que esta solución tradicional no ha presentado diferencias en relación a la no aplicación de barrera de vapor. Estas simulaciones contradicen lo comúnmente establecido hasta ahora, que es considerar que la aplicación de barreras de vapor en la parte caliente del cerramiento reduce considerablemente el riesgo de condensaciones intersticiales. Estas simulaciones han sido realizadas considerando que la fracción de lluvia adherida al cerramiento seria la correspondiente a la solución constructiva y a su inclinación. En la definición del componente pared del cerramiento no existe la posibilidad de colocar la capa de pintura exterior. Considerando la hipótesis de que con la capa de pintura exterior, no existe absorción de agua de lluvia, en esta solución constructiva, los valores obtenidos han cambiado considerablemente. El contenido total de agua en el elemento ha sido menor en la solución con barrera de vapor en el revestimiento (pico máximo de 1 Kg/m2), seguido de la solución de barrera de vapor en la cámara de aire (pico máximo de 1,4 Kg/m2) y esto menor que la solución sin barrera de vapor (pico máximo de 1,8 Kg/m2). El contenido de agua en la lana de roca también ha sido menor en la solución con barrera de vapor en el revestimiento interior (pico máximo de 1,15 %), seguido de la solución con barrera de vapor en la cámara de aire (pico máximo de 1,5 %). y esto menor que la solución sin barrera de vapor (pico máximo de 1,62 %).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto propone la creación de un procedimiento y metodología para el diseño de salas y sistemas electroacústicos basados en el software EASE. La sala tipo elegida para el diseño será una sala de cine bajo las premisas de DOLBY Digital. Los sistemas electroacústicos modelo serán: • Sistema distribuido tanto en malla cuadrada como hexagonal • Sistemas centralizados basados en agrupaciones, tanto lineales como circulares. Se establecerán los pasos básicos imprescindibles para el diseño de los sistemas descritos de forma que, con la ayuda de este tutorial y los medios didácticos adjuntos al mismo, se puedan acometer paso a paso las distintas fases de diseño, cálculo y análisis de los mismos. Como metodología de trabajo se acometerá el proceso de diseño de un ejemplo de cada tipo sobre el que se describirán todos los pasos, posibilidades de diseño y cálculo de los mismos. Los puntos de estudio serán: • Diseño de una sala de Cine ◦Importación de los Ficheros Autocad del cine a EASE ◦Dibujo del recinto en EASE ◦Inserción de materiales ◦Cálculo del tiempo de reverberación en función del volumen de la sala ◦Ajuste del tiempo de reverberación ◦Elección de altavoces para la sonorización ◦Comprobación de la uniformidad de campo sonoro en todos los canales ◦Comprobación de los niveles de pico y total por canal ◦Ecualización de la sala según la curva X (ISO-2969) ◦Inclusión de la Pantalla en la curva de ecualización ◦Estudios psicoacústico de la sala. Retardos ◦Inteligibilidad ◦Diagrama de bloques • Diseño de un sistema distribuido ◦Estudio de los diferentes tipos de solapamientos ▪Borde con Borde ▪Solapamiento mínimo ▪Centro con Centro ◦Estudio de los diferente tipos de mallas ▪Cuadrada ▪Hexagonal • Diseño de un sistema Centralizado ◦Sistemas centralizados tipo Linear Array ◦Sistemas centralizados tipo Circular Array Así mismo se estudiarán las diferentes posibilidades dentro de la suite EASE, incluyendo las versiones gratuitas del mismo EASE ADDRESS (sistemas distribuidos) y FOCUS II (sistemas centralizados), comparando sus posibilidades con los módulos comerciales equivalentes de EASE y las herramientas añadidas del mismo EARS (software para la auralización biaural) y AURA (utilidad de análisis extendido). ABSTRACT This project proposes the creation of a procedure and methodology for the design of rooms and electroacoustic systems based on EASE software. The room chosen as example design is a cinema under DOLBY Digital premises. Electroacoustic systems chosen as example are: • Distributed both square and hexagonal mesh • Centralized systems based on clusters, both linear and circular. It will be established the basic essential steps for the design of the systems described so, with this tutorial and attached teaching aids, could be undertaken the various stages of design, calculation and analysis. As a working methodology, the process design of an example will be described of each system on which all the steps described, design possibilities and calculation will be shown. The main points are: • Design of a cinema • Importing Autocad Files in EASE • Drawing with EASE • Materials insertion • Reverberation time based on the room volume • Adjusting reverberation time • Choosing speakers • Checking sound field uniformity in all channels • Checking peak levels and total level per each channel • Room equalization using X curve (ISO-2969) • Adding screen in the EQ • Psychoacoustic. Delays • Intelligibility • Block diagram • Design of a distributed system • Study of the different types of overlap o Edge to Edge o Minimum Overlap o Center to Center • Study of different types of mesh • Square • Hex • Centralized System Design • Centralized systems. Linear Array • Centralized systems. Circular Array It also will explore the different possibilities within the EASE suite, including the free versions of the same EASE ADDRESS (distributed systems) and FOCUS II (centralized), comparing its potential with commercial equivalents EASE modules and added tools EARS (software for biaural auralization) and AURA (utility extended analysis).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto fin de carrera se ha diseñado y construido un equipo de medida automático que permite realizar la medida de la constante de Planck utilizando los principios de Funcionamiento de los diodos LED. El equipo de medida es totalmente automático gracias a la utilización de una placa controladora Arduino MEGA 2560, que se encarga de realizar la iluminación secuencial de cada LED, medir sus tensiones de funcionamiento, y de realizar los cálculos necesarios para hallar la constante de Planck. Todos los datos se muestran por una pantalla LCD de 16 caracteres por 2 lineas. Para comprender el funcionamiento del sistema de medida automático se ha realizado un estudio detallado de cada uno de los sistemas que componen el equipo de medida. Se ha explicado el funcionamiento teórico de los diodos LED y el funcionamiento de los semiconductores. Se ha explicando los diversos tipos de semiconductores que se utilizan para los LED y las modificaciones que se les aplica para mejorar su eficiencia. Para poder comprender en qué consiste la constante de Planck se ha explicado los principios teóricos en que se basa, y se ha realizado una pequeña demostración de su cálculo. Una vez visto todos los principios teóricos se ha pasado a realizar la explicación de cada uno de los grandes bloques que componen el sistema de medida automático. Estos bloques son la placa controladora Arduino, el sistema de iluminación LED, el sistema de control mecánico de LEDs, la pantalla LCD, el sistema de interrupciones y el sistema de alimentación. Para poder observar el espectro de emisión de cada uno de los LED se ha utilizado un analizador de espectros óptico (OSA), el cual ha sido explicado con detenimiento. El código de programación de Arduino ha sido explicado en forma de diagrama de flujo para una mayor facilidad de comprensión. Se ha desarrollado un manual de usuario para facilitar el uso del sistema a cualquier usuario, en el que se ha introducido un ejemplo completo de funcionamiento. ABSTRACT. In this final Project has designed and built an automatic measuring equipment which is able to measure the Planck`s constant using the operation principles of the LEDs. The measuring equipment is fully automated thanks to the use of an Arduino Mega 2560 controller board, which is responsible for conducting sequential illumination of each LED, measure their operating voltages, and perform the necessary calculations of find the Planck constant. All data is displayed by a LCD screen 16 character by 2 lines. To understand the operation of the automatic measuring system has been made a detailed study of each of the systems that make the measurement equipment. It develops the theoretical performance of the LED and the operation of semiconductors. It explains the different types of semiconductors that are used for LEDs and the changes applied to improve efficiency. In order to understand what is the Planck constant has been explained the theoretical principles in which it is based, and a small demonstration of its calculation has been performed. After seeing all the theoretical principles has been made the explanation of each of the main blocks that compose the automatic measuring system. These blocks are the Arduino controller board, LED lighting system, the mechanical control system LEDs, LCD screen, the interrupt system and feeding system. To observe the emission spectrum of each of the LED has been used optical spectrum analyzer (OSA), which has been explained in detail. The Arduino programming code has been explained in flowchart form for an easy understanding. It has developed a manual to facilitate the use of system to any user, which has introduced a complete example of operation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este Proyecto Fin de Carrera es el estudio y simulación de la sonorización de una sala de cine mediante la utilización del sistema DOLBY ATMOS. Para ello, se simulará la sala 6 del complejo de cines Kinépolis de Madrid utilizando el programa de simulación electroacústica EASE en el que se dispondrá el sistema de sonido DOLBY ATMOS. Primero se procederá a realizar el modelo geométrico en el programa EASE, a partir de los planos de la instalación y medidas realizadas en el recinto. Este programa de simulación permite obtener los parámetros acústicos y electroacústicos necesarios para realizar el estudio de la sala. Luego se diseñará el sistema de sonido de acuerdo a las disposiciones del sistema DOLBY ATMOS, mediante la ubicación de sistemas de altavoces de cine existentes en el mercado, siempre intentando mantener el uso de la sala de forma convencional como DOLBY DIGITAL y cumpliendo los requisitos de uniformidad y ángulos de apuntamiento recomendados por DOLBY. A continuación, una vez dispuestos los altavoces, se procederá a su configuración, realizando una ecualización y ajuste de nivel de manera individual para cada una de las fuentes sonoras, tanto de los altavoces de pantalla, altavoces de surround de pared y techo y los altavoces de subgraves. Como resultado de todo ello, se comprobarán parámetros como la inteligibilidad, respuesta impulsiva, respuesta en frecuencia y tiempo de reverberación en diferentes puntos de escucha, comparando los resultados obtenidos entre ellos. También se realizará una configuración compatible con el sistema de sonido 7.1, realizando su correspondiente configuración, ecualización, ajuste y aplicando los retardos necesarios. Una vez esté todo configurado, será dar un presupuesto de lo que supondría la reformar de un cine convencional a un sistema DOLBY ATMOS, teniendo en cuenta el número de altavoces disponibles en la sala actual, los modelos utilizados, amplificadores y mano de obra. También se realizará un diagrama de conexionado del sistema de sonido utilizado en el proyecto, incluyendo todos los parámetros necesarios de la configuración. Por último se comprobará la viabilidad técnica y económica del sistema diseñado, viendo cuál es la opción que más se adecua a cada necesidad y sugiriendo soluciones a los posibles problemas que se puedan encontrar. ABSTRACT. The main aim of this Project is the study and simulation of the sound of a movie theater by using DOLBY ATMOS system. It is going to be simulated the movie theatre 6 at Kinepolis cinema complex in Madrid using the simulation program EASE according to the sound system DOLBY ATMOS. First of all we proceed to conduct the geometric pattern in the EASE program, from installation drawings and measurements made on the premises. This simulation program allows getting the acoustic and electroacoustic parameters necessary for the study of the theatre. Then the sound system designed according to the suggestions of ATMOS DOLBY, by locating theater speaker systems on the market, always trying to keep the use of the room for DOLBY DIGITAL conventional and meeting the requirements of uniformity and pointing angles DOLBY recommended. Then, once the speakers are prepared, you can proceed to configure, make equalization and level setting individually for each of the sound sources, both screen speakers, surround speakers (wall and ceiling) and subwoofer. As a result, parameters are checked as intelligibility, impulse response, frequency response and reverberation time in different listening points, comparing the results between each other. There will also be configured to support 7.1 sound system, making the corresponding settings, equalization, level setting and applying the necessary delays. Once everything is configured, it will give an estimate of what would be the reform of a conventional film DOLBY ATMOS system, taking into account the number of speakers available in the current room, the models used, amplifiers and labor. Also there will be a wiring diagram of the sound system used in this project, including all of the configuration parameters needed. Finally, check the technical and economic feasibility of the designed system, seeing what is the option that best suits to each need and suggesting possible solutions to problems you might find during the process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El refuerzo de estructuras existentes mediante el encolado exterior de láminas de polímeros reforzados con fibras (FRP) se ha convertido en la aplicación más común de los materiales compuestos avanzados en construcción. Estos materiales presentan muchas ventajas frente a los materiales convencionales (sin corrosión, ligeros, de fácil aplicación, etc.). Pero a pesar de las numerosas investigaciones realizadas, aún persisten ciertas dudas sobre algunos aspectos de su comportamiento y las aplicaciones prácticas se llevan a cabo sólo con la ayuda de guías, sin que haya una normativa oficial. El objetivo de este trabajo es incrementar el conocimiento sobre esta técnica de refuerzo, y más concretamente, sobre el refuerzo a flexión de estructuras de fábrica. Con frecuencia el elemento reforzado es de hormigón armado y las láminas de FRP encoladas al exterior sirven para mejorar su resistencia a flexión, cortante o compresión (encamisados). Sin embargo su empleo en otros materiales como las estructuras de fábrica resulta muy prometedor. Las fábricas se caracterizan por soportar muy bien los esfuerzos de compresión pero bastante mal los de tracción. Adherir láminas de materiales compuestos puede servir para mejorar la capacidad resistente de elementos de fábrica sometidos a esfuerzos de flexión. Pero para ello, debe quedar garantizada una correcta adherencia entre el FRP y la fábrica, especialmente en edificios antiguos cuya superficie puede estar deteriorada por encontrarse a la intemperie o por el propio paso del tiempo. En el capítulo II se describen los objetivos fundamentales del trabajo y el método seguido. En el capítulo III se hace una amplia revisión del estado de conocimiento sobre el tema. En el apartado III.1 se detallan las principales características y propiedades mecánicas de fibras, matrices y materiales compuestos así como sus principales aplicaciones, haciendo especial hincapié en aspectos relativos a su durabilidad. En el apartado III.2 se incluye una revisión histórica de las líneas de investigación, tanto teóricas como empíricas, publicadas sobre estructuras de hormigón reforzadas a flexión encolando materiales compuestos. El apartado III.3 se centra en el aspecto fundamental de la adherencia refuerzo-soporte. Se hace un repaso a distintos modelos propuestos para prevenir el despegue distinguiendo si éste se inicia en la zona de anclaje o si está inducido por fisuras en la zona interior del elemento. Se observa falta de consenso en las propuestas. Además en este punto se relatan las campañas experimentales publicadas acerca de la adherencia entre materiales compuestos y fábricas. En el apartado III.4 se analizan las particularidades de las estructuras de fábrica. Además, se revisan algunas de las investigaciones relativas a la mejora de su comportamiento a flexión mediante láminas de FRP. El comportamiento mecánico de muros reforzados solicitados a flexión pura (sin compresión) ha sido documentado por varios autores, si bien es una situación poco frecuente en fábricas reales. Ni el comportamiento mecánico de muros reforzados solicitados a flexocompresión ni la incidencia que el nivel de compresión soportado por la fábrica tiene sobre la capacidad resistente del elemento reforzado han sido suficientemente tratados. En cuanto a los trabajos teóricos, las diferentes propuestas se basan en los métodos utilizados para hormigón armado y comparten los principios habituales de cálculo. Sin embargo, presentan diferencias relativas, sobre todo, a tres aspectos: 1) la forma de modelar el comportamiento de la fábrica, 2) el valor de deformación de cálculo del refuerzo, y 3) el modo de fallo que se considera recomendable buscar con el diseño. A pesar de ello, el ajuste con la parte experimental de cada trabajo suele ser bueno debido a una enorme disparidad en las variables consideradas. Cada campaña presenta un modo de fallo característico y la formulación que se propone resulta apropiada para él. Parece necesario desarrollar un método de cálculo para fábricas flexocomprimidas reforzadas con FRP que pueda ser utilizado para todos los posibles fallos, tanto atribuibles a la lámina como a la fábrica. En el apartado III.4 se repasan algunas lesiones habituales en fábricas solicitadas a flexión y se recogen ejemplos de refuerzos con FRP para reparar o prevenir estos daños. Para mejorar el conocimiento sobre el tema, se llevan a cabo dos pequeñas campañas experimentales realizadas en el Instituto de Ciencias de la Construcción Eduardo Torroja. La primera acerca de la adherencia de materiales compuestos encolados a fábricas deterioradas (apartado IV.1) y la segunda sobre el comportamiento estructural a flexocompresión de probetas de fábrica reforzadas con estos materiales (apartado IV.2). En el capítulo V se analizan algunos de los modelos de adherencia propuestos para prevenir el despegue del extremo del refuerzo. Se confirma que las predicciones obtenidas con ellos resultan muy dispares. Se recopila una base de datos con los resultados experimentales de campañas sobre adherencia de FRP a fábricas extraídas de la literatura y de los resultados propios de la campaña descrita en el punto IV.1. Esta base de datos permite conocer cual de los métodos analizados resulta más adecuado para dimensionar el anclaje de láminas de FRP adheridas a fábricas. En el capítulo VI se propone un método para la comprobación en agotamiento de secciones de fábrica reforzadas con materiales compuestos sometidas a esfuerzos combinados de flexión y compresión. Está basado en el procedimiento de cálculo de la capacidad resistente de secciones de hormigón armado pero adaptado a las fábricas reforzadas. Para ello, se utiliza un diagrama de cálculo tensión deformación de la fábrica de tipo bilineal (acorde con el CTE DB SE-F) cuya simplicidad facilita el desarrollo de toda la formulación al tiempo que resulta adecuado para predecir la capacidad resistente a flexión tanto para fallos debidos al refuerzo como a la fábrica. Además se limita la deformación de cálculo del refuerzo teniendo en consideración ciertos aspectos que provocan que la lámina adherida no pueda desarrollar toda su resistencia, como el desprendimiento inducido por fisuras en el interior del elemento o el deterioro medioambiental. En concreto, se propone un “coeficiente reductor por adherencia” que se determina a partir de una base de datos con 68 resultados experimentales procedentes de publicaciones de varios autores y de los ensayos propios de la campaña descrita en el punto IV.2. También se revisa la formulación propuesta con ayuda de la base de datos. En el capítulo VII se estudia la incidencia de las principales variables, como el axil, la deformación de cálculo del refuerzo o su rigidez, en la capacidad final del elemento. Las conclusiones del trabajo realizado y las posibles líneas futuras de investigación se exponen en el capítulo VIII. ABSTRACT Strengthening of existing structures with externally bonded fiber reinforced polymers (FRP) has become the most common application of advanced composite materials in construction. These materials exhibit many advantages in comparison with traditional ones (corrosion resistance, light weight, easy to apply, etc.). But despite countless researches have been done, there are still doubts about some aspects of their behaviour and applications are carried out only with the help of guidelines, without official regulations. The aim of this work is to improve the knowledge on this retrofitting technique, particularly in regard to flexural strengthening of masonry structures. Reinforced concrete is often the strengthened material and external glued FRP plates are used to improve its flexural, shear or compressive (by wrapping) capacity. However the use of this technique on other materials like masonry structures looks promising. Unreinforced masonry is characterized for being a good material to support compressive stresses but really bad to withstand tensile ones. Glue composite plates can improve the flexural capacity of masonry elements subject to bending. But a proper bond between FRP sheet and masonry must be ensured to do that, especially in old buildings whose surface can be damaged due to being outside or ageing. The main objectives of the work and the methodology carried out are described In Chapter II. An extensive overview of the state of art is done in Chapter III. In Section III.1 physical and mechanical properties of fibers, matrix and composites and their main applications are related. Durability aspects are especially emphasized. Section III.2 includes an historical overview of theoretical and empirical researches on concrete structures strengthened gluing FRP plates to improve their flexural behaviour. Section III.3 focuses on the critical point of bonding between FRP and substrate. Some theoretical models to prevent debonding of FRP laminate are reviewed, it has made a distinction between models for detachment at the end of the plate or debonding in the intermediate zones due to the effects of cracks. It is observed a lack of agreement in the proposals. Some experimental studies on bonding between masonry and FRP are also related in this chapter. The particular characteristics of masonry structures are analyzed in Section III.4. Besides some empirical and theoretical investigations relative to improve their flexural capacity with FRP sheets are reviewed. The mechanical behaviour of strengthened walls subject to pure bending (without compression) has been established by several authors, but this is an unusual situation for real masonry. Neither mechanical behaviour of walls subject to bending and compression nor influence of axial load in the final capacity of the strengthened element are adequately studied. In regard to theoretical studies, the different proposals are based on reinforced concrete analytical methods and share common design principles. However, they present differences, especially, about three aspects: 1) the constitutive law of masonry, 2) the value of ultimate FRP strain and 3) the desirable failure mode that must be looked for. In spite of them, a good agreement between each experimental program and its theoretical study is often exhibited due to enormous disparity in considered test parameters. Each experimental program usually presents a characteristic failure mode and the proposed formulation results appropriate for this one. It seems necessary to develop a method for FRP strengthened walls subject to bending and compression enable for all failure modes (due to FRP or masonry). Some common damages in masonry subject to bending are explained in Section III.4. Examples of FRP strengthening to repair or prevent these damages are also written. Two small experimental programs are carried out in Eduardo Torroja Institute to improve the knowledge on this topic. The first one is concerned about the bond between FRP plates and damaged masonry (section IV.1) and the second one is related to the mechanical behaviour of the strengthened masonry specimens subject to out of plane bending combined with axial force (section IV.2). In the Chapter V some bond models to prevent the debonding at the FRP plate end are checked. It is confirmed that their predictions are so different. A pure-shear test database is compiled with results from the existing literature and others from the experimental program described in section IV.1. This database lets know which of the considered model is more suitable to design anchorage lengths of glued FRP to masonry. In the Chapter VI a method to check unreinforced masonry sections with external FRP strengthening subject to bending and compression to the ultimate limit state is proposed. This method is based on concrete reinforced one, but it is adapted to strengthened masonry. A bilinear constitutive law is used for masonry (according to CTE DB SE-F). Its simplicity helps to develop the model formulation and it has proven to be suitable to predict bending capacity either for FRP failures or masonry crushing. With regard to FRP, the design strain is limited. It is taken into account different aspects which cause the plate can’t reach its ultimate strength, like intermediate FRP debonding induced by opening cracking or environmental damage. A “bond factor” is proposed. It is obtained by means of an experimental bending test database that includes 68 results from the existing literature and from the experimental program described in section IV.2. The proposed formulation has also been checked with the help of bending database. The effects of the main parameters, like axial load, FRP design effective strain or FRP stiffness, on the bending capacity of the strengthened element are studied in Chapter VII. Finally, the main conclusions from the work carried out are summarized in Chapter VIII. Future lines of research to be explored are suggested as well.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los años cincuenta y sesenta son los años de la incorporación definitiva de la arquitectura española al panorama internacional. Entre los arquitectos que protagonizan ese salto sin retorno, se encuentra el grupo de aquellos que unos años más tarde serán denominados por Juan Daniel Fullaondo como Escuela de Madrid. Carlos Flores, en su libro Arquitectura Española Contemporánea 1880-1950, se refiere a esos arquitectos como aquellos que se aplicaban a la difícil tarea de restablecer en España un tipo de arquitectura que conectaba con las teorías, soluciones y lenguajes establecidos por Europa durante las primeras décadas del siglo XX. Sigfried Giedion plantea en Espacio, Tiempo y Arquitectura el origen de una nueva tradición, surgida a partir de la revolución óptica de principios de siglo. Con tradición se refiere a una nueva cultura, que abarca la interrelación de las diferentes actividades del hombre: la similitud de los métodos que se usan en la arquitectura, la construcción, la pintura, el urbanismo o la ciencia. Esa novedad, fundamentada en su independencia y desvinculación con el periodo anterior, se inscribe dentro del esquema evolutivo que Thomas Kuhn plantea en su texto La Estructura de la Revoluciones Científicas, conforme a periodos no acumulativos. Kuhn habla del surgimiento de anomalías en cada periodo, origen de las crisis de pensamiento cuya explicación precisará un necesario cambio paradigmático. En la ciencia, en el campo de la óptica Thomas Young demuestra a principios del siglo XIX la naturaleza ondulatoria de la luz con su experimento de doble rendija; en el electromagnetismo se produce el salto conceptual que supone la postulación de la existencia del campo eléctrico por parte de Michael Faraday, y en termodinámica la consideración apuntada por Planck de que la radiación de la energía de produce de forma discreta, a través de cuantos. En las artes plásticas, paralelamente, Gleizes y Metzinger, en su recopilación de logros cubistas recogida en Sobre el Cubismo, hablan de la evolución sufrida durante el siglo XIX por la pintura: desde el idealismo de principios de siglo, para pasando por el realismo y la representación impresionista de la realidad, concluir prescindiendo de la perspectiva clásica. También la matemática, una vez desarrolladas por Gauss o Lobachevsky y Bolyai geometrías coherentes que incumplen el quinto postulado de Euclides, terminará dando validez a través de Riemann a los espacios ambiente en los que habitan dichas geometrías, desvinculando la relación directa entre espacio geométrico –el espacio ambiente al que da lugar un tipo de geometría- y el espacio físico. Capi Corrales refleja en su libro Contando el Espacio, cómo hasta la teoría de la relatividad y el cubismo, las geometrías no euclídeas no se hicieron notorias también fuera del campo de las matemáticas. El origen de la nueva tradición con la que Giedion se refiere a la nueva cultura de la modernidad coincide con los saltos paradigmáticos que suponen la teoría de la relatividad en las ciencias y el cubismo en las artes plásticas. Ambas se prolongan durante las primeras décadas hasta la teoría cuántica y la abstracción absoluta, barreras que los dos principales precursores de la relatividad y el cubismo, Einstein y Picasso, nunca llegan a franquear. En ese sentido Giedion habla también, además del origen, de su desarrollo, e incorpora las aportaciones periféricas en la arquitectura de Brasil, Japón o Finlandia, incluyendo por tanto la revisión orgánica propugnada por Zevi como parte de esa nueva tradición, quedando abierta a la incorporación tardía de nuevas aportaciones al desarrollo de esa cultura de la modernidad. Eliminado el concepto de la estética trascendental de Kant del tiempo como una referencia absoluta, y asumido el valor constante de la velocidad de la luz, para la teoría de la relatividad no existe una simultaneidad auténtica. Queda así fijada la velocidad de la luz como uno de los límites del universo, y la equivalencia entre masa y energía. En el cubismo la simultaneidad espacial viene motivada por la eliminación del punto de vista preferente, cuyo resultado es la multiplicidad descriptiva de la realidad, que se visualiza en la descomposición en planos, tanto del objeto como del espacio, y la consecuente continuidad entre fondo y figura que en arquitectura se refleja en la continuidad entre edificio y territorio. Sin la consideración de un punto de vista absoluto, no existe una forma auténtica. El cubismo, y su posterior desarrollo por las vanguardias plásticas, hacen uso de la geometría como mecanismo de recomposición de la figura y el espacio, adoptando mecanismos de penetración, superposición y transparencia. Gyorgy Kepes indica en El Lenguaje de la Visión que la descomposición cubista del objeto implica la sucesiva autonomía de los planos, hasta convertirse en elementos constituyentes. Algo que refleja las axonometrías arquitectónicas de Van Doesburg y que culmina con los espacios propuestos por Mies van der Rohe en sus primeros proyectos europeos. Estos mecanismos, encuentran eco en los primeros planteamientos de Javier Carvajal: en la ampliación del Panteón de españoles del cementerio de Campo Verano, un recinto virtual reconstruido mentalmente a partir del uso de tres únicos planos; o en el Pabellón de Nueva York, que organiza su planta baja desde el recorrido, introduciendo el parámetro temporal como una dimensión más. Al uso diferenciado del plano como elemento constituyente, Carvajal incorpora su plegado y su disposición conformando envolventes como mecanismo de cualificación espacial y formal, potenciando la prolongación entre arquitectura y territorio. Una continuidad que quedará culminada en las dos viviendas unifamiliares construidas en Somosaguas. La descomposición volumétrica conduce a unos niveles de abstracción que hace precisa la incorporación de elementos de la memoria -fuentes, patios, celosías…- a modo de red de señales, como las que Picasso y Braque introducen en sus cuadros para permitir su interpretación. Braque insiste en el interés por el espacio que rodea a los objetos. Una búsqueda de la tactilidad del espacio contraria a la perspectiva que aleja el objeto del observador, y que en los jardines de las viviendas de Somosaguas parece emanar de su propia materialidad. Un espacio táctil alejado del espacio geométrico y que Braque identifica con el espacio representativo en el que Poincaré, en La Ciencia y la Hipótesis, ubica nuestras sensaciones. Desdibujar los límites del objeto prolonga el espacio indefinidamente. Con el paso en el arte griego del mito al logos, se abre paso a la matemática como herramienta de comprensión de la naturaleza hasta el siglo XIX. Leon Lederman, en Simetría y la Belleza del Universo, apunta a que una de las mayores contribuciones de la teoría de Einstein es hacer cambiar el modo de pensar la naturaleza, orientándolo hacia la búsqueda de los principios de simetría que subyacen bajo las leyes físicas. Considerando que la simetría es la invariancia de un objeto o un sistema frente a una transformación y que las leyes físicas son las mismas en cualquier punto del espacio, el espacio de nuestro universo posee una simetría traslacional continua. En la ocupación del espacio de las primeras propuestas de Corrales y Molezún aparecen estructuras subyacentes que responden a enlosetados: paralelogramos sometidos a transformaciones continuas, que la naturaleza identifica tridimensionalmente con los grupos cristalográficos. Las plantas del museo de Arte Contemporáneo de la Castellana, la residencia de Miraflores, el pabellón de Bruselas o la torre Peugeot pertenecen a este grupo. La arquitectura como proceso de ocupación continua del territorio y de su trasposición al plano de cubierta, se materializa en líneas estructurales coincidentes con la estructura matemática de sus simetrías de traslación cuya posibilidad de prolongación infinita queda potenciada por el uso de la envolvente transparente. Junto a esta transparencia literal, inherente al material, Colin Rowe y Robert Slutzky nos alertan sobre otra transparencia inherente a la estructura: la transparencia fenomenal, ilustrada por los cuadros de Juan Gris, y cuya intuición aparece reflejada en la casa Huarte en Puerta de Hierro de Madrid. Corrales y Molezún insisten en una lectura de su volumetría alejada de la frontalidad, en la que los contornos de sus cubiertas inclinadas y las visuales tangenciales sugeridas por la organización de sus recorridos introducen una estructura diagonal que se superpone al entendimiento ortogonal de su planta, dibujando una intrincada red de líneas quebradas que permiten al espacio fluctuar entre las secuencia volumétrica propuesta. Los datos relativos al contenido energético de la luz y el concepto de átomo parten de la consideración de la emisión de energía en cuantos realizada por Planck, y concluyen con una circunstancia paradójica: la doble naturaleza de la luz -demostrada por la explicación de Einstein del efecto fotoeléctrico- y la doble naturaleza de la materia -asumida por Bohr y demostrada por el efecto Compton-. Schrödinger y Heisenberg formularán finalmente la ecuación universal del movimiento que rige en las ondas de materia, y cuya representación matemática es lo que se conoce como función de onda. El objeto es así identificado con su función de onda. Su ondulatoriedad expresará la probabilidad de encontrarse en un lugar determinado. Gyorgy Kepes subraya la necesidad de simplificar el lenguaje para pasar de la objetividad que aún permanece en la pintura cubista a la abstracción total del espacio. Y es así como los artistas plásticos reducen los objetos a simples formas geométricas, haciendo aflorar a la vez, las fuerzas plásticas que los tensionan o equilibran, en un proceso que acaba por eliminar cualquier atisbo de materia. Robert Rosenblum en La Pintura Moderna y la Tradición del Romanticismo Nórdico habla de cómo ese rechazo de la materia en favor de un vacío casi impalpable, campos luminosos de color denso que difunden un sereno resplandor y parecen engendrar las energías elementales de la luz natural, está directamente vinculado a la relación con la naturaleza que establece el romanticismo nórdico. La expresión de la energía de la naturaleza concentrada en un vacío que ya había sido motivo de reflexión para Michael Faraday en su postulación del concepto de campo eléctrico. Sáenz de Oíza incide en la expresión de la condición material de la energía en su propuesta junto a José Luis Romany para la capilla en el Camino de Santiago. La evocación de diferentes fuerzas electromagnéticas, las únicas junto a las gravitatorias susceptibles de ser experimentadas por el hombre, aparecerán visualizadas también en el carácter emergente de algunas de sus obras: el Santuario de Aránzazu o Torres Blancas; pero también en la naturaleza fluyente de sus contornos, la dispersión perimetral de los espacios -el umbral como centro del universoo la configuración del límite como respuesta a las tensiones germinales de la naturaleza. Miguel Fisac, a la vuelta de su viaje a los países nórdicos, aborda una simplificación lingüística orientada hacia la adecuación funcional de los espacios. En el Instituto de Daimiel, el Instituto de formación del profesorado o los complejos para los Padres Dominicos en Valladolid o Alcobendas, organiza progresivamente la arquitectura en diferentes volúmenes funcionales, incidiendo de un modo paralelo en la manifestación de los vínculos que se establecen entre dichos volúmenes como una visualización de las fuerzas que los tensionan y equilibran. En ellos la prolongación de la realidad física más allá de los límites de la envolvente ya es algo más que una simple intuición. Un proceso en el que el tratamiento de la luz como un material de construcción más, tendrá un especial protagonismo. En la iglesia de la Coronación, la iluminación del muro curvo escenifica la condición ondulatoria de la luz, manifestándose como si de un patrón de interferencia se tratara. Frente a la disolución de lo material, el espacio se manifiesta aquí como un medio denso, alejado de la tradicional noción de vacío. Una doble naturaleza, onda y partícula, que será intuido también por Fisac en la materia a través de su uso comprometido del hormigón como único material de construcción. Richard Feynmann nos alerta de la ocupación del espacio por multitud de fuerzas electromagnéticas que, al igual que la luz, precisan de receptores específicos para captar su presencia. Sus célebres diagramas suponen además la visualización definitiva de los procesos subatómicos. Al igual que la abstracción absoluta en las artes plásticas, esas representaciones diagramáticas no son asimilables a imágenes obtenidas de nuestra experiencia. Una intuición plasmada en el uso del diagrama, que irán adquiriendo progresivamente los dibujos de Alejandro de la Sota. La sección del gimnasio Maravillas recoge los trazos de sus principales elementos constructivos: estructura, cerramientos, compartimentaciones…, pero también, y con la misma intensidad, los de las fuerzas que generan su espacio, considerando así su condición de elementos constituyentes. El vacío, nos deja claro Sota, es el lugar donde habitan dichas tensiones. La posterior simplificación de las formas acompañadas de la obsesión por su aligeramiento, la casi desaparición de la envolvente, incide en aquella idea con la que Paul Klee define la actividad del artista en su Teoría del Arte Moderno, y en la que se transmite el distanciamiento hacia lo aparente: No se trata de reproducir lo visible, se trata de volver visible. Así, en Bankunión y Aviaco, como en tantos otros proyectos, frente al objetivo de la forma, Sota plantea el límite como la acotación de un ámbito de actuación. Su propia representación aséptica y diagramática transmite la renuncia a una especificidad espacial. Gilles Deleuze expresa ese posicionamiento en Pintura, el Concepto de Diagrama: el diagrama como la posibilidad de cuadros infinitos, o la posibilidad infinita de cuadros. Aparece así una concepción probabilística del espacio en la que frente a la renuncia por la forma, la tendencia al aligeramiento, y lo difuso de su definición – ideas claras, definición borrosa, en palabras de Llinás referidas al modo de operar de Sota-, la insistente atención a algunos elementos como escaleras, protecciones o miradores parece trasmitir la idea de que la arquitectura queda condensada en aquellos acontecimientos que delatan su condición dinámica, transitoria. Primando la relación frente al objeto, el vínculo frente a lo tangible. English summary. The fifties and sixties were the years of the final incorporation of Spanish architecture to the international scene. Among the architects who star that no return leap, is the group of those who a few years later will be named by Juan Daniel Fullaondo as Escuela de Madrid. Carlos Flores, in his book Arquitectura Española Contemporánea 1880-1950, refers to those architects as those that applied to the difficult task of restoring in Spain an architecture that connected with theories, solutions and established languages in Europe during the first decades of the twentieth century. Sigfried Giedion proposes in Space, Time and Architecture, the origin of a new tradition, arising from the optical revolution at the beginning of the century. With tradition he refers to a new culture, covering the interplay of different human activities: the similarity of the methods used in architecture, building, painting, urban planning or science. This new feature, based on its independence and detachment from the previous period, is part of the evolutionary scheme that Thomas Kuhn proposes in his text The Structure of Scientific Revolutions, according to non-accumulative periods. Kuhn talks about the emergence of anomalies in each period, origin of thought crisis whose explanation will require a paradigm shift needed. In science, in the field of optical Thomas Young demonstrates at the early nineteenth century the wave nature of light with its double-slit experiment , in electromagnetism the postulation of the existence of the electric field by Michael Faraday involves a conceptual leap, and in thermodynamic, the consideration pointed by Planck about quantum energy radiation. In the arts, in a parallel process, Gleizes and Metzinger , in his collection of cubism achievements on their book Du Cubisme, speak of evolution occurring during the nineteenth century by the painting: from the idealism of beginning of the century, going for realism and impressionist representation of reality, and finishing regardless of the classical perspective . Mathematics also, once developed by Gauss and Lobachevsky and Bolyai consistent geometries that violate Euclid's fifth postulate , will end validating Riemann’s ambient spaces in which these geometries inhabit, decoupling the direct relationship between geometric space -the space environment that results in a type of geometry- , and physical space. Capi Corrales reflectes in his book Contando el Espacio, that non-Euclidean geometries were not noticeable outside the field of mathematics until the theory of relativity and cubism. The origin of the new tradition that Giedion relates to the new culture of modernity coincides with paradigmatic leaps pointed by the theory of relativity in science and Cubism in the visual arts. Both are extended during the first decades until quantum theory and absolute abstraction, barriers that the two main precursors of relativity and cubism, Einstein and Picasso never overcome. In that sense Giedion speaks about the origin, but also the development, and incorporates peripheral inputs from Brazil, Japan and Finland architecture, thus including organic revision advocated by Zevi as part of this new tradition, being open to the late addition of new contributions to the development of that culture of modernity. Removed the concept of Kant's transcendental aesthetics, of time as an absolute reference, and assumed the constant value of the speed of light, theory of relativity says there is no authentic concurrency. It is thus fixed the speed of light as one of the limits of the universe, and the equivalence of mass and energy. In cubism, spatial simultaneity results from the elimination of preferential points of view, resulting in the multiplicity descriptive of reality, which is displayed in decomposition levels, both the object and the space, and the resulting continuity between figure and background that architecture is reflected in the continuity between building and land. Without the consideration of an absolute point of view, there isn’t an authentic shape. Cubism, and its subsequent development by the vanguard arts, make use of geometry as a means of rebuilding the figure and space, taking penetration mechanisms, overlapping and transparency. Gyorgy Kepes suggest in Languaje of Vision, that cubist decomposition of the object involves successive planes autonomy, to become constituent elements. Something that reflects the Van Doesburg’s architectural axonometrics and culminates with the spaces proposed by Mies van der Rohe in his first European projects. These mechanisms are reflected in the first approaches by Javier Carvajal: the extension of Spanish Pantheon in Campo Verano Cemetery, virtual enclosure mentally reconstructed from 24 the use of only three planes, or in the Spanish Pavilion of New York, which organizes its ground floor from the tour, introducing the time parameter as an additional dimension. Carvajal adds to the differential use of the plane as a constituent, Carvajal incorporates its folding and forming enclosures available as a mechanism for spatial and formal qualification, promoting the extension between architecture and territory. A continuity that will be completed in the two houses built in Somosaguas. Volumetric decomposition, as the fragmentation achieved in the last cubist experiences, needs the incorporation of elements of memory - fountains, patios, shutters...- as a network of signals, such as those introduced by Picasso and Braque in their paintings to allow their interpretation. Braque insists in his interest in the space surrounding the objects. A search of the tactility of space contrary to the perspective, which moves the observer away from the object, and that in the gardens of Somosaguas seems to emanate from its own materiality. A tactile space away from the geometric space and Braque identified with the representative space in which Poincaré in La Science et l´hypothèse, located our feelings. To blur those boundaries of the object extends the space indefinitely. With the passage in Greek art from myth to logos, it opens up to mathematics as a tool for understanding the nature until the nineteenth century. Leon Lederman, in Symmetry and beautiful Universe, suggests that one of the greatest contributions of Einstein's theory is to change the mindset of nature, namely the search for symmetry principles that underlie physical laws. Considering that symmetry is the invariance of an object or system from a transformation and that physical laws are the same at any point in space, the space of our universe has a continuous translational symmetry. In the space occupation of the first proposals by Corrales and Molezún underlying structures appear that match enlosetados: parallelograms under continuous transformations, which nature identifies tridimensionally with the crystallographic groups. Plants in the Contemporary Art Museum in La Castellana, the residence in Miraflores, the Brussels pavilion or the Peugeot tower belong to this group. The architecture as a process of continuous occupation of the territory and of its transposition to the deck, embodied in structural lines coincide with the mathematical structure of the translational symmetry and infinite extension whose possibility is enhanced by the use of the transparent cover. Alongside this literal transparency inherent to the material, Colin Rowe and Robert Slutzky alert us another transparency inherent in the structure: phenomenal transparency, illustrated by the Juan Gris’ works, and whose intuition is reflected in the Huarte’s house in Puerta de Hierro in Madrid. Corrales and Molezún insist on a reading of its volume away from the frontal, in which the outline of their inclined roofs and tangential visual suggested by the organization of his circulations introduce a diagonal structure which overlaps the orthogonal understanding of its plant, drawing an intricate web of broken lines that allow the space fluctuate between the volumetric sequence proposal. Information concerning to the energy mean of light and the concept of atom start from the consideration by Plank about the energy emission, and conclude with a paradoxical situation: the dual nature of light - demonstrated by the explanation of Einstein's photoelectric effect-, and the dual nature of matter -assumed by Bohr and demonstrated by the Compton effect-. Finally, Schrödinger and Heisenberg will formulate the universal movement equation governing in undulatory matter, whose mathematical representation is what is known as a wave function. The object is thus identified with its wave function. Its undulatory expression speaks about the probability of being found in a certain place. Gyorgy Kepes emphasizess the need to simplify the language to move from the objectivity that still remains in the cubist painting to the total abstraction of the space. And this is how artists reduced the objects to simple geometric shapes, making emerge at a time, the plastic forces that tense or balance them, in a process that eventually eliminate any trace of matter. Robert Rosenblum in Modern Painting and the Northern Romantic Tradition. Friedrich to Rothko talks about how this rejection of matter in an almost impalpable vacuum: dense color light fields that broadcast a serene glow and seem to generate the elemental energies of natural light is directly linked to the relationship with nature that sets the northern romanticism. An expression of the power of nature concentrated in a vacuum which had been reason for thought by Michael Faraday in his application of the concept of electric field. Saenz de Oíza touches upon the material expression of the energy in its proposal with Jose Luis Romany to the chapel on the Camino de Santiago. The presence of electromagnetic forces, the only ones with the gravitational one capable of being experienced by the man will also visualize in the emerging nature of some of his works: the sanctuary of Aránzazu or Torres Blancas, but also in the flowing nature of its contours, and the inclusion of interest in the realization of space fluctuating boundary: the threshold as the center of the universe. Miguel Fisac, back from his trip to the Northern Countries, starts on a linguistic simplification oriented to the functional adequacy of spaces. In the Daimiel Institute, in the Institute to Teacher Formation or in the complex to the Dominican Fathers in Valladolid or Alcobendas, progressively organized into different functional volumes architecture, focusing in a parallel way in the manifestation of the links established between these volumes as a visualization of the forces that tense and balance them. The prolongation of the physical reality beyond the limits of the envelope is already something more than a simple intuition. A process in which the treatment of light as a construction material, have a special role. In the Coronation church, curved wall lighting dramatizes the undulatory condition of the light, manifesting as if an interference pattern is involved. Versus the dissolution of the material, the space is expressed here as a dense atmosphere, away from the traditional notion of the vacuum. A dual nature, wave and particle, which is also sensed by Fisac in his committed use of concrete as a unique construction material. Richard Feynman alerts us to the occupation of space by many electromagnetic forces, which like the light, require specific receptors to capture their presence. His famous diagrams also involve the final visualization of atomic processes. As absolute abstraction in the visual arts, these representations are not assimilated to images obtained from our experience. A diagrammatic nature, abstracted from figuration, which will obtein the pictures of Alejandro de la Sota. The section of Maravillas gym collects traces of its main building blocks: structure, enclosures... but also, and with the same intensity, of the forces that generate their space as constituent elements. Sota makes it clear: the vacuum is where inhabit these tensions. The subsequent simplification of forms, accompanied by the obsession with his lightening, the near disappearance of the envelope, touches upon that idea which Paul Klee defines the activity of the artist in his Modern Art Theory, the spacing out to the apparent: it is not to reproduce the visible, it is to turn visible. Thus, in Bankunión and Aviaco, as in many other projects, against the shape, raises the limit as the dimension of a scope. His own aseptic and diagrammatic representation transmits waiver to a spatial specificity that Gilles Deleuze clearly expressed in Painting. The Concept Diagram: The diagram as the possibility of infinite pictures, or infinite possibility of the picture. Thus appears the probabilistic concept of space in which, opposite to the diffuse of its definition -clear ideas, diffuse definition, as Llinas said- the insistent attention to some elements like stairs, guards or lookouts seems to concentrate the architecture in its dynamic condition, transitional. The relationship opposite the object, the link opposite the tangible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tanto el tema de esta investigación, como sus objetivos, fundamentos, materiales seleccionados y parte experimental para alcanzarlos, han sido promovidos por la situación y el estado de las construcciones de hormigón armado que se comenzaron a realizar en España a partir del año 1975, con hormigones y morteros de cemento que contenían cenizas volantes hasta un 20 %, en principio, y hasta un 35 %, más tarde, de su dosificación de cemento Portland (CP), los cuales y en contra de lo esperado, han demandado y continúan demandando, muy a pesar de sus aparentes bondades de todo tipo que se les atribuían, una necesidad de mejora de sus prestaciones, especialmente, debido a un nivel inesperadamente bajo de la durabilidad de algunas obras construidas con los mismos. Todo era debido, en definitiva, a que las adiciones puzolánicas, naturales y artificiales, tales como las cenizas volantes, referidas antes, se vienen utilizando reglamentariamente para la fabricación de cementos y/o de sus productos derivados, hormigones, morteros y pastas, en la mayor parte de los países industrializados, desde hace ya más de tres décadas aproximadamente, en las mismas condiciones e idénticos usos constructivos que los hormigones y morteros de CP puro, viniendo además, dictada dicha utilización de estos materiales residuales, hoy sub-productos industriales, por cuestiones medioambientales y/o económicas, principalmente, motivo por el cual esta Tesis Doctoral ha pretendido responder también, adecuadamente y de manera esquemática (en forma de diagrama de flujo), a los criterios que deben de tenerse en cuenta a la hora de su selección y caracterización normalizada y reglamentada de estas adiciones minerales activas, sobre todo, antes de su dosificación y uso en forma del denominado cemento Portland con puzolana, o con ceniza volante, o con esquistos calcinados o con puzolanas calcinadas o con humo de sílice, cemento Portland mixto, cemento puzolánico o cemento compuesto, para que dichos problemas no se le produzcan al hormigón armado ni en masa. De aquí el enfoque tan particular y especial de esta investigación, al haberla circunscrito únicamente a las puzolanas naturales y artificiales, por considerarlas todas ellas, independientemente de por su origen, como materiales constituidos por pequeñas fracciones cristalinas distribuidas aleatoriamente en una matriz mayoritariamente vítrea y/o amorfa, la cual es la que le confiere su reactividad con el hidróxido de calcio en forma de cal apagada o de portlandita procedente de la hidratación del CP. A su vez, dichas fracciones vítreas y/o amorfas están constituidas, en su mayor parte, por sílice reactiva, SiO2r-, alúmina reactiva, Al2O3r-, y óxido de hierro reactivo, Fe2O3r-, recibiendo además, en conjunto, el nombre específico de "factores hidráulicos" de la puzolana, los cuales, por lo común, difieren cuantitativamente de sus contenidos totales, determinados por fusión alcalina mediante procedimientos normalizados. De los tres óxidos reactivos mencionados y desde el punto de vista técnico, los más importantes por su mayor presencia en casi todas las puzolanas naturales y artificiales y, también, transcendencia en la durabilidad química que les pueden llegar a conferir al hormigón armado y en masa, mortero o pasta de cemento que las contenga, son la SiO2r- y la Al2O3r-. El primero de los dos, la SiO2r-, reacciona nada más que con la portlandita (y el Ca(OH)2) para formar geles C-S-H, más tarde transformados en tobermoritas o en jennitas, semejantes a los que originan la alita y la belita del CP en su hidratación. Y desde el punto de vista normativo, la presencia de esta fracción silícica reactiva en las puzolanas viene regulada por la norma EN 197-1, de modo general, siendo además referida por la norma EN 450-1:2006, en el contexto de las cenizas volantes en su adición al hormigón, como "un polvo fino de partículas principalmente de forma esférica y cristalina, procedentes de la combustión de carbón pulverizado, que tiene propiedades puzolánicas y que está compuesto fundamentalmente de SiO2 y Al2O3". Además y de acuerdo con la primera de las dos normas, "El contenido de dióxido de silicio reactivo (definido y determinado según la norma EN 196-2 o su equivalente la UNE 80225) no debe ser inferior al 25 % en masa". Por su parte, cuantiosos estudios experimentales realizados por Talero solo y con otros investigadores, han demostrado que si la puzolana no es adecuada en calidad ni en cantidad, la durabilidad del cemento del que forme parte, y, por consiguiente, de los productos derivados que con él se fabriquen, hormigones, morteros, pastas y prefabricados, puede llegar a ser anormalmente baja, porque la alúmina reactiva, Al2O3r-, o alúmina tetra- o penta-coordinada que la constituye, se implica como tal, de una forma muy directa y con resultados totalmente contrapuestos incluso, en los ataques químicos agresivos naturales que se les producen, provenientes de terrenos y aguas selenitosas (sulfatos, que atacan en su caso al propio material hormigón, mortero y pasta que la contiene para formar ettringita de rápida formación, ett-rf, la cual puede llegar incluso a provocar un ataque rápido del yeso), del rocío marino y de las sales de deshielo (cloruros, que atacan, en cambio, a las armaduras de acero del hormigón provocándoles su corrosión electroquímica por "picadura", si bien, en este otro ataque químico, dicha Al2O3r- lo que origina es sal de Friedel de rápida formación, sF-rf, también, cuyo efecto es, en cambio, colmatador y protector, en definitiva, de dicha corrosión electroquímica), del agua de mar (acción agresiva mutua de cloruros y sulfatos), de la carbonatación, de la reactividad árido-álcali, además de intervenir en la liberación del calor de hidratación, así como también, en el comportamiento reológico de sus pastas, etc., acortándoles de este modo su durabilidad prevista y, en ocasiones, muy seriamente incluso. Pero lo más paradójico de todo es, que a pesar de su referido comportamiento totalmente contrapuesto, frente a sulfatos y cloruros, - aún no se dispone de un método de análisis químico para su determinación cuantitativa, que sea además relativamente sencillo en su operatividad, veraz, preciso, de respuesta rápida, desde el punto de vista técnico de la construcción (no más de 28 días), repetible, reproducible, que no implique peligro alguno para la seguridad vital de las personas que lo tengan que manipular y poner en práctica, económico, y que sirva también tanto para investigación -vertiente científica-, como, sobre todo, para control de calidad -vertiente técnica-, - y ni mucho menos tampoco se dispone todavía, de especificación química alguna que precise el contenido máximo de Al2O3r- (%) que tiene que poseer una puzolana natural o artificial, para poder ser añadida al cemento Portland y/o al hormigón que va a estar sometido a un determinado ataque químico agresivo de los mencionados antes, y, en especial, a sulfatos, a cloruros o al agua de mar. Y para mayor justificación de ambas necesidades, se ha de decir también que la vigente Instrucción de Hormigón Estructural EHE-08 no contempla tampoco especificación química alguna sobre los "factores hidráulicos", en general, ni del contenido de Al2O3r-(%) de las cenizas volantes, muy en particular, en su Artículo 30º "Adiciones", ni en ningún otro Artículo, a pesar de que sí contempla, en cambio, - otras especificaciones químicas que carecen del necesario significado en cuanto a la necesidad de llevar explícita o implícitamente, el mensaje de la Durabilidad Química deseado, y - el Artículo 37º, el cual y para mayor abundamiento se titula paradójicamente "Durabilidad del hormigón y de las armaduras". Asimismo, tampoco se contempla en la última versión que acaba de publicarse de la norma EN 197-1 titulada: "Cementos. Parte 1: Composición, especificaciones y criterios de conformidad de los cementos comunes". Ni tampoco, en la norma EN 450-1:2006 titulada "Cenizas volantes para hormigón. Parte 1: Definiciones, especificaciones y criterios de conformidad", ni en la vigente Instrucción española para la Recepción de Cementos, RC-08, ni en la norma ASTM C618-03 tampoco. La única especificación química que ambas normas, la europea y la norteamericana, refieren es aquella que dice que la suma de los contenidos porcentuales de SiO2 total, Al2O3 total y Fe2O3 total, de la puzolana natural o artificial, ha de ser mayor o igual que 70 %, definiendo, además, a las puzolanas de este modo tan genérico: "materiales silíceos o silíceos y aluminosos, que por sí mismos no poseen valor cementante alguno, pero que finamente divididos y en presencia de humedad, reaccionarán químicamente con hidróxido de calcio a temperaturas ordinarias para formar compuestos que poseen propiedades cementantes". Por consiguiente y de acuerdo con todo lo anterior, el objetivo primordial de esta Tesis Doctoral ha sido: Diseñar y poner a punto un nuevo método analítico de utilidad técnica (que la duración máxima del ensayo no sea mayor de 28 días), para determinar el contenido de alúmina reactiva, vítrea o amorfa, Al2O3r-, de las puzolanas naturales y artificiales. Y una vez puesto a punto, validarlo a nivel de su repetibilidad, de acuerdo con parámetros estadísticos apropiados, poniendo especial énfasis en los criterios de aceptación establecidos por la American Association of Official Analytical Chemists (AOAC). Y para conseguirlo, la innovación de esta investigación se ha basado en los siguientes fundamentos generales, a saber: - Toda la alúmina de cualquier puzolana natural o artificial, capaz de ser atacada, disuelta y lixiviada en 28 días, por la portlandita o por el hidróxido de calcio, Ca(OH)2, en medio acuoso, es considerada como alúmina reactiva, Al2O3r-. - Dicha fracción alumínica reactiva de la puzolana natural o artificial se tiene que encontrar, además, en el estado físico-químico de poder reaccionar químicamente también, en presencia de hidróxido de calcio, cloruro de sodio y agua, para originar monocloro¿aluminato de calcio hidratado, C3A·CaCl2·10H2O, o sal de Friedel. Además, dicho estado físico-químico de la puzolana ha de ser acorde con la definición de alúmina reactiva adoptada en esta investigación en razón de las prestaciones reales de durabilidad química que le puede llegar a conferir a los cementos de mezcla y a sus productos derivados, hormigones, morteros y pastas, que se fabriquen con la misma. - La originalidad de este nuevo método analítico, respecto a los demás métodos ya existentes, reside en que la cuantificación de dicha fracción alumínica reactiva de la puzolana natural o artificial, se realiza mediante cálculo estequiométrico, basándose, para ello, en dicha reacción química de formación de sal de Friedel precisamente, tras 28 días de hidratación básica-salina acelerada de la puzolana natural o artificial, habiéndose realizado, además, en esta investigación dicha determinación cuantitativa de la cantidad de sal de Friedel originada por cada puzolana, mediante dos técnicas analíticas instrumentales que fueron las siguientes: el análisis termogravimétrico (variante I ó I-I en su caso) y el método de Rietveld con la difracción de Rayos X en polvo (variante II). - La reacción química de formación de sal de Friedel tras 28 días de hidratación básica-salina acelerada de las puzolanas que se analicen, se optimizó para asegurar que el único compuesto químico de aluminio y cloro formado fuese sal de Friedel nada más (dosificando para ello en cantidad adecuada los reactivos químicos necesarios: Ca(OH)2, NaCl y agua destilada), manteniendo, además y por otra parte, el compromiso apropiado entre el máximo rendimiento de dicha reacción química (ataque, disolución y lixiviación en 28 días, de toda la alúmina reactiva de la puzolana) y el modo y medios más adecuados de acelerarlo para conseguirlo fue a 40°C de temperatura, con agitación constante y cierre hermético del reactor. - La aplicabilidad y selectividad del nuevo método analítico, objeto de esta Tesis Doctoral, fue estudiada con una serie de puzolanas naturales y artificiales españolas, silíceas y/o silíceas y aluminosas en naturaleza, que fueron las siguientes: M0 (metacaolín 0), M1 (M0 con 50 % de cuarzo), C y L (puzolanas naturales de las Islas Canarias), CV10 y CV17 (cenizas volantes), A (puzolana natural de Almagro), O (puzolana natural de Olot) y HS (humo de sílice). - Todas las adiciones minerales anteriores cumplieron con los principales requisitos físicos y químicos que son preceptivos para poder considerarlas, antes de todo, como puzolanas, lo que era indispensable y de obligado cumplimiento, para poderles determinar su contenido total de Al2O3r- (%) mediante el nuevo método analítico. Estos condicionantes fueron los siguientes: grado adecuado de finura de molido o tamaño medio de partícula (según la norma EN 451-2), haber sido analizadas químicamente antes de todo (según la norma EN 196-2 ó la ASTM C311), con el fin de determinarles especialmente, sus contenidos totales de SiO2 (%), Al2O3 (%) y Fe2O3 (%), haberles determinado, además, su contenido de sílice reactiva, SiO2r- (%) (según la norma UNE 80225), y haber cumplido con el ensayo de puzolanicidad o de Frattini (según la norma EN 196-5) a la edad de 28 días al menos. Este último requisito, otrora de obligado cumplimiento hasta el año 1988, para cualquier puzolana natural y artificial que una fábrica de cementos pretendiera introducir en el proceso de fabricación de un nuevo cemento puzolánico o cemento tipo CEM IV, ha logrado así, que se tenga que volver utilizar de nuevo de forma obligada con esta Tesis Doctoral. Y los resultados obtenidos con el nuevo método analítico de los contenidos de Al2O3r-(%) de las puzolanas seleccionadas, fueron los siguientes: - Mediante su variante I: M0 29.9 %, M1 16.9 %, CV10 11.4 %, L 12.3 %, C 12.6 %, A 8.0 %, CV17 9.5 % y O 6.3 % de Al2O3r-, y - Mediante su variante II: M0 30.7 %, M1 15.4 %, CV10 14.7%, L 11.8 %, C 11.1 %, A 8.9 %, CV17 9.6 % y O 6.8 % de Al2O3r-. Finalmente, todos ellos fueron contrastados, además, mediante la calibración y validación del nuevo método analítico, con los valores de referencia obtenidos de esas mismas puzolanas, los cuales se les habían determinado mediante el método de Florentín, consistente en atacar, disolver y lixiviar también toda la fracción alumínica soluble de la puzolana (y además, aquella silícica y férrica que la constituyen a la par), pero, en especial, su contenido total de alúmina reactiva, mediante un ataque básico (con Ca(OH)2 en medio acuoso a temperatura del laboratorio, habiendo sido, además, su duración hasta 1 año), seguido de otro ácido (con HCl, d = 1.12), habiéndose obtenido esta vez los siguientes resultados de sus contenidos de Al2O3r- (%): M0 28.8 %, M1 16.7 %, CV10 9.7 %, L 11.2 %, C 12.2 %, A 13.0 %, CV17 10.6 % y O 9.5 %. Dicha validación realizada ha puesto de manifiesto, en términos generales, que el nuevo método analítico es más fidedigno que el de Florentín, por lo que resulta ser totalmente apropiado para obtener los resultados que se han pretendido, además de proporcionarlos en un espacio de tiempo relativamente corto (28 días a lo sumo) y a un coste económico razonable por no elevado (salvo error u omisión y libre de impuestos directos e indirectos, el coste económico estimado de la variante I estaría en torno a 800.00 - 900.00 €/puzolana -caso más probable-, y aproximadamente una tercera parte nada más, en el caso de que la edad máxima del ensayo acelerado sea 7 días nada más -caso menos probable-), y, por consiguiente, técnicamente aceptable, al cumplir, además, en todo el rango considerado de variabilidad posible de concentraciones o contenidos del analito buscado en la puzolana, con tales parámetros de validación como son: linealidad (los resultados obtenidos son directamente proporcionales a la señal-respuesta instrumental recibida), sensibilidad, precisión excelente, repetibilidad satisfactoria de los valores obtenidos de los contenidos de Al2O3r- de todas y cada una de las adiciones puzolánicas seleccionadas, confirmando, por ello, la universalidad de su uso. Finalmente, las ventajas del nuevo método analítico, respecto a los métodos ya existentes recopilados de la bibliografía (el método de Florentín, el método de López Ruiz -HF 40 % y HNO3 2N-, el método de Murat y Driouche para arcillas -HF 0.5M-, el método de Arjuan, Silbee y Roy para cenizas volantes -HF 1 %- y su modificación por Fernández-Jiménez y cols. -HF 1 %, 27Al NMR MAS y XRD (método de Rietveld)-, y el método de determinación de la relación SiO2r-/Al2O3r- para arcillas y cenizas volantes por Ruiz-Santaquiteria y cols. -HF 1 %, NaOH 8M y ICP-AES-) son, principalmente, estar exento de peligro alguno para la seguridad vital de las personas que lo tengan que manipular y poner en práctica, ser bastante apropiado para control de calidad además de para investigación, su considerable menor coste económico, su relativamente corto espacio de tiempo que se necesita para obtener la respuesta-resultado pretendida (28 días a lo sumo), así como su universalidad y selectividad, puesto que además, su aplicabilidad es para todo tipo de adiciones puzolánicas naturales o artificiales, como así lo demuestran los resultados obtenidos de los materiales puzolánicos naturales y artificiales seleccionados y analizados, en un rango de concentraciones del analito -contenido de alúmina reactiva, Al2O3r- (%)-, desde el 5 % hasta el 30 % en masa, rango éste que, por otra parte, comprende prácticamente TODAS las adiciones puzolanas naturales y artificiales existentes en el mercado transnacional y las aún por existir. Por consiguiente y de acuerdo con lo anterior, el nuevo método analítico, ya sea realizado mediante su variante I o la II, debido, - en primer lugar, a los fundamentados planteamientos relativos a su procedimiento experimental -modus operandi- el cual ha sido aplicado a una amplia gama de puzolanas naturales y artificiales, y - en segundo lugar, debido a la calidad de los resultados obtenidos con un grado de precisión y repetibilidad excelentes, ha demostrado poseer una gran utilidad científica -para investigación-, pero, sobre todo, técnica -para control de calidad de adiciones puzolánicas naturales y artificiales que se adicionan habitualmente al cemento Portland en fábrica y/o a sus hormigones y morteros en planta-, además de ser representativos los valores obtenidos mediante el mismo respecto a la más que probable durabilidad química que cada una de ellas puede llegarle a conferir al hormigón armado y en masa, mortero y pasta del que forme parte, así como también su cantidad adecuada de sustitución parcial de cada cemento Portland para conseguirla, acorde con sus propias prestaciones químico-físicas o físico-químicas que puede llegarle a conferir, según sea su carácter químico (alumínico, alumínico-silícico, silícico-alumínico, silícico-férrico-alumínico o silícico), forma y tamaño medio de su partícula. Por último, el nuevo método analítico ha demostrado cumplir además, con todos los requisitos de obligado cumplimiento que establece la norma ISO/IEC 17025 sobre la calidad y fiabilidad de nuevos métodos o procedimientos analíticos no normalizados todavía, para poder ser propuesto en un futuro próximo, ante la Comisión de AENOR correspondiente, con objeto de comenzar un expediente para su certificación y normalización. ________________________________________________________________________________ Both the subject of this research, its objectives, fundamentals, materials selected and experimental part to achieve, have all been promoted by the situation and the state of reinforced concrete constructions that began performing in Spain from 1975, with concrete and mortars cement containing fly ash up to 20 %, in principle, and later, up to 35 % to its content of Portland cement, which and against expected, demanded a need to improve their performance, especially due to an unexpectedly low level of durability of some works built with them, despite, however, its apparent benefits of all kinds are ascribed to them. Ultimately, the natural or artificial pozzolanic additions, such as fly ash specially, referred to above, have been used with regulation to manufacture cements and/or its derivatives, concretes, mortars, cement pastes, in the most industrialized countries. More than three decades ago, under the same conditions and identical construction mainly uses concretes and mortars plain Portland cement, besides coming, given that use of these waste materials, industrial by-products today for environmental and/or economic issues. For this reason, this Doctoral Thesis aims to answer properly and schematically (in the form of flow chart), the criteria to be taken into account when selection and characterization standardized for these active mineral additions, especially prior to choosing and use in the so-called Portland Cement (PC) pozzolan, or with fly ash or with calcined shales or with calcined pozzolans or with silica fume or PC mixed or pozzolanic cement or compound cement, for that such pathology problems will not occur when reinforced concretes nor mass concretes are used for building. Hence the very particular and special focus about this research, having confined only to the natural or artificial pozzolans, considering them all, regardless of their origin, approach as materials consisting of small crystalline fractions randomly distributed in a largely vitreous and/or amorphous matrix, which confers their reactivity with calcium hydroxide in the form of slaked lime or portlandite from PC. In turn, these vitreous and/or amorphous fractions consist in its greater part, by reactive silica, SiO2r-, reactive alumina, Al2O3r-, and reactive iron oxide, Fe2O3r-, which also receive, in conjunction, the specific name of "hydraulic factors" of the pozzolan. Usually, they all differs in quantity of their respective total contents of the SiO2 (%), Al2O3 (%) and Fe2O3 (%) determined the pozzolan by alkaline fusion by means of standard procedures. Of the three above-mentioned oxides reagents and from the technical point of view, the most important for its increased presence in every one of the natural or artificial pozzolans and also significance in the chemical durability that can get them to give the concrete mortar or cement paste which contain them, are SiO2r- and Al2O3r-. From the first two, the SiO2r- reacts with portlandite only, released in the hydration of the PC (and with Ca(OH)2), to form C-S-H gels, transformed in tobermorites or jennites later on, similar to C-S-H gels also originating from the alite and belite hydration in the CP. From the standardization criteria point of view, the presence of this silicic fraction in pozzolans is regulated at first, by the European standard EN 197-1, in general, also being referred by the EN 450-1:2006, in the context of the fly ash in addition to the concrete, as a "fine powder of spherical particles mainly crystalline form. It is from the combustion of pulverized coal, which have pozzolanic properties and is mainly composed of SiO2 and Al2O3". In addition and according to the EN 197-1 standard, the reactive silica content (which can be defined and determined in accordance with EN 197-1 standard or its UNE 80225 standard) must not be lower than 25 % of its mass. Meanwhile, considerable experimental studies by Talero and Talero et al, have shown that if the pozzolan is not adequate in quality nor quantity, the durability of cement that is part and, therefore, of its derivative products, concretes, mortars and pastes cement, can become abnormally low because its reactive alumina, Al2O3r- (%), content or tetra- or penta-coordinated alumina which involves itself in a very direct and totally mixed and conflicting results even at all aggressive chemical attack natural to produce to the concrete, mortar and paste with inadequate natural and/or artificial pozzolans, such as those from the selenitous land and waters (sulfates, strikes if the material itself concrete, mortar and paste that contain them, for rapid forming ettringite form, ett-rf, which can even cause rapid gypsum attack to said concrete). In contrast, sea spray and de-icing salts (chlorides strikes the reinforced steel concrete causing them electrochemical corrosion by "bite", although in that other chemical attack, such Al2O3r- causes rapid Friedel's salt formation, Fs-rf, too, to cause protector effect of the electrochemical corrosion of reinforcements for these chlorides), seawater (mutual aggressive action of chlorides and sulfates), carbonation, alkali-silica reaction, and, in addition, to influence the release of hydration heat, as well as in the rheological behavior of the pastes, etc., decreasing/shorting them thus their expected durability and sometimes even very seriously. But the most ironic thing is, that despite its referral totally opposed, compared to sulfates and chlorides, behaviour, - far not available is, a chemical analysis method for its quantitative determination, which is also relatively simple in operation, accurate, precise, rapid response, from a technical point of view for building (no more than 28 days), repeatable, reproducible, not involving danger to life safety of the people who need to manipulate and implement, economic, and also serve for both scientific research and technical side, and - has yet to be any chemical specification that sets maximum levels for Al2O3r-(%) in the natural or artificial pozzolan to be added to the cement and/or to the concrete that will be subject to a particularly aggressive chemical attack from those mentioned above, and in particular, to sulphates, chlorides or sea water. And for the sake of and justification of this need, it has to be said that the current Spanish Instruction for Structural Concrete EHE-08 does not provide any specification on "hydraulic factors" in general, nor the content of Al2O3r- (%) in fly ash, very particular, as Article 30º "Additions", or any other Article, although does provide, however, other chemical specifications lacking the necessary meaning in terms of the message Chemical Durability mentioned, nor the Article 37º which and for greater sake, is paradoxically entitled "Durability of the concrete and of their reinforcements". It has also not contemplated in the latest version just released from EN 197-1 standard entitled "Cement Part 1: Composition, specifications and conformity criteria for common cements". Nor, in EN 450-1:2006 entitled "Fly ash for concrete Part 1: Definitions, specifications and conformity criteria", nor by current Spanish Instruction for Cement Reception, RC-08, nor the ASTM C618-03 Standard either. The only chemical specification that both Standards, European and American, refer is one that says that the sum of the total contents of SiO2 (%), Al2O3 (%) and Fe2O3 (%) of natural and artificial pozzolan, must be greater than or equal to 70 % , defining pozzolans thus: "siliceous or aluminous and siliceous materials, which themselves do not have any cementitious value but finely divided and in the presence of moisture it reacts with calcium hydroxide at ordinary temperatures to form compounds possessing cementitious properties". Consequently and according to everything related before, the primary objective of this Doctoral Thesis has been: To design and start-up a new quantitative analytical method of technical utility (the maximum test duration is not more than 28 days), to determine the content of reactive alumina content, Al2O3r- (%), vitreous or amorphous alumina, of natural and artificial pozzolans. And once designed, validate at repeatability level and in accordance with appropriate statistical parameters with special emphasis on the acceptance criteria established by the American Association of Official Analytical Chemists (AOAC). And to achieve this, the innovation of this research has been based on the following general principles, namely: - All the alumina in any pozzolan, natural or artificial, that can be attacked, dissolved and leached by portlandite or calcium hydroxide, Ca(OH)2, in aqueous medium, is considered reactive alumina, Al2O3r-. - This aluminic fraction of natural or artificial pozzolan to analyze and study, has to be in such physical-chemical state that it can react in the presence of calcium hydroxide, sodium chloride and water status and to cause monochloro-aluminate hydrated calcium, C3A·CaCl2·10H2O or Friedel's salt. Moreover, such physical-chemical state of the pozzolan must be consistent with the definition of reactive alumina adopted in this research because of the actual performance of chemical durability that can reach confer on blended cements and their derivatives, concretes, mortars and pastes that are manufactured with the same. - The originality of this new analytical method, compared to the other methods for determining reactive alumina existing (collected in abbreviated form in the state of the art of this report), is the quantification of such aluminic fraction of natural or artificial pozzolans is performed by stoichiometric calculation based on this, in the chemical reaction of Friedel's salt formation after 28 days of the analysis of saline-basic hydration accelerated natural or artificial pozzolan also performed in this research, and the quantitative determination of the Friedel's salt has been performed by two instrumental analytical techniques known as thermogravimetric analysis (variant I), and Rietveld method with X-ray powder diffraction (variant II). - The chemical reaction of Friedel's salt formation after 28 days of accelerated saline-basic hydration of the selected natural and artificial pozzolan, was optimized to ensure that the single chemical compound of aluminium and chlorine formed was Friedel's salt only (dosing for this purpose in amount suitable chemical reagents: Ca(OH)2, NaCl and distilled water), and, on the other hand, maintaining the appropriate compromise between the highest yield from the chemical reaction (attack, dissolution and leaching in 28 days, all reactive alumina of pozzolan) and to accelerate the etching media, which were 40°C temperature, constant stirring and sealing the reactor. - The applicability and selectivity of the new analytical method, the subject of this Doctoral Thesis, was studied with a series of Spanish natural and artificial pozzolans, siliceous or siliceous and aluminous in nature, which were as follows: M0 (metakaolin 0), M1 (M0 with 50 % quartz), L and C (natural pozzolans of the Canary Islands), CV10 (fly ash 10), CV17 (fly ash 17), A (natural pozzolan of Almagro), O (natural pozzolan of Olot), and HS (silica fume). - All mineral admixtures were selected satisfied the physical and chemical requirements proposed to consider them as pozzolan, which was mandatory, so its Al2O3r- (%) content can determine by the new analytical method. These conditions were as follows: adequate degree of fineness of grind or average particle size (according to EN 451-2 standard), have been analyzed chemically (according to EN 196-2 or ASTM C311 standards), in order to determine their total contents of SiO2 (%), Al2O3 (%) and Fe2O3 (%), mainly, having also determined its reactive silica content, SiO2r- (%) (UNE 80225 standard), and fulfilled with testing of pozzolanicity or Frattini test (according to EN 196-5 standard) at 28 days age at least. The last criteria was mandatory until 1988, for any natural and artificial pozzolan to a factory intended to introduce cements in the manufacturing process of a new Portland cement type CEM IV pozzolanic additions, and with this Doctoral Thesis has made is to be used once again mandatory. And the results obtained using the new analytical method, of the Al2O3r- (%) content for each selected pozzolan, were as follows: - by its variant I: M0 29.9 % , M1 16.9 % , CV10 11.4 % , L 12.3 % , C 12.6 % , A 8.0 % , CV17 9.5 % and O 6.3 % of Al2O3r-, and - by its variant II: M0 30.7 % , M1 15.4 % , CV10 14.7% % , L 11.8 % , C 11.1 % , A 8.9 % , CV17 9.6 % and O 6.8 % of Al2O3r-. Finally, they would all be further contrasted by the calibration and validation of new analytical method, with reference values obtained from these same natural and artificial pozzolans, which had been given by the method of Florentin, consisting of attack, dissolve and leached with a basic attack (with Ca(OH)2 in aqueous medium and laboratory temperature, having also been its duration up to 1 year), followed by another acid attack (HCl, d = 1.12), all soluble aluminic fraction of pozzolan, and in particular their total content of reactive alumina, Al2O3r-(%), was this time as follows: M0 28.8 %, M1 16.7 %, CV10 9.7 %, L 11.2 %, C 12.2 %, A 13.0 %, CV17 10.6 % and O 9.5 % (and their siliceous and iron contents that are at par). This validation has shown on the new analytical method is more reliable than Florentin method, so it turns out to be entirely appropriate to get the results that have been tried by the same, besides providing them a relatively short space of time (28 days at most) and reasonably no high economic cost (unless mistake -free direct and indirect taxes, such economic cost would be between 800.00 - 900.00 €/pozzolan (most likely case), and about an one-third part around, in the event that the maximum age of the accelerated test is 7 days only (less likely case). So it is technically acceptable, to consider the range of possible variability of concentrations or contents pozzolan analyte with validation parameters such as: linearity (the results obtained are directly proportional to the instrumental response signal received), excellent sensitivity and accuracy, satisfactory repeatability values from the contents of each and Al2O3r- (%) each selected pozzolan, confirming therefore universal use. Finally, the advantages of the new analytical method over existing methods compiled from literature (Florentin method , the Lopez Ruiz method -HF and HNO3 40 % 2N-, the method of Murat and Driouche for clays -0.5M HF-, the method of Arjuan, Roy and Silbee for fly ash -HF 1 %- and its modification by Fernández-Jiménez et al -HF 1 %, 27Al MAS NMR and XRD (Rietveld method)-, and the method for determining the SiO2r-/Al2O3r- clay and fly ash ratio of Santaquiteria Ruiz et al -HF 1 %, NaOH 8M and ICP-AES-) are primarily and relatively short time get the result intended answer (28 days at most), its considerable lower cost, free from danger to the life safety of the people who need to manipulate and put in practice as well as its universality and selectivity, since it is applicable for all types of natural or artificial pozzolans, as it has been shown by the results of selected natural and artificial pozzolanic materials and analyzed in a range of analyte concentrations -reactive alumina, Al2O3r- (%) content- from 5 % to 30 % by mass, this range, on the other hand, includes virtually ALL existing transnational market in natural and artificial pozzolans and still exist. Therefore and in accordance with the above, the new analytical method is already performed by the variant I or II, because, - firstly, grounded to experimental approaches concerning its experimental procedure -"modus operandi"- which has been applied to a wide range of natural and artificial pozzolans, and - secondly, due to the quality of the results obtained with a great degree of accuracy and repeatability, it has been shown to possess significant scientific value in the research, but especially technical value -for quality control of natural and artificial pozzolans commonly added to Portland cement factory and/or directly to their concrete and mortar in plant-, and also be representative enough of the values obtained by the same probable chemical durability that each of them can reach out to give the concrete mortar and paste to which it belongs, as well as proper amount of partial replacement of Portland cement. To get in line with their own chemical-physical or physical-chemical features which can come to confer, as its chemical character (aluminic, silicic-aluminic, aluminic-silicic, aluminic-ferric-silicic or ferric-silicic), form and medium size of its particle is. Finally, the new analytical method has proven to meet all mandatory requirements established by ISO/IEC 17025 on the quality and reliability of new methods or analytical procedures are not standardized yet, in order to be considered appropriate this new analytical method, in this Doctoral Thesis it is to be proposed in the near future, before the corresponding AENOR (Spanish Association for Standardization and Certification) Commission, to start a procedure for certification and standardization.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La configuración de un cilindro acoplado a una semi-esfera, conocida como ’hemispherecylinder’, se considera como un modelo simplificado para numerosas aplicaciones industriales tales como fuselaje de aviones o submarinos. Por tanto, el estudio y entendimiento de los fenómenos fluidos que ocurren alrededor de dicha geometría presenta gran interés. En esta tesis se muestra la investigación del origen y evolución de los, ya conocidos, patrones de flujo (burbuja de separación, vórtices ’horn’ y vórtices ’leeward’) que se dan en esta geometría bajo condiciones de flujo separado. Para ello se han llevado a cabo simulaciones numéricas (DNS) y ensayos experimentales usando la técnica de Particle Image Velocimetry (PIV), para una variedad de números de Reynolds (Re) y ángulos de ataque (AoA). Se ha aplicado sobre los resultados numéricos la teoría de puntos críticos obteniendo, por primera vez para esta geometría, un diagrama de bifurcaciones que clasifica los diferentes regímenes topológicos en función del número de Reynolds y del ángulo de ataque. Se ha llevado a cabo una caracterización completa sobre el origen y la evolución de los patrones estructurales característicos del cuerpo estudiado. Puntos críticos de superficie y líneas de corriente tridimensionales han ayudado a describir el origen y la evolución de las principales estructuras presentes en el flujo hasta alcanzar un estado de estabilidad desde el punto de vista topológico. Este estado se asocia con el patrón de los vórtices ’horn’, definido por una topología característica que se encuentra en un rango de números de Reynolds muy amplio y en regímenes compresibles e incompresibles. Por otro lado, con el objeto de determinar las estructuras presentes en el flujo y sus frecuencias asociadas, se han usado distintas técnicas de análisis: Proper Orthogonal Decomposition (POD), Dynamic Mode Decomposition (DMD) y análisis de Fourier. Dichas técnicas se han aplicado sobre los datos experimentales y numéricos, demostrándose la buena concordancia entre ambos resultados. Finalmente, se ha encontrado en ambos casos, una frecuencia dominante asociada con una inestabilidad de los vórtices ’leeward’. ABSTRACT The hemisphere-cylinder may be considered as a simplified model for several geometries found in industrial applications such as aircrafts’ fuselages or submarines. Understanding the complex flow phenomena that surrounds this particular geometry is therefore of major industrial interest. This thesis presents an investigation of the origin and evolution of the complex flow pattern; i.e. separation bubbles, horn vortices and leeward vortices, around the hemisphere-cylinder under separated flow conditions. To this aim, threedimensional Direct Numerical Simulations (DNS) and experimental tests, using Particle Image Velocimetry (PIV) techniques, have been performed for a variety of Reynolds numbers (Re) and angles of attack (AoA). Critical point theory has been applied to the numerical simulations to provide, for the first time for this geometry, a bifurcation diagram that classifies the different flow topology regimes as a function of the Reynolds number and the angle of attack. A complete characterization about the origin and evolution of the complex structural patterns of this geometry has been put in evidence. Surface critical points and surface and volume streamlines were able to describe the main flow structures and their strong dependence with the flow conditions up to reach the structurally stable state. This state was associated with the pattern of the horn vortices, found on ranges from low to high Reynolds numbers and from incompressible to compressible regimes. In addition, different structural analysis techniques have been employed: Proper Orthogonal Decomposition (POD), Dynamic Mode Decomposition (DMD) and Fourier analysis. These techniques have been applied to the experimental and numerical data to extract flow structure information (i.e. modes and frequencies). Experimental and numerical modes are shown to be in good agreement. A dominant frequency associated with an instability of the leeward vortices has been identified in both, experimental and numerical results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los proyectos de desarrollo constituyen un tipo especial de proyectos, ya que son entes cambiantes que pueden variar de acuerdo a la necesidad de cumplir con los objetivos planteados (Hernandez, Negrillo, Sagua, and Yague, 2011). Estos cambios, debido a la interacción con personas y su entorno, deben observarse a la hora de desarrollar estos proyectos, dándoles cierta flexibilidad tanto en la planificación como en la ejecución y permitiendo que la participación de los beneficiarios pueda aportar conocimiento local y la co-ejecución con los beneficiarios. La presente comunicación plantea una modificación al diagrama clásico de los proyectos de desarrollo, incluyendo la retroalimentación en todas sus etapas debido a la participación de los beneficiarios, a través de la aplicación del aprendizaje social como modelo de planificación y ejecución de proyectos de desarrollo, lo que enriquece el proceso de manera continua. La comunicación presentada es parte de la investigación sobre la consecución de una metodología que permita la ejecución de aquellos tipos de proyectos de desarrollo que por su complejidad no puedan ser abordados por la teoría clásica de proyectos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mejora continua debería estar presente siempre en las empresas, dispongan o no de sistemas de gestión. Sin embargo, su aplicación en el sector de la construcción es especialmente difícil debido a las características particulares del mismo. Por este motivo se plantea el objetivo principal de esta Tesis Doctoral: “Establecer una metodología de trabajo que permita a las empresas constructoras implantar proyectos de mejora continua para incrementar la calidad de las viviendas entregadas a los usuarios”. En la investigación llevada a cabo se han inspeccionado 818 viviendas, recogiendo un total de 82.550 incidencias, las cuales se han analizado aplicando cuatro de las siete herramientas estadísticas básicas de la mejora continua (Hoja de recogida de datos, Estratificación, Histograma y Diagrama de Pareto), concluyendo que los tres oficios que concentran el 80% de los defectos, en los que convendría actuar para reducir de manera significativa los fallos de construcción en la fase de pre-entrega, son: Carpintería de Madera, Revestimientos Cerámicos e Instalación de Electricidad. De entre estos tres oficios se ha seleccionado el de Revestimientos Cerámicos para poner en práctica un proyecto de mejora continua. Analizando los datos relativos a este oficio se elabora un listado de 25 defectos tipo en los que se pueden agrupar todas las incidencias detectadas. Aplicando de nuevo las cuatro herramientas básicas de la calidad se destacan los 10 defectos tipo con mayor impacto en volumen de incidencias y en coste de reparación, para focalizar los esfuerzos de mejora. Con esta información se elabora un documento de criterios técnicos para la ejecución de los Revestimientos Cerámicos que se implanta, en parte, en varias obras para tratar de reducir los defectos detectados en las viviendas antes de la entrega a sus propietarios, y se definen unos Índices de Calidad para medir los resultados. Se toman datos de nuevo a 6 y 20 meses desde la implantación del protocolo, se analizan y se calculan los resultados del proyecto de mejora, concluyendo que se está avanzando positivamente. En base a toda la información recogida a lo largo del proceso de la investigación y de la experiencia del proyecto de mejora implantado, se presenta una propuesta de metodología para implementar proyectos de mejora, así como la documentación recomendada para su puesta en práctica, además de la documentación técnica específica para la prevención de los defectos de construcción en Revestimientos Cerámicos incluyendo las fichas de control para la recepción de materiales, control de ejecución y control de recepción del revestimiento terminado. ABSTRACT Continuous improvement should always be a core value in firms of all kinds, whether or not they implement management systems. Nevertheless, its application in the construction sector seems especially difficult due to its inherent intricacies and complexity. The study of this phenomenon is the main aim of the hereby presented PhD dissertation "Establishment of a working methodology that allows construction (related) firms to carry out projects of continuous improvement in order to increase the quality of housing upon delivery to the client". In the present research 818 housing units have been inspected, collecting a total of 82550 incidence entries, which have been analyzed by means of 4 out of the 7 basic statistical tools of continuous improvement: Data collection sheets, stratification, histogram, and Pareto diagram. The data shows that the 3 main trades where special actions should be taken in order to significantly reduce construction defects are: carpentry, ceramic cladding, and electricity systems. These trades combined account for the 80% of the total defects detected during the inspections. Among the mentioned works, ceramic tiling is selected as a continuous improvement case study project. Analysing data relative to this specific trade, a list of 25 defect types is developed. These types gather all detected defects under this group. Further applying the four statistical tools referred to above, the 10 most significant events are highlighted as to clearly determine the improvement measures. These events have the most impact on both volume of defects and reparation costs. This information is then put together in a document of technical criteria for the correct execution of ceramic tiling that is implemented in various ongoing projects under construction as to minimize the defects prior to the final delivery to the client. Also, a series of Quality Index are defined as criteria for execution suitability. 6 to 20 months after the implementation of this control protocol, the same process is repeated with the purpose of comparing results. It is concluded that a positive evolution takes place. Based both on the information collected throughout the research process and the experience of the case study, the dissertation proposes a methodology to successfully implement improvement projects along with reference documentation and specific technical documents for the prevention of construction defects in ceramic tiling, including (i) material reception control sheets, (ii) an execution control sheet, and a sheet relative to the (iii) control of the finished cladding.