998 resultados para Adherencia acero-hormigón
Resumo:
Se está produciendo en la geodesia un cambio de paradigma en la concepción de los modelos digitales del terreno, pasando de diseñar el modelo con el menor número de puntos posibles a hacerlo con cientos de miles o millones de puntos. Este cambio ha sido consecuencia de la introducción de nuevas tecnologías como el escáner láser, la interferometría radar y el tratamiento de imágenes. La rápida aceptación de estas nuevas tecnologías se debe principalmente a la gran velocidad en la toma de datos, a la accesibilidad por no precisar de prisma y al alto grado de detalle de los modelos. Los métodos topográficos clásicos se basan en medidas discretas de puntos que considerados en su conjunto forman un modelo; su precisión se deriva de la precisión en la toma singular de estos puntos. La tecnología láser escáner terrestre (TLS) supone una aproximación diferente para la generación del modelo del objeto observado. Las nubes de puntos, producto del escaneo con TLS, pasan a ser tratadas en su conjunto mediante análisis de áreas, de forma que ahora el modelo final no es el resultado de una agregación de puntos sino la de la mejor superficie que se adapta a las nubes de puntos. Al comparar precisiones en la captura de puntos singulares realizados con métodos taquimétricos y equipos TLS la inferioridad de estos últimos es clara; sin embargo es en el tratamiento de las nubes de puntos, con los métodos de análisis basados en áreas, se han obtenido precisiones aceptables y se ha podido considerar plenamente la incorporación de esta tecnología en estudios de deformaciones y movimientos de estructuras. Entre las aplicaciones del TLS destacan las de registro del patrimonio, registro de las fases en la construcción de plantas industriales y estructuras, atestados de accidentes y monitorización de movimientos del terreno y deformaciones de estructuras. En la auscultación de presas, comparado con la monitorización de puntos concretos dentro, en coronación o en el paramento de la presa, disponer de un modelo continuo del paramento aguas abajo de la presa abre la posibilidad de introducir los métodos de análisis de deformaciones de superficies y la creación de modelos de comportamiento que mejoren la comprensión y previsión de sus movimientos. No obstante, la aplicación de la tecnología TLS en la auscultación de presas debe considerarse como un método complementario a los existentes. Mientras que los péndulos y la reciente técnica basada en el sistema de posicionamiento global diferencial (DGPS) dan una información continua de los movimientos de determinados puntos de la presa, el TLS permite ver la evolución estacional y detectar posibles zonas problemáticas en todo el paramento. En este trabajo se analizan las características de la tecnología TLS y los parámetros que intervienen en la precisión final de los escaneos. Se constata la necesidad de utilizar equipos basados en la medida directa del tiempo de vuelo, también llamados pulsados, para distancias entre 100 m y 300 m Se estudia la aplicación del TLS a la modelización de estructuras y paramentos verticales. Se analizan los factores que influyen en la precisión final, como el registro de nubes, tipo de dianas y el efecto conjunto del ángulo y la distancia de escaneo. Finalmente, se hace una comparación de los movimientos dados por los péndulos directos de una presa con los obtenidos del análisis de las nubes de puntos correspondientes a varias campañas de escaneos de la misma presa. Se propone y valida el empleo de gráficos patrón para relacionar las variables precisión o exactitud con los factores distancia y ángulo de escaneo en el diseño de trabajos de campo. Se expone su aplicación en la preparación del trabajo de campo para la realización de una campaña de escaneos dirigida al control de movimientos de una presa y se realizan recomendaciones para la aplicación de la técnica TLS a grandes estructuras. Se ha elaborado el gráfico patrón de un equipo TLS concreto de alcance medio. Para ello se hicieron dos ensayos de campo en condiciones reales de trabajo, realizando escaneos en todo el rango de distancias y ángulos de escaneo del equipo. Se analizan dos métodos para obtener la precisión en la modelización de paramentos y la detección de movimientos de estos: el método del “plano de mejor ajuste” y el método de la “deformación simulada”. Por último, se presentan los resultados de la comparación de los movimientos estacionales de una presa arco-gravedad entre los registrados con los péndulos directos y los obtenidos a partir de los escaneos realizados con un TLS. Los resultados muestran diferencias de milímetros, siendo el mejor de ellos del orden de un milímetro. Se explica la metodología utilizada y se hacen consideraciones respecto a la densidad de puntos de las nubes y al tamaño de las mallas de triángulos. A shift of paradigm in the conception of the survey digital models is taking place in geodesy, moving from designing a model with the fewer possible number of points to models of hundreds of thousand or million points. This change has happened because of the introduction of new technologies like the laser scanner, the interferometry radar and the processing of images. The fast acceptance of these new technologies has been due mainly to the great speed getting the data, to the accessibility as reflectorless technique, and to the high degree of detail of the models. Classic survey methods are based on discreet measures of points that, considered them as a whole, form a model; the precision of the model is then derived from the precision measuring the single points. The terrestrial laser scanner (TLS) technology supposes a different approach to the model generation of the observed object. Point cloud, the result of a TLS scan, must be treated as a whole, by means of area-based analysis; so, the final model is not an aggregation of points but the one resulting from the best surface that fits with the point cloud. Comparing precisions between the one resulting from the capture of singular points made with tachometric measurement methods and with TLS equipment, the inferiority of this last one is clear; but it is in the treatment of the point clouds, using area-based analysis methods, when acceptable precisions have been obtained and it has been possible to consider the incorporation of this technology for monitoring structures deformations. Among TLS applications it have to be emphasized those of registry of the cultural heritage, stages registry during construction of industrial plants and structures, police statement of accidents and monitorization of land movements and structures deformations. Compared with the classical dam monitoring, approach based on the registry of a set of points, the fact having a continuous model of the downstream face allows the possibility of introducing deformation analysis methods and behavior models that would improve the understanding and forecast of dam movements. However, the application of TLS technology for dam monitoring must be considered like a complementary method with the existing ones. Pendulums and recently the differential global positioning system (DGPS) give a continuous information of the movements of certain points of the dam, whereas TLS allows following its seasonal evolution and to detect damaged zones of the dam. A review of the TLS technology characteristics and the factors affecting the final precision of the scanning data is done. It is stated the need of selecting TLS based on the direct time of flight method, also called pulsed, for scanning distances between 100m and 300m. Modelling of structures and vertical walls is studied. Factors that influence in the final precision, like the registry of point clouds, target types, and the combined effect of scanning distance and angle of incidence are analyzed. Finally, a comparison among the movements given by the direct pendulums of a dam and the ones obtained from the analysis of point clouds is done. A new approach to obtain a complete map-type plot of the precisions of TLS equipment based on the direct measurement of time of flight method at midrange distances is presented. Test were developed in field-like conditions, similar to dam monitoring and other civil engineering works. Taking advantage of graphic semiological techniques, a “distance - angle of incidence” map based was designed and evaluated for field-like conditions. A map-type plot was designed combining isolines with sized and grey scale points, proportional to the precision values they represent. Precisions under different field conditions were compared with specifications. For this purpose, point clouds were evaluated under two approaches: the standar "plane-of-best-fit" and the proposed "simulated deformation”, that showed improved performance. These results lead to a discussion and recommendations about optimal TLS operation in civil engineering works. Finally, results of the comparison of seasonal movements of an arc-gravity dam between the registered by the direct pendulums ant the obtained from the TLS scans, are shown. The results show differences of millimeters, being the best around one millimeter. The used methodology is explained and considerations with respect to the point cloud density and to the size of triangular meshes are done.
Resumo:
Una intervención de refuerzo tiene como objetivo incrementar la capacidad estructural de un elemento al que, o bien, se le considera insuficiente, o bien, debe aumentar su capacidad portante, aun cumpliendo con los requisitos estructurales originales. El refuerzo se puede acometer por la cara inferior o superior del forjado, por lo cual se analizarán a continuación el refuerzo superior mediante la adición de una capa de hormigón, refuerzo inferior mediante una banda resistente a tracción, ya sea con una pletina de acero u otro elemento como la fibra de carbono, y por último el refuerzo con perfiles metálicos inferiores. Estos últimos han tenido un mayor desarrollo en los últimos años gracias a las patentes comerciales, de las cuales cabe destacar una serie de ventajas, así como señalar carencias generales que se presentan en todas ellas. El objetivo de este trabajo de fin de grado es el análisis del campo de validez de esta serie de métodos propuestos en el Cuaderno Puesta en carga en obras de refuerzo de hormigón sometidas a flexión, de José Miguel Ávila Jalvo y Miguel Ávila Nieto. En él se consideran los elementos sometidos a flexión, forjados de piso y vigas, de los que se supone una carencia en su capacidad resistente. De esta manera será posible indicar que solución es más propicia en cada situación.
Resumo:
Los sistemas de consolidación de bóvedas históricas han variado enormemente a lo largo del tiempo en función de la forma de entender la restauración arquitectónica en cada momento. Estos planteamientos están indudablemente ligados a la evolución de los materiales y sistemas constructivos por lo que en un principio se restauraba empleando piedra, madera, materiales cerámicos y morteros de cal. Esto dio lugar a sistemas de consolidación como el rejuntado o acuñado, las redistribuciones de las cargas o el atirantado, sistemas que no rigidizan en exceso la estructura y devuelven a las fábricas su comportamiento originario. A partir del s XIX aparecen nuevos materiales como el hormigón armado o acero, lo que supone un cambio de paradigma. Su capacidad resistente es muy superior a la de fábricas y morteros no cementicios, sin embargo a menudo la gran diferencia de rigideces supone la aparición de problemas derivados de estas incompatibilidades como los desprendimientos de la plementería no anclada o la pérdida del valor documental de los sistemas constructivos. Así, el optimismo inicial que supuso la aparición de estos nuevos materiales y sistemas dio paso a duras críticas, surgiendo la necesidad de encontrar otros que permitiesen consolidar las bóvedas cuando los daños son graves y a la vez tuviesen en consideración la suma de componentes históricos, tecnológicos, materiales y culturales. Aparecen entonces tanto el “arco armado” como la “devolución de la forma” gracias a la comprensión de la manera de trabajar de las estructuras históricas. Por ello son sistemas coherentes que preservan el valor documental de sus sistemas constructivos al no ser alterados
Resumo:
La presente tesis doctoral surge ante la necesidad de completar el estudio sobre la corrosión en el hormigón armado expuesto al ambiente marino iniciado por D. Miguel Ángel Bermúdez Odriozola en 2007 con la tesis doctoral con título “Corrosión de las armaduras del hormigón armado en ambiente marino: zona de carrera de mareas y zona sumergida”. Una vez realizado el estudio bibliográfico, se ha planteado un estudio experimental en el que se analizan cuatro muelles de distintas edades y localizados en distintos lugares de la geografía española. Uno de ellos contiene adiciones en el hormigón. Una vez inspeccionados, se extraen testigos de cada uno de ellos con el fin de realizar ensayos de caracterización y se analizan sus resultados en paralelo con los coeficientes de difusión. Uno se los objetivos ha sido comprobar el mejor método de ensayo que permita controlar la durabilidad del hormigón en ambiente IIIa. La tesis que se presenta ha demostrado la efectividad del ensayo de penetración de agua para discriminar los hormigones que presentarán un buen comportamiento frente a la difusión de cloruros y por tanto para predecir la vida útil de la estructura. Asimismo, otro objetivo ha sido valorar el uso de adiciones en el hormigón y cómo afectan a la mejora del comportamiento del hormigón expuesto al ambiente marino. Se han obtenido valores del coeficiente de eficacia de cenizas volantes y humo de sílice frente a la difusión de cloruros, muy superiores a los actualmente considerados en términos de resistencia. El ambiente marino aéreo engloba estructuras situadas en primera línea de costa así como aquellas que se sitúan hasta 5km de distancia de la línea del mar. La investigación realizada ha demostrado la necesidad de establecer una nueva subdivisión en este ambiente introduciendo la zona Spray, siguiendo criterios internacionales, que permita diferenciar la zona más desfavorable del mismo que comprende las estructuras ubicadas sobre el nivel del mar tal como los tableros de pantalanes portuarios estudiados. Se han analizado en profundidad los valores del contenido de cloruros en superficie de hormigón en los diferentes tipos de ambiente marino recogidos por la Instrucción EHE- 08 contrastando los requisitos normativos. Como conclusión se han hecho nuevas propuestas normativas que afectan al ambiente sumergido y al ambiente marino aéreo (zona spray). Asimismo se ha realizado un análisis en profundidad de la concentración crítica de cloruros recogida por la Instrucción EHE-08, a partir de los datos obtenidos en estructuras reales. Se ha evaluado el ensayo de resistividad para estimar el valor del coeficiente de difusión de cloruros. Este ensayo ha demostrado su efectividad para discriminar hormigones con adiciones y con muy baja penetración de agua, si bien no resulta sensible para detectar hormigones con elevada permeabilidad. Finalmente en la tesis se ha obtenido un modelo de difusión de cloruros (a/c-D) en ambiente marino aéreo a fin de poder estimar la difusión de cloruros en el hormigón a partir de un requisito normativo como es la relación a/c. This Thesis is focussed to complete the previous study on the corrosion of reinforced concrete exposed to marine environment, carried out by Dr. Miguel Ángel Bermúdez Odrizola in 2007. That Thesis title was “Corrosion of concrete reinforcement located in marine environment: tidal zone and submerged zone”. After the literature review presented in the State of the Art, an experimental programme was carried out. Four docks of different ages and locations have been studied, one of them was a fly ash concrete. The structures were inspected on site and several cores extracted in order to develop characterization tests and obtain diffusion profiles at the laboratory. One of the objectives has been to check the best laboratory test method to control concrete durability when exposed to atmospheric marine environment. This Thesis has proven the effectiveness of the water penetration test to differentiate concretes well behaved against chloride diffusion and also to predict the structure service life. Another objective has been to study the effect of mineral additions in concrete and how they improve the durability of concrete in this environment. Efficiency factors have been obtained for fly ashes and silica fume, much higher than those consider for strength. According to the Spanish Concrete Code EHE 08, the atmospheric marine environment includes structures located at the cost, from the sea line up to 5km inland. The research conducted has shown the need to consider a spray zone which is the most unfavourable area of the atmospheric environment, affecting structures over the sea level as the decks of the wharves here studied. Surface chloride contents of structures in the different marine environments have been deeply analysed, checking the actual standard limits. As a conclusion, new normative values have been proposed for submerged and atmospheric zone (spray zone). A complete analysis of the chloride threshold concentration from the data obtained in real structures has also been performed. It has been evaluated the resistivity test as a tool to estimate the chloride diffusion coefficient. This test has proven effectiveness to discriminate concrete with mineral additions and low water penetration values, while it is not sensitive to detect concretes with high permeability. Finally, a chloride diffusion model (w/c) has been obtained in atmospheric marine environment in order to estimate the chloride diffusion of the concrete knowing a normative requirement as w/c.
Resumo:
Los adhesivos se conocen y han sido utilizados en multitud de aplicaciones a lo lago de la historia. En la actualidad, la tecnología de la adhesión como método de unión de materiales estructurales está en pleno crecimiento. Los avances científicos han permitido comprender mejor los fenómenos de adhesión, así como, mejorar y desarrollar nuevas formulaciones poliméricas que incrementan el rango de aplicaciones de los adhesivos. Por otro lado, el desarrollo de nuevos materiales y la necesidad de aligerar peso, especialmente en el sector transporte, hace que las uniones adhesivas se introduzcan en aplicaciones hasta ahora reservadas a otros sistemas de unión como la soldadura o las uniones mecánicas, ofreciendo rendimientos similares y, en ocasiones, superiores a los aportados por estas. Las uniones adhesivas ofrecen numerosas ventajas frente a otros sistemas de unión. En la industria aeronáutica y en automoción, las uniones adhesivas logran una reducción en el número de componentes (tales como los tornillos, remaches, abrazaderas) consiguiendo como consecuencia diseños más ligeros y una disminución de los costes de manipulación y almacenamiento, así como una aceleración de los procesos de ensamblaje, y como consecuencia, un aumento de los procesos de producción. En el sector de la construcción y en la fabricación de equipos industriales, se busca la capacidad para soportar la expansión y contracción térmica. Por lo tanto, se usan las uniones adhesivas para evitar producir la distorsión del sustrato al no ser necesario el calentamiento ni la deformación de las piezas cuando se someten a un calentamiento elevado y muy localizado, como en el caso de la soldadura, o cuando se someten a esfuerzos mecánicos localizados, en el caso de montajes remachados. En la industria naval, se están desarrollando técnicas de reparación basadas en la unión adhesiva para distribuir de forma más uniforme y homogénea las tensiones con el objetivo de mejorar el comportamiento frente a fatiga y evitar los problemas asociados a las técnicas de reparación habituales de corte y soldadura. Las uniones adhesivas al no requerir importantes aportes de calor como la soldadura, no producen modificaciones microestructurales indeseables como sucede en la zona fundida o en la zona afectada térmicamente de las uniones soldadas, ni deteriora los recubrimientos protectores de metales de bajo punto de fusión o de naturaleza orgánica. Sin embargo, las uniones adhesivas presentan una desventaja que dificulta su aplicación, se trata de su durabilidad a largo plazo. La primera causa de rotura de los materiales es la rotura por fatiga. Este proceso de fallo es la causa del 85% de las roturas de los materiales estructurales en servicio. La rotura por fatiga se produce cuando se somete al material a la acción de cargas que varían cíclicamente o a vibraciones durante un tiempo prolongado. Las uniones y estructuras sometidas a fatiga pueden fallar a niveles de carga por debajo del límite de resistencia estática del material. La rotura por fatiga en las uniones adhesivas no se produce por un proceso de iniciación y propagación de grieta de forma estable, el proceso de fatiga va debilitando poco a poco la unión hasta que llega un momento que provoca una rotura de forma rápida. Underhill explica este mecanismo como un proceso de daño irreversible de los enlaces más débiles en determinados puntos de la unión. Cuando se ha producido el deterioro de estas zonas más débiles, su área se va incrementando hasta que llega un momento en que la zona dañada es tan amplia que se produce el fallo completo de la unión. En ensayos de crecimiento de grieta realizados sobre probetas preagrietadas en viga con doble voladizo (DCB), Dessureault identifica los procesos de iniciación y crecimiento de grietas en muestras unidas con adhesivo epoxi como una acumulación de microfisuras en la zona próxima al fondo de grieta que, luego, van coalesciendo para configurar la grieta principal. Lo que supone, igualmente, un proceso de daño del adhesivo en la zona de mayor concentración de tensiones que, posteriormente, conduce al fallo de la unión. La presente tesis surge con el propósito de aumentar los conocimientos existentes sobre el comportamiento a fatiga de las uniones adhesivas y especialmente las realizadas con dos tipos de adhesivos estructurales aplicados en aceros con diferentes acabados superficiales. El estudio incluye la obtención de las curvas de tensión frente al número de ciclos hasta el fallo del componente, curvas SN o curvas de Wöhler, que permitirán realizar una estimación de la resistencia a la fatiga de un determinado material o estructura. Los ensayos de fatiga realizados mediante ciclos predeterminados de carga sinusoidales, de amplitud y frecuencia constantes, han permitido caracterizar el comportamiento a la fatiga por el número de ciclos hasta la rotura, siendo el límite de fatiga el valor al que tiende la tensión cuando el número de ciclos es muy grande. En algunos materiales, la fatiga no tiende a un valor límite sino que decrece de forma constante a medida que aumenta el número de ciclos. Para estas situaciones, se ha definido la resistencia a la fatiga (o límite de resistencia) por la tensión en que se produce la rotura para un número de ciclos predeterminado. Todos estos aspectos permitirán un mejor diseño de las uniones y las condiciones de trabajo de los adhesivos con el fin de lograr que la resistencia a fatiga de la unión sea mucho más duradera y el comportamiento total de la unión sea mucho mejor, contribuyendo al crecimiento de la utilización de las uniones adhesivas respecto a otras técnicas. ABSTRACT Adhesives are well-known and have been used in many applications throughout history. At present, adhesion bonding technology of structural materials is experiencing an important growth. Scientific advances have enabled a better understanding of the phenomena of adhesion, as well as to improve and develop new polymeric formulations that increase the range of applications. On the other hand, the development of new materials and the need to save weight, especially in the transport sector, have promote the use of adhesive bonding in many applications previously reserved for other joining technologies such as welded or mechanical joints, presenting similar or even higher performances. Adhesive bonding offers many advantages over other joining methods. For example, in the aeronautic industry and in the automation sector, adhesive bonding allows a reduction in the number of components (such as bolts, rivets, clamps) and as consequence, resulting in lighter designs and a decrease in handling and storage costs, as well as faster assembly processes and an improvement in the production processes. In the construction sector and in the industrial equipment manufacturing, the ability to withstand thermal expansion and contraction is required. Therefore, adhesion bonding technology is used to avoid any distortion of the substrate since this technology does not require heating nor the deformation of the pieces when these are exposed to very high and localized heating, as in welding, or when are subjected to localized mechanical stresses in the case of riveted joints. In the naval industry, repair techniques based in the adhesive bonding are being developed in order to distribute stresses more uniform and homogeneously in order to improve the performance against fatigue and to avoid the problems associated with standard repair techniques as cutting and welding. Adhesive bonding does not require the use of high temperatures and as consequence they do not produce undesirable microstructural changes, as it can be observed in molten zones or in heat-affected zones in the case of welding, neither is there damage of the protective coating of metals with low melting points or polymeric films. However, adhesive bonding presents a disadvantage that limits its application, the low longterm durability. The most common cause of fractures of materials is fatigue fracture. This failure process is the cause of 85% of the fracture of structural materials in service. Fatigue failure occurs when the materials are subjected to the action of cyclic loads or vibrations for a long period of time. The joints and structures subjected to fatigue can fail at stress values below the static strength of the material. Fatigue failure do not occurs by a static and homogeneous process of initiation and propagation of crack. The fatigue process gradually weakens the bond until the moment in which the fracture occurs very rapidly. Underhill explains this mechanism as a process of irreversible damage of the weakest links at certain points of the bonding. When the deterioration in these weaker zones occurs, their area increase until the damage zone is so extensive that the full failure of the joint occurs. During the crack growth tests performed on precracked double-cantilever beam specimen, (DCB), Dessureault identified the processes of crack initiation and growth in samples bonded with epoxy adhesive as a process of accumulation of microcracks on the zone near the crack bottom, then, they coalesced to configure the main crack. This is a damage process of the adhesive in the zone of high stress concentration that leads to failure of the bond. This thesis aims to further the understanding of the fatigue behavior of the adhesive bonding, primarily those based on two different types of structural adhesives used on carbon-steel with different surface treatments. This memory includes the analysis of the SN or Wöhler curves (stress vs. number of cycles curves up to the failure), allowing to carry out an estimation of the fatigue strength of a specific material or structure. The fatigue tests carried out by means of predetermined cycles of sinusoidal loads, with a constant amplitude and frequency, allow the characterisation of the fatigue behaviour. For some materials, there is a maximum stress amplitude below which the material never fails for any number of cycles, known as fatigue limit. In the other hand, for other materials, the fatigue does not tend toward a limit value but decreases constantly as the number of cycles increases. For these situations, the fatigue strength is defined by the stress at which the fracture occurs for a predetermined number of cycles. All these aspects will enable a better joint design and service conditions of adhesives in order to get more durable joints from the fatigue failure point of view and in this way contribute to increase the use of adhesive bonding over other joint techniques.
Resumo:
El rápido desarrollo industrial y el crecimiento de la población en cada país conllevan a la disposición de obras o edificaciones para satisfacer las necesidades; de vivienda, de vías de comunicación o de instalaciones industriales entre otras. Para la construcción de obras se plantean posibles sistemas de cimentación que incluyen; zapatas o losas de hormigón armado cuando superficialmente el terreno es competente y pilotes o sistema placa pilotes de hormigón armado cuando el terreno superficial es poco competente. Las cimentaciones por pilotes o definidas como profundas cuando L/D>6, se han construido en diferentes tipologías de materiales como madera, acero y hormigón armado, de secciones circulares, rectangulares, anulares y tipo H y de forma de inclusión en el terreno como hincados y Excavados a veces estos últimos también llamados preexcavados. Cada aspecto anterior en un diseño aborda consideraciones y restricciones, las cuales han sido definidas por la mecánica de suelos, la experiencia o por ensayos característicos, y que en cierta forma inciden en el procedimiento para determinar la carga de hundimiento o carga en el pilote equivalente a la resistencia ultima del terreno. En la literatura técnica existen muchos procedimientos para determinar la carga de hundimiento de cimentaciones profundas con pilotes. Estos procedimientos se definen en artículos, guías, manuales o normas. Entre todas ellas se seleccionarán algunas y para cada una de ellas se identificará cual es el enfoque, que parámetros son más representativos, cuales son las limitaciones o si se definen dentro de la misma norma otros procedimientos alternativos que se basan en resultados de otros ensayos característicos en geotecnia. Por tanto, el objeto del trabajo tiene como alcance comparar los distintos procedimientos de determinación de carga de hundimiento que vienen recogidos en las normas de mayor difusión en España y el manual del INVÍAS de Colombia. Las diferencias de cada uno de los procedimientos definidos en esta investigación se representarán analizando un ejemplo teórico y realizando graficas que muestren claramente las diferencias entre uno y otro. La estructura del trabajo se divide en cuatro fases, la primera la revisión bibliográfica y estado del arte, la segunda el análisis normativo y la determinación de la carga de hundimiento para un ejemplo teórico, con las diferentes metodologías definidas en Código Técnico de Edificación (CTE 2007), Guía de cimentaciones de obras de carreteras (GCOC 2003), Recomendaciones para Obras Marítimas (ROM 0.5‐5) y Manual de Cimentaciones superficiales y profundas – Colombia 2012, en la tercera etapa se indica los resultados y evaluación de las metodologías establecidas en valores de resistencia por punta, por fuste o resistencia global, y en la cuarta y última etapa se presentan las conclusiones y recomendaciones. De la revisión bibliográfica enmarcada en el capítulo 1 se obtuvieron buenas referencias sobre metodologías de cálculo, en este capítulo se mencionan y se presentan los aspectos básicos, y consideraciones más relevantes. La normatividad Europea enfatiza los criterios de cálculo en base a resultados de ensayos de campo adecuados como el CPTU (por sus siglas en inglés Cone Penetration Test with Pressure water Underground) y el presiómetro, ya que se obtiene valores en condiciones reales y no de modelos de laboratorio, lamentablemente en países en vías de desarrollo el temor a uso de estos métodos es básicamente por falta de experiencia y costo de los mismos. La optimización de los diseños de construcción de obras civiles permite reducir costos de ejecución y materiales, y estará siempre ligado a un buen control de ensayos sobre el suelo como de procedimientos de ejecución. La validez de los métodos solo será definida por el estado del arte, el tipo de suelo, el tipo de estructura, y en cada nuevo proyecto se deberá tener como mínimo esta información de cimentaciones regionales. Las normas definidas colocan en consideración varios métodos y de alguna forma proponen recomendaciones de diseño para reducir los posibles errores, esto puede lograrse al realizar los análisis por lo menos por un método analítico y por uno empírico. Lo anterior conlleva a que la exploración geotécnica sea redundante pero precisa.
Resumo:
Los criterios de dimensionamiento en tableros de hormigón pretensado están claramente establecidos para sistemas de pretensado convencional adherente o no, interior o exterior a la losa del tablero así como para sistemas de atirantamiento convencionales. Pero no para sistemas de atirantamiento no convencional como los puentes de atirantamiento extradosado. Con la realización de este trabajo, se pretende llegar a unos criterios de dimensionamiento en Estado Límite de Servicio (ELS), analizando los criterios de dimensionamiento ya existentes en sistemas de atirantamiento convencional, estableciendo las bases para su generalización al sistema de atirantamiento extradosado. El desarrollo del presente proyecto comenzará con una breve introducción sobre los sistemas estructurales con cables y tirantes, explicando sus características y comportamientos estructurales y dará paso al desarrollo del proyecto, utilizando para dicho estudio la modelización de un puente atirantado y otro dos extradosados, uno cuyos tirantes soportarán el 100% de la carga permanente mientras que en el otro soportarán el 60%. Se ha utilizado el programa de elementos finitos SAP 2000 v.17 para su modelación. Para llegar al dimensionamiento óptimo del puente extradosado, se han llevado a cabo diferentes cálculos para el predimensionamiento del pretensado, el efecto de la fluencia y el dimensionamiento final del pretensado. Llegando finalmente al coste que supondría el acero de cada una de las tipologías estudiadas.
Resumo:
El objeto principal de este trabajo de investigación ha sido determinar si la relación de resistencias entre pilar y viga de valor 1.3, como es por ejemplo el fijado por el Eurocódigo, es suficiente para garantizar un mecanismo de columna fuerte viga débil y por lo tanto un correcto trabajo en el rango inelástico de la estructura. A este respecto y de acuerdo a la escasa literatura especializada al respecto, algunos autores tales como Paulay y Priestly (1992) o Kuntz y Browing (2003), hablan de alcanzar valores de hasta 1.8 los primeros, o valores de hasta cuatro para edificios de hasta 16 platas los segundos. En este trabajo se ha realizado un estudio paramétrico sobre una tipología estructural convencional de pórticos de hormigón armado. Para ello se ha diseñado cuatro prototipos en forma de pórticos planos con 3, 6, 9 y 12 plantas. Mediante el programa de la Universidad de Buffalo del Estado de Nueva York llamado IDARC, se ha realizado un análisis dinámico en el tiempo para los cuatro prototipos, con un catálogo de un total de 28 sismos, registrados en Europa. El programa IDARC permite la realización de un análisis en el que se tiene en cuenta factores como la no-linealidad de los materiales o las reglas histeréticas que se pretende aplicar al modelo. Los resultados del programa aportaran si con la relación de resistencia pilar-viga de 1.3, se consigue un comportamiento tipo columna fuerte viga débil.
Resumo:
El empleo de refuerzos de FRP en vigas de hormigón armado es cada vez más frecuente por sus numerosas ventajas frente a otros métodos más tradicionales. Durante los últimos años, la técnica FRP-NSM, consistente en introducir barras de FRP sobre el recubrimiento de una viga de hormigón, se ha posicionado como uno de los mejores métodos de refuerzo y rehabilitación de estructuras de hormigón armado, tanto por su facilidad de montaje y mantenimiento, como por su rendimiento para aumentar la capacidad resistente de dichas estructuras. Si bien el refuerzo a flexión ha sido ampliamente desarrollado y estudiado hasta la fecha, no sucede lo mismo con el refuerzo a cortante, debido principalmente a su gran complejidad. Sin embargo, se debería dedicar más estudio a este tipo de refuerzo si se pretenden conservar los criterios de diseño en estructuras de hormigón armado, los cuales están basados en evitar el fallo a cortante por sus consecuencias catastróficas Esta ausencia de información y de normativa es la que justifica esta tesis doctoral. En este pro-yecto se van a desarrollar dos metodologías alternativas, que permiten estimar la capacidad resistente de vigas de hormigón armado, reforzadas a cortante mediante la técnica FRP-NSM. El primer método aplicado consiste en la implementación de una red neuronal artificial capaz de predecir adecuadamente la resistencia a cortante de vigas reforzadas con este método a partir de experimentos anteriores. Asimismo, a partir de la red se han llevado a cabo algunos estudios a fin de comprender mejor la influencia real de algunos parámetros de la viga y del refuerzo sobre la resistencia a cortante con el propósito de lograr diseños más seguros de este tipo de refuerzo. Una configuración óptima de la red requiere discriminar adecuadamente de entre los numerosos parámetros (geométricos y de material) que pueden influir en el compor-tamiento resistente de la viga, para lo cual se han llevado a cabo diversos estudios y pruebas. Mediante el segundo método, se desarrolla una ecuación de proyecto que permite, de forma sencilla, estimar la capacidad de vigas reforzadas a cortante con FRP-NSM, la cual podría ser propuesta para las principales guías de diseño. Para alcanzar este objetivo, se plantea un pro-blema de optimización multiobjetivo a partir de resultados de ensayos experimentales llevados a cabo sobre vigas de hormigón armado con y sin refuerzo de FRP. El problema multiobjetivo se resuelve mediante algoritmos genéticos, en concreto el algoritmo NSGA-II, por ser más apropiado para problemas con varias funciones objetivo que los métodos de optimización clásicos. Mediante una comparativa de las predicciones realizadas con ambos métodos y de los resulta-dos de ensayos experimentales se podrán establecer las ventajas e inconvenientes derivadas de la aplicación de cada una de las dos metodologías. Asimismo, se llevará a cabo un análisis paramétrico con ambos enfoques a fin de intentar determinar la sensibilidad de aquellos pa-rámetros más sensibles a este tipo de refuerzo. Finalmente, se realizará un análisis estadístico de la fiabilidad de las ecuaciones de diseño deri-vadas de la optimización multiobjetivo. Con dicho análisis se puede estimar la capacidad resis-tente de una viga reforzada a cortante con FRP-NSM dentro de un margen de seguridad espe-cificado a priori. ABSTRACT The use of externally bonded (EB) fibre-reinforced polymer (FRP) composites has gained acceptance during the last two decades in the construction engineering community, particularly in the rehabilitation of reinforced concrete (RC) structures. Currently, to increase the shear resistance of RC beams, FRP sheets are externally bonded (EB-FRP) and applied on the external side surface of the beams to be strengthened with different configurations. Of more recent application, the near-surface mounted FRP bar (NSM-FRP) method is another technique successfully used to increase the shear resistance of RC beams. In the NSM method, FRP rods are embedded into grooves intentionally prepared in the concrete cover of the side faces of RC beams. While flexural strengthening has been widely developed and studied so far, the same doesn´t occur to shearing strength mainly due to its great complexity. Nevertheless, if design criteria are to be preserved more research should be done to this sort of strength, which are based on avoiding shear failure and its catastrophic consequences. However, in spite of this, accurately calculating the shear capacity of FRP shear strengthened RC beams remains a complex challenge that has not yet been fully resolved due to the numerous variables involved in the procedure. The objective of this Thesis is to develop methodologies to evaluate the capacity of FRP shear strengthened RC beams by dealing with the problem from a different point of view to the numerical modeling approach by using artificial intelligence techniques. With this purpose two different approaches have been developed: one concerned with the use of artificial neural networks and the other based on the implementation of an optimization approach developed jointly with the use of artificial neural networks (ANNs) and solved with genetic algorithms (GAs). With these approaches some of the difficulties concerned regarding the numerical modeling can be overcome. As an alternative tool to conventional numerical techniques, neural networks do not provide closed form solutions for modeling problems but do, however, offer a complex and accurate solution based on a representative set of historical examples of the relationship. Furthermore, they can adapt solutions over time to include new data. On the other hand, as a second proposal, an optimization approach has also been developed to implement simple yet accurate shear design equations for this kind of strengthening. This approach is developed in a multi-objective framework by considering experimental results of RC beams with and without NSM-FRP. Furthermore, the results obtained with the previous scheme based on ANNs are also used as a filter to choose the parameters to include in the design equations. Genetic algorithms are used to solve the optimization problem since they are especially suitable for solving multi-objective problems when compared to standard optimization methods. The key features of the two proposed procedures are outlined and their performance in predicting the capacity of NSM-FRP shear strengthened RC beams is evaluated by comparison with results from experimental tests and with predictions obtained using a simplified numerical model. A sensitivity study of the predictions of both models for the input parameters is also carried out.
Resumo:
Radon gas (Rn) is a natural radioactive gas present in some soils and able to penetrate buildings through the building envelope in contact with the soil. Radon can accumulate within buildings and consequently be inhaled by their occupants. Because it is a radioactive gas, its disintegration process produces alpha particles that, in contact with the lung epithelia, can produce alterations potentially giving rise to cancer. Many international organizations related to health protection, such as WHO, confirm this causality. One way to avoid the accumulation of radon in buildings is to use the building envelope as a radon barrier. The extent to which concrete provides such a barrier is described by its radon diffusion coefficient (DRn), a parameter closely related to porosity (ɛ) and tortuosity factor (τ). The measurement of the radon diffusion coefficient presents challenges, due to the absence of standard procedures, the requirement to establish adequate airtightness in testing apparatus (referred to here as the diffusion cell), and due to the fact that measurement has to be carried out in an environment certified for use of radon calibrated sources. In addition to this calibrated radon sources are costly. The measurement of the diffusion coefficient for non-radioactive gas is less complex, but nevertheless retains a degree of difficulty due to the need to provide reliably airtight apparatus for all tests. Other parameters that can characterize and describe the process of gas transport through concrete include the permeability coefficient (K) and the electrical resistivity (ρe), both of which can be measured relatively easily with standardized procedure. The use of these parameters would simplify the characterization of concrete behaviour as a radon barrier. Although earlier studies exist, describing correlation among these parameters, there is, as has been observed in the literature, little common ground between the various research efforts. For precisely this reason, prior to any attempt to measure radon diffusion, it was deemed necessary to carry out further research in this area, as a foundation to the current work, to explore potential relationships among the following parameters: porosity-tortuosity, oxygen diffusion coefficient, permeability coefficient and resistivity. Permeability coefficient measurement (m2) presents a more straightforward challenge than diffusion coefficient measurement. Some authors identify a relationship between both coefficients, including Gaber (1988), who proposes: k= a•Dn Equation 1 Where: a=A/(8ΠD020), A = sample cross-section, D020 = diffusion coefficient in air (m2/s). Other studies (Klink et al. 1999, Gaber and Schlattner 1997, Gräf and Grube et al. 1986), experimentally relate both coefficients of different types of concrete confirming that this relationship exists, as represented by the simplified expression: k≈Dn Equation 2 In each particular study a different value for n was established, varying from 1.3 to 2.5, but this requires determination of a value for n in a more general way because these proposed models cannot estimate diffusion coefficient. If diffusion coefficient has to be measured to be able to establish n, these relationships are not interesting. The measurement of electric resistivity is easier than diffusion coefficient measurement. Correlation between the parameters can be established via Einstein´s law that relates movement of electrical charges to media conductivity according to the expression: D_e=k/ρ Equation 3 Where: De = diffusion coefficient (cm2/s), K = constant, ρ = electric resistivity (Ω•cm). The tortuosity factor is used to represent the uneven geometry of concrete pores, which are described as being not straight, but tortuous. This factor was first introduced in the literature to relate global porosity with fluid transport in a porous media, and can be formulated in a number of different ways. For example, it can take the form of equation 4 (Mason y Malinauskas), which combines molecular and Knudsen diffusion using the tortuosity factor: D=ε^τ (3/2r √(πM/8RT+1/D_0 ))^(-1) Equation 4 Where: r = medium radius obtained from MIP (µm), M = gas molecular mass, R = ideal gases constant, T = temperature (K), D0 = coefficient diffusion in the air (m2/s). Few studies provide any insight as to how to obtain the tortuosity factor. The work of Andrade (2012) is exceptional in this sense, as it outlines how the tortuosity factor can be deduced from pore size distribution (from MIP) from the equation: ∅_th=∅_0•ε^(-τ). Equation 5 Where: Øth = threshold diameter (µm), Ø0 = minimum diameter (µm), ɛ = global porosity, τ = tortuosity factor. Alternatively, the following equation may be used to obtain the tortuosity factor: DO2=D0*ɛτ Equation 6 Where: DO2 = oxygen diffusion coefficient obtained experimentally (m2/s), DO20 = oxygen diffusion coefficient in the air (m2/s). This equation has been inferred from Archie´s law ρ_e=〖a•ρ〗_0•ɛ^(-m) and from the Einstein law mentioned above, using the values of oxygen diffusion coefficient obtained experimentally. The principal objective of the current study was to establish correlations between the different parameters that characterize gas transport through concrete. The achievement of this goal will facilitate the assessment of the useful life of concrete, as well as open the door to the pro-active planning for the use of concrete as a radon barrier. Two further objectives were formulated within the current study: 1.- To develop a method for measurement of gas coefficient diffusion in concrete. 2.- To model an analytic estimation of radon diffusion coefficient from parameters related to concrete porosity and tortuosity factor. In order to assess the possible correlations, parameters have been measured using the standardized procedures or purpose-built in the laboratory for the study of equations 1, 2 y 3. To measure the gas diffusion coefficient, a diffusion cell was designed and manufactured, with the design evolving over several cycles of research, leading ultimately to a unit that is reliably air tight. The analytic estimation of the radon diffusion coefficient DRn in concrete is based on concrete global porosity (ɛ), whose values may be experimentally obtained from a mercury intrusion porosimetry test (MIP), and from its tortuosity factor (τ), derived using the relations expressed in equations 5 y 6. The conclusions of the study are: Several models based on regressions, for concrete with a relative humidity of 50%, have been proposed to obtain the diffusion coefficient following the equations K=Dn, K=a*Dn y D=n/ρe. The final of these three relations is the one with the determination coefficient closest to a value of 1: D=(19,997*LNɛ+59,354)/ρe Equation 7 The values of the obtained oxygen diffusion coefficient adjust quite well to those experimentally measured. The proposed method for the measurement of the gas coefficient diffusion is considered to be adequate. The values obtained for the oxygen diffusion coefficient are within the range of those proposed by the literature (10-7 a 10-8 m2/s), and are consistent with the other studied parameters. Tortuosity factors obtained using pore distribution and the expression Ø=Ø0*ɛ-τ are inferior to those from resistivity ρ=ρ0*ɛ-τ. The closest relationship to it is the one with porosity of pore diameter 1 µm (τ=2,07), being 7,21% inferior. Tortuosity factors obtained from the expression DO2=D0*ɛτ are similar to those from resistivity: for global tortuosity τ=2,26 and for the rest of porosities τ=0,7. Estimated radon diffusion coefficients are within the range of those consulted in literature (10-8 a 10-10 m2/s).ABSTRACT El gas radón (Rn) es un gas natural radioactivo presente en algunos terrenos que puede penetrar en los edificios a través de los cerramientos en contacto con el mismo. En los espacios interiores se puede acumular y ser inhalado por las personas. Al ser un gas radioactivo, en su proceso de desintegración emite partículas alfa que, al entrar en contacto con el epitelio pulmonar, pueden producir alteraciones del mismo causando cáncer. Muchos organismos internacionales relacionados con la protección de la salud, como es la OMS, confirman esta causalidad. Una de las formas de evitar que el radón penetre en los edificios es utilizando las propiedades de barrera frente al radón de su propia envolvente en contacto con el terreno. La principal característica del hormigón que confiere la propiedad de barrera frente al radón cuando conforma esta envolvente es su permeabilidad que se puede caracterizar mediante su coeficiente de difusión (DRn). El coeficiente de difusión de un gas en el hormigón es un parámetro que está muy relacionado con su porosidad (ɛ) y su tortuosidad (τ). La medida del coeficiente de difusión del radón resulta bastante complicada debido a que el procedimiento no está normalizado, a que es necesario asegurar una estanquidad a la celda de medida de la difusión y a que la medida tiene que ser realizada en un laboratorio cualificado para el uso de fuentes de radón calibradas, que además son muy caras. La medida del coeficiente de difusión de gases no radioactivos es menos compleja, pero sigue teniendo un alto grado de dificultad puesto que tampoco está normalizada, y se sigue teniendo el problema de lograr una estanqueidad adecuada de la celda de difusión. Otros parámetros que pueden caracterizar el proceso son el coeficiente de permeabilidad (K) y la resistividad eléctrica (ρe), que son más fáciles de determinar mediante ensayos que sí están normalizados. El uso de estos parámetros facilitaría la caracterización del hormigón como barrera frente al radón, pero aunque existen algunos estudios que proponen correlaciones entre estos parámetros, en general existe divergencias entre los investigadores, como se ha podido comprobar en la revisión bibliográfica realizada. Por ello, antes de tratar de medir la difusión del radón se ha considerado necesario realizar más estudios que puedan clarificar las posibles relaciones entre los parámetros: porosidad-tortuosidad, coeficiente de difusión del oxígeno, coeficiente de permeabilidad y resistividad. La medida del coeficiente de permeabilidad (m2) es más sencilla que el de difusión. Hay autores que relacionan el coeficiente de permeabilidad con el de difusión. Gaber (1988) propone la siguiente relación: k= a•Dn Ecuación 1 En donde: a=A/(8ΠD020), A = sección de la muestra, D020 = coeficiente de difusión en el aire (m2/s). Otros estudios (Klink et al. 1999, Gaber y Schlattner 1997, Gräf y Grube et al. 1986) relacionan de forma experimental los coeficientes de difusión de radón y de permeabilidad de distintos hormigones confirmando que existe una relación entre ambos parámetros, utilizando la expresión simplificada: k≈Dn Ecuación 2 En cada estudio concreto se han encontrado distintos valores para n que van desde 1,3 a 2,5 lo que lleva a la necesidad de determinar n porque no hay métodos que eviten la determinación del coeficiente de difusión. Si se mide la difusión ya deja de ser de interés la medida indirecta a través de la permeabilidad. La medida de la resistividad eléctrica es muchísimo más sencilla que la de la difusión. La relación entre ambos parámetros se puede establecer a través de una de las leyes de Einstein que relaciona el movimiento de cargas eléctricas con la conductividad del medio según la siguiente expresión: D_e=k/ρ_e Ecuación 3 En donde: De = coeficiente de difusión (cm2/s), K = constante, ρe = resistividad eléctrica (Ω•cm). El factor de tortuosidad es un factor de forma que representa la irregular geometría de los poros del hormigón, al no ser rectos sino tener una forma tortuosa. Este factor se introduce en la literatura para relacionar la porosidad total con el transporte de un fluido en un medio poroso y se puede formular de distintas formas. Por ejemplo se destaca la ecuación 4 (Mason y Malinauskas) que combina la difusión molecular y la de Knudsen utilizando el factor de tortuosidad: D=ε^τ (3/2r √(πM/8RT+1/D_0 ))^(-1) Ecuación 4 En donde: r = radio medio obtenido del MIP (µm), M = peso molecular del gas, R = constante de los gases ideales, T = temperatura (K), D0 = coeficiente de difusión de un gas en el aire (m2/s). No hay muchos estudios que proporcionen una forma de obtener este factor de tortuosidad. Destaca el estudio de Andrade (2012) en el que deduce el factor de tortuosidad de la distribución del tamaño de poros (curva de porosidad por intrusión de mercurio) a partir de la ecuación: ∅_th=∅_0•ε^(-τ) Ecuación 5 En donde: Øth = diámetro umbral (µm), Ø0 = diámetro mínimo (µm), ɛ = porosidad global, τ = factor de tortuosidad. Por otro lado, se podría utilizar también para obtener el factor de tortuosidad la relación: DO2=D0*-τ Ecuación 6 En donde: DO2 = coeficiente de difusión del oxígeno experimental (m2/s), DO20 = coeficiente de difusión del oxígeno en el aire (m2/s). Esta ecuación está inferida de la ley de Archie ρ_e=〖a•ρ〗_0•ɛ^(-m) y la de Einstein mencionada anteriormente, utilizando valores del coeficiente de difusión del oxígeno DO2 obtenidos experimentalmente. El objetivo fundamental de la tesis es encontrar correlaciones entre los distintos parámetros que caracterizan el transporte de gases a través del hormigón. La consecución de este objetivo facilitará la evaluación de la vida útil del hormigón así como otras posibilidades, como la evaluación del hormigón como elemento que pueda ser utilizado en la construcción de nuevos edificios como barrera frente al gas radón presente en el terreno. Se plantean también los siguientes objetivos parciales en la tesis: 1.- Elaborar una metodología para la medida del coeficiente de difusión de los gases en el hormigón. 2.- Plantear una estimación analítica del coeficiente de difusión del radón a partir de parámetros relacionados con su porosidad y su factor de tortuosidad. Para el estudio de las correlaciones posibles, se han medido los parámetros con los procedimientos normalizados o puestos a punto en el propio Instituto, y se han estudiado las reflejadas en las ecuaciones 1, 2 y 3. Para la medida del coeficiente de difusión de gases se ha fabricado una celda que ha exigido una gran variedad de detalles experimentales con el fin de hacerla estanca. Para la estimación analítica del coeficiente de difusión del radón DRn en el hormigón se ha partido de su porosidad global (ɛ), que se obtiene experimentalmente del ensayo de porosimetría por intrusión de mercurio (MIP), y de su factor de tortuosidad (τ), que se ha obtenido a partir de las relaciones reflejadas en las ecuaciones 5 y 6. Las principales conclusiones obtenidas son las siguientes: Se proponen modelos basados en regresiones, para un acondicionamiento con humedad relativa de 50%, para obtener el coeficiente de difusión del oxígeno según las relaciones: K=Dn, K=a*Dn y D=n/ρe. La propuesta para esta última relación es la que tiene un mejor ajuste con R2=0,999: D=(19,997*LNɛ+59,354)/ρe Ecuación 7 Los valores del coeficiente de difusión del oxígeno así estimados se ajustan a los obtenidos experimentalmente. Se considera adecuado el método propuesto de medida del coeficiente de difusión para gases. Los resultados obtenidos para el coeficiente de difusión del oxígeno se encuentran dentro del rango de los consultados en la literatura (10-7 a 10-8 m2/s) y son coherentes con el resto de parámetros estudiados. Los resultados de los factores de tortuosidad obtenidos de la relación Ø=Ø0*ɛ-τ son inferiores a la de la resistividad (ρ=ρ0*ɛ-τ). La relación que más se ajusta a ésta, siendo un 7,21% inferior, es la de la porosidad correspondiente al diámetro 1 µm con τ=2,07. Los resultados de los factores de tortuosidad obtenidos de la relación DO2=D0*ɛτ son similares a la de la resistividad: para la porosidad global τ=2,26 y para el resto de porosidades τ=0,7. Los coeficientes de difusión de radón estimados mediante estos factores de tortuosidad están dentro del rango de los consultados en la literatura (10-8 a 10-10 m2/s).
Resumo:
En este trabajo se aborda una cuestión central en el diseño en carga última de estructuras de hormigón armado y de fábrica: la posibilidad efectiva de que las deformaciones plásticas necesarias para verificar un estado de rotura puedan ser alcanzadas por las regiones de la estructura que deban desarrollar su capacidad última para verificar tal estado. Así, se parte de las decisiones de diseño que mediante mera estática aseguran un equilibrio de la estructura para las cargas últimas que deba resistir, pero determinando directamente el valor de las deformaciones necesarias para llegar a tal estado. Por tanto, no se acude a los teoremas de rotura sin más, sino que se formula el problema desde un punto de vista elastoplástico. Es decir, no se obvia el recorrido que la estructura deba realizar en un proceso de carga incremental monótono, de modo que las regiones no plastificadas contribuyen a coaccionar las libres deformaciones plásticas que, en la teoría de rotura, se suponen. En términos de trabajo y energía, se introduce en el balance del trabajo de las fuerzas externas y en el de la energía de deformación, aquella parte del sistema que no ha plastificado. Establecido así el balance energético como potencial del sistema es cuando la condición de estacionariedad del mismo hace determinados los campos de desplazamientos y, por tanto, el de las deformaciones plásticas también. En definitiva, se trata de un modo de verificar si la ductilidad de los diseños previstos es suficiente, y en qué medida, para verificar el estado de rotura previsto, para unas determinadas cargas impuestas. Dentro del desarrollo teórico del problema, se encuentran ciertas precisiones importantes. Entre ellas, la verificación de que el estado de rotura a que se llega de manera determinada mediante el balance energético elasto-plástico satisface las condiciones de la solución de rotura que los teoremas de carga última predicen, asegurando, por tanto, que la solución determinada -unicidad del problema elásticocoincide con el teorema de unicidad de la carga de rotura, acotando además cuál es el sistema de equilibrio y cuál es la deformada de colapso, aspectos que los teoremas de rotura no pueden asegurar, sino sólo el valor de la carga última a verificar. Otra precisión se basa en la particularidad de los casos en que el sistema presenta una superficie de rotura plana, haciendo infinitas las posibilidades de equilibrio para una misma deformada de colapso determinada, lo que está en la base de, aparentemente, poder plastificar a antojo en vigas y arcos. Desde el planteamiento anterior, se encuentra entonces que existe una condición inherente a cualquier sistema, definidas unas leyes constitutivas internas, que permite al mismo llegar al inicio del estado de rotura sin demandar deformación plástica alguna, produciéndose la plastificación simultánea de todas las regiones que hayan llegado a su solicitación de rotura. En cierto modo, se daría un colapso de apariencia frágil. En tal caso, el sistema conserva plenamente hasta el final su capacidad dúctil y tal estado actúa como representante canónico de cualquier otra solución de equilibrio que con idéntico criterio de diseño interno se prevea para tal estructura. En la medida que el diseño se acerque o aleje de la solución canónica, la demanda de ductilidad del sistema para verificar la carga última será menor o mayor. Las soluciones que se aparten en exceso de la solución canónica, no verificarán el estado de rotura previsto por falta de ductilidad: la demanda de deformación plástica de alguna región plastificada estará más allá de la capacidad de la misma, revelándose una carga de rotura por falta de ductilidad menor que la que se preveía por mero equilibrio. Para la determinación de las deformaciones plásticas de las rótulas, se ha tomado un modelo formulado mediante el Método de los Elementos de Contorno, que proporciona un campo continuo de desplazamientos -y, por ende, de deformaciones y de tensiones- incluso en presencia de fisuras en el contorno. Importante cuestión es que se formula la diferencia, nada desdeñable, de la capacidad de rotación plástica de las secciones de hormigón armado en presencia de cortante y en su ausencia. Para las rótulas de fábrica, la diferencia se establece para las condiciones de la excentricidad -asociadas al valor relativo de la compresión-, donde las diferencias entres las regiones plastificadas con esfuerzo normal relativo alto o bajo son reseñables. Por otro lado, si bien de manera un tanto secundaria, las condiciones de servicio también imponen un límite al diseño previo en carga última deseado. La plastificación lleva asociadas deformaciones considerables, sean locales como globales. Tal cosa impone que, en estado de servicio, si la plastificación de alguna región lleva asociadas fisuraciones excesivas para el ambiente del entorno, la solución sea inviable por ello. Asimismo, las deformaciones de las estructuras suponen un límite severo a las posibilidades de su diseño. Especialmente en edificación, las deformaciones activas son un factor crítico a la hora de decidirse por una u otra solución. Por tanto, al límite que se impone por razón de ductilidad, se debe añadir el que se imponga por razón de las condiciones de servicio. Del modo anterior, considerando las condiciones de ductilidad y de servicio en cada caso, se puede tasar cada decisión de diseño con la previsión de cuáles serán las consecuencias en su estado de carga última y de servicio. Es decir, conocidos los límites, podemos acotar cuáles son los diseños a priori que podrán satisfacer seguro las condiciones de ductilidad y de servicio previstas, y en qué medida. Y, en caso de no poderse satisfacer, qué correcciones debieran realizarse sobre el diseño previo para poderlas cumplir. Por último, de las consecuencias que se extraen de lo estudiado, se proponen ciertas líneas de estudio y de experimentación para poder llegar a completar o expandir de manera práctica los resultados obtenidos. ABSTRACT This work deals with a main issue for the ultimate load design in reinforced concrete and masonry structures: the actual possibility that needed yield strains to reach a ultimate state could be reached by yielded regions on the structure that should develop their ultimate capacity to fulfill such a state. Thus, some statically determined design decisions are posed as a start for prescribed ultimate loads to be counteracted, but finding out the determined value of the strains needed to reach the ultimate load state. Therefore, ultimate load theorems are not taken as they are, but a full elasto-plastic formulation point of view is used. As a result, the path the structure must develop in a monotonus increasing loading procedure is not neglected, leading to the fact that non yielded regions will restrict the supposed totally free yield strains under a pure ultimate load theory. In work and energy terms, in the overall account of external forces work and internal strain energy, those domains in the body not reaching their ultimate state are considered. Once thus established the energy balance of the system as its potential, by imposing on it the stationary condition, both displacements and yield strains appear as determined values. Consequently, what proposed is a means for verifying whether the ductility of prescribed designs is enough and the extent to which they are so, for known imposed loads. On the way for the theoretical development of the proposal, some important aspects have been found. Among these, the verification that the conditions for the ultimate state reached under the elastoplastic energy balance fulfills the conditions prescribed for the ultimate load state predicted through the ultimate load theorems, assuring, therefore, that the determinate solution -unicity of the elastic problemcoincides with the unicity ultimate load theorem, determining as well which equilibrium system and which collapse shape are linked to it, being these two last aspects unaffordable by the ultimate load theorems, that make sure only which is the value of the ultimate load leading to collapse. Another aspect is based on the particular case in which the yield surface of the system is flat -i.e. expressed under a linear expression-, turning out infinite the equilibrium possibilities for one determined collapse shape, which is the basis of, apparently, deciding at own free will the yield distribution in beams and arches. From the foresaid approach, is then found that there is an inherent condition in any system, once defined internal constitutive laws, which allows it arrive at the beginning of the ultimate state or collapse without any yield strain demand, reaching the collapse simultaneously for all regions that have come to their ultimate strength. In a certain way, it would appear to be a fragile collapse. In such a case case, the system fully keeps until the end its ductility, and such a state acts as a canonical representative of any other statically determined solution having the same internal design criteria that could be posed for the that same structure. The extent to which a design is closer to or farther from the canonical solution, the ductility demand of the system to verify the ultimate load will be higher or lower. The solutions being far in excess from the canonical solution, will not verify the ultimate state due to lack of ductility: the demand for yield strains of any yielded region will be beyond its capacity, and a shortcoming ultimate load by lack of ductility will appear, lower than the expected by mere equilibrium. For determining the yield strains of plastic hinges, a Boundary Element Method based model has been used, leading to a continuous displacement field -therefore, for strains and stresses as well- even if cracks on the boundary are present. An important aspect is that a remarkable difference is found in the rotation capacity between plastic hinges in reinforced concrete with or without shear. For masonry hinges, such difference appears when dealing with the eccentricity of axial forces -related to their relative value of compression- on the section, where differences between yield regions under high or low relative compressions are remarkable. On the other hand, although in a certain secondary manner, serviceability conditions impose limits to the previous ultimate load stated wanted too. Yield means always big strains and deformations, locally and globally. Such a thing imposes, for serviceability states, that if a yielded region is associated with too large cracking for the environmental conditions, the predicted design will be unsuitable due to this. Furthermore, displacements must be restricted under certain severe limits that restrain the possibilities for a free design. Especially in building structures, active displacements are a critical factor when chosing one or another solution. Then, to the limits due to ductility reasons, other limits dealing with serviceability conditions shoud be added. In the foresaid way, both considering ductility and serviceability conditions in every case, the results for ultimate load and serviceability to which every design decision will lead can be bounded. This means that, once the limits are known, it is possible to bound which a priori designs will fulfill for sure the prescribed ductility and serviceability conditions, and the extent to wich they will be fulfilled, And, in case they were not, which corrections must be performed in the previous design so that it will. Finally, from the consequences derived through what studied, several study and experimental fields are proposed, in order to achieve a completeness and practical expansion of the obtained results.
Resumo:
El atrio incorporado en los edificios ha sido un recurso espacial que tempranamente se difundió a nivel global, siendo adoptado por las distintas arquitecturas locales en gran parte del mundo. Su masificación estuvo favorecida primero por la rápida evolución de la tecnología del acero y el vidrio, a partir del siglo XIX, y en segundo termino por el posterior desarrollo del hormigón armado. Otro aspecto que explica tal aceptación en la arquitectura contemporánea, es de orden social y radica en la llamativa cavidad del espacio describiendo grandes dimensiones y favoreciendo con ello, el desarrollo de una multiplicidad de usos en su interior que antes eran impensados. Al interior del atrio, la luz natural es clave en las múltiples vivencias que alberga y sea tal vez la condición ambiental más valorada, ya que entrega una sensación de bienestar al conectarnos visualmente con el ambiente natural. Por esta razón de acuerdo al método hipotético deductivo, se evaluaron los efectos de la configuración geométrica, la cubierta y la orientación en el desempeño de la iluminación natural en la planta baja, a partir un modelo extraído desde el inventario de los edificios atrio construidos en Santiago de Chile, en los últimos 30 años que fue desarrollado en el capitulo 2. El análisis cuantitativo de los edificios inventariados se elaboró en el capítulo 3, considerando las dimensiones de los atrios. Simultáneamente fueron clasificados los aspectos constructivos, los materiales y las características del ambiente interior de cada edificio. En esta etapa además, fueron identificadas las variables de estudio de las proporciones geométricas de la cavidad del atrio con los coeficientes de aspecto de las proporciones, en planta (PAR), en corte (SAR) y de la cavidad según (WI), (AR) y (RI). Del análisis de todos estos parámetros se extrajo el modelo de prueba. El enfoque del estudio del capítulo 4 fue la iluminación natural, se revisaron los conceptos y el comportamiento en el atrio, a partir de un modelo físico construido a escala para registro de la iluminancia bajo cielo soleado de la ciudad. Más adelante se construyó el modelo en ambiente virtual, relacionando las variables determinadas por la geometría de la cavidad y el cerramiento superior; examinándose de esta manera distintas transparencias, proporciones de apertura, en definitiva se evaluó un progresivo cerramiento de las aberturas, verificando el ingreso de la luz y disponibilidad a nivel de piso con la finalidad, de proveer lineamientos útiles en una primera etapa del diseño arquitectónico. Para el análisis de la iluminación natural se revisaron diferentes métodos de cálculo con el propósito de evaluar los niveles de iluminancia en un plano horizontal al interior del atrio. El primero de ellos fue el Factor de Luz Día (FLD) que corresponde, a la proporción de la iluminancia en un punto de evaluación interior respecto, la cantidad proveniente del exterior bajo cielo nublado, a partir de la cual se obtuvo resultados que revelaron la alta luminosidad del cielo nublado de la ciudad. Además fueron evaluadas las recientes métricas dinámicas que dan cuenta, de la cantidad de horas en las cuales de acuerdo a los extensos registros meteorológico de la ciudad, permitieron obtener el porcentajes de horas dentro de las cuales se cumplió el estándar de iluminancia requerido, llamado autonomía lumínica (DA) o mejor aún se permanece dentro de un rango de comodidad visual en el interior del atrio referido a la iluminancia diurna útil (UDI). En el Capítulo 5 se exponen los criterios aplicados al modelo de estudio y cada una de las variantes de análisis, además se profundizó en los antecedentes y procedencia de las fuentes de los registros climáticos utilizados en las simulaciones llevadas a cabo en el programa Daysim operado por Radiance. Que permitieron evaluar el desempeño lumínico y la precisión, de cada uno de los resultados para comprobar la disponibilidad de iluminación natural a través de una matriz. En una etapa posterior se discutieron los resultados, mediante la comparación de los datos logrados según cada una de las metodologías de simulación aplicada. Finalmente se expusieron las conclusiones y futuras lineas de trabajo, las primeras respecto el dominio del atrio de cuatro caras, la incidencia del control de cerramiento de la cubierta y la relación establecida con la altura; indicando en lo específico que las mediciones de iluminancia bajo el cielo soleado de verano, permitieron aclarar, el uso de la herramienta de simulación y método basado en el clima local, que debido a su reciente desarrollo, orienta a futuras líneas de trabajo profundizando en la evaluación dinámica de la iluminancia contrastado con monitorización de casos. ABSTRACT Atriums incorporated into buildings have been a spatial resource that quickly spread throughout the globe, being adopted by several local architecture methods in several places. Their widespread increase was highly favored, in the first place, with the rapid evolution of steel and glass technologies since the nineteen century, and, in second place, by the following development of reinforced concrete. Another issue that explains this success into contemporary architecture is associated with the social approach, and it resides in the impressive cavity that describes vast dimensions, allowing the development of multiple uses in its interior that had never been considered before. Inside the atrium, daylight it is a key element in the many experiences that involves and it is possibly the most relevant environmental factor, since it radiates a feeling of well-being by uniting us visually with the natural environment. It is because of this reason that, following the hypothetical deductive method, the effects in the performance of daylight on the floor plan were evaluated considering the geometric configuration, the deck and orientation factors. This study was based in a model withdrawn from the inventory of atrium buildings that were constructed in Santiago de Chile during the past thirty years, which will be explained later in chapter 2. The quantitative analysis of the inventory of those buildings was elaborated in chapter 3, considering the dimensions of the atriums. Simultaneously, several features such as construction aspects, materials and environmental qualities were identified inside of each building. At this stage, it were identified the variables of the geometric proportions of the atrium’s cavity with the plan aspect ratio of proportions in first plan (PAR), in section (SAR) and cavity according to well index (WI), aspect ratio (AR) and room index (RI). An experimental model was obtained from the analysis of all the mentioned parameters. The main focus of the study developed in chapter 4 is daylight. The atrium’s concept and behavior were analyzed from a physical model built under scale to register the illuminances under clear, sunny sky of the city. Later on, this physical model was built in a virtual environment, connecting the variables determined by the geometry of the cavity and the superior enclosure, allowing the examination of transparencies and opening proportions. To summarize, this stage consisted on evaluating a progressive enclosure of the openings, checking the access of natural light and its availability at the atrium floor, in an effort to provide useful guidelines during the first stage of the architectural design. For the analysis of natural lighting, several calculations methods were used in order to determine the levels of illuminances in a horizontal plane inside of the atrium. The first of these methods is the Daylight Factor (DF), which consists in the proportion of light in an evaluation interior place with the amount of light coming from the outside in a cloudy day. Results determined that the cloudy sky of the city has high levels of luminosity. In addition, the recent dynamic metrics were evaluated which reflects the hours quantity. According to the meteorological records of the city’s climate, the standard of illuminance- a standard measure called Daylight Autonomy (DA) – was met. This is even better when the results stay in the line of visual convenience within the atrium, which is referred to as Useful Daylight Illuminance (UDI). In chapter 5, it was presented the criteria applied to the study model and on each of the variants of the analysis. Moreover, the information of the climate records used for the simulations - carried out in the Daysim program managed by Radiance – are detailed. These simulations allowed the observation of the daylight performance and the accuracy of each of the results to confirm the availability of natural light through a matrix. In a later stage, the results were discussed comparing the collected data in each of the methods of simulation used. Finally, conclusions and further discussion are presented. Overall, the four side atrium’s domain and the effect of the control of the cover’s enclosure. Specifically, the measurements of the daylight under summer’s clear, sunny sky allowing clarifying the use of the simulation tool and the method based on the local climate. This method allows defining new and future lines of work deepening on the dynamic of the light in contrast with the monitoring of the cases.
Resumo:
La colonia experimental de Schorlemerallee y las villas Am Rupenhorn son dos proyectos concluidos en 1930 por los hermanos Wassili y Hans Luckhardt con Alfons Anker en Berlín. Ambos proyectos forman parte del mismo proceso, que comienza en la Colonia -una exploración sobre el lenguaje moderno en una serie de fases sucesivas- y culmina con las Villas. Éstas últimas, realizadas inmediatamente después de la Colonia, son la síntesis de esa experiencia, aunque finalmente acabaron trascendiéndola, ya que se convirtieron en un modelo sobre la casa en la naturaleza, sobre la idea de la villa clásica y sobre los nuevos modos de habitar, alcanzando con el tiempo la condición de canon moderno. A pesar de ello, no es esta condición lo más importante. Lo singular en este caso, es el propio proceso de proyecto –Colonia versus Villas- un verdadero experimento en su concepción, método y resultados, a través del cual sus autores investigan nuevas tecnologías aplicadas a nuevas formas de habitar y desarrollan un nuevo lenguaje, cuyo resultado son unos prototipos tecnológicos, con los que pretenden, como diría Mies van der Rohe: “Me he esforzado por construir una arquitectura para una sociedad tecnológica. He intentado que todo resultara razonable y claro.....para que cualquiera pueda hacer arquitectura.” El momento y lugar no pueden ser más propicios: Berlín entre 1924 y 1930, en el mismo origen del Movimiento Moderno. El experimento se plantea con auténtico rigor científico. Los arquitectos diseñan, construyen y financian su proyecto, controlando todas sus variables. Especialmente, por lo insólito, es el control de la variable económica. Porque este factor, la economía, es para ellos una clave fundamental del proceso. Se trataba de demostrar que la Nueva Arquitectura (o Neues Bauen, como les gustaba denominarla) era capaz de construir mejor y más rápido la vivienda para una nueva sociedad. La revolución y la vanguardia van de la mano: son el Zeitgeist o espíritu de la época, un contexto que es parte sustancial del proceso, y como lo calificarían los Smithson, un contexto heroico. El concepto se centra en la tríada Bauhaus: diseño + tecnología x economía. En cuanto al método, se fijan una serie de parámetros –las variables del experimento- que se agrupan en tres categorías distintas: topología, tipología y tecnología. La combinación de las variables de cada categoría dará lugar a un sistema con unas características determinadas: una definición del espacio, una forma, un lenguaje y una tecnología, características que permiten establecer las reglas para su desarrollo. Los sistemas resultantes son tres, denominados según su doble condición tipológica/ tecnológica: 1. Sistema de muro de carga: Viviendas adosadas en zig-zag o Mauerwerksbauten. 2. Sistema de esqueleto de acero: Viviendas aisladas o Stahlskelettbauten 3. Sistema de hormigón armado: Viviendas en hilera recta o Betonbauten Las villas Am Rupenhorn se plantean a continuación como verificación de este proceso: la síntesis de las categorías desarrolladas en la Colonia. Pero llegan en un momento de gracia, justo cuando los Luckhardt y Anker se encuentran profundamente implicados en el proceso de desarrollo de un nuevo lenguaje y con la reciente experiencia de la Colonia, que ha sido un éxito en casi todos los aspectos posibles. “En 1930, están en la cumbre”, como diría su mejor crítico y antiguo colaborador: Achim Wendschuh. En las Villas, los arquitectos integran su lenguaje, ya plenamente moderno, con sus experiencias previas: las que los relacionan con su reciente expresionismo (que se podría calificar como Kunstwollen) y con la tradición clásica de la cultura arquitectónica alemana: el sentido del material que deben a Semper y la sensibilidad hacia el paisaje, que toman de Schinkel. El extraordinario interés de las Villas se debe a factores como el tratamiento de la relación dual, poco habitual en la arquitectura moderna, la síntesis de lenguajes y las circunstancias de su momento histórico, factores que las han convertido en una propuesta única e irrepetible de una de las vías experimentales más interesantes y desconocidas de la Modernidad. ABSTRACT The experimental Housing Estate of Schorlemerallee and the Am Rupenhorn Villas are two projects completed by the brothers Wassili and Hans Luckhardt with Alfons Anker in Berlin in 1930. Both projects are part of the same process, starting with the Housing Estate --an exploration of the modern language in a series of phases- which culminates with the Villas project. The Villas Am Ruperhorn, designed immediately after the Housing development, are the synthesis and crowning point of this experience, even finally over passing it, since they have become a model of the house in nature, related with both the ideal of the classical villa and the new ways of life, reaching the condition of a modern canon. However, this is not its most important issue. The most remarkable condition is the project process itself -Housing versus Villas- a true experiment in concept, method and results, in which the authors research new technologies for new ways of living, developing an innovative language, with results in new prototypes, in the way Mies van der Rohe was looking for: “I have tried to make an architecture for a technological society. I have wanted to keep everything reasonable and clear… to have an architecture that anybody can do." The time and place could not be more favourable: Berlin from 1924 to 1930, in the very origin of Modern Movement. The experiment takes place with genuine scientific accuracy. Architects design, build and finance their own project, controlling all variables. Especially, and quite unusual, the control of the economic variable. Precisely the economic factor is for them a fundamental key to the process. It was shown to prove that the new architecture (or Neues Bauen, as they liked to call it) was able to build not only faster, better and more efficient dwellings for a new society, but also at lower cost. Revolution and Avant-garde use to move forward together, because they share the Zeitgeist --or time's spirit--, a context which is a substantial part of the process, and as the Alison & Peter Smithsons would describe, an heroic context. The concept focuses on the Bauhaus triad: Design + Technology x Economy. For the method, a number of variables are fixed --the experimental parameters-- that are later grouped into three distinct categories: Topology, Typology and Technology. The combination of these variables within each category gives way to several systems, with specific characteristics: a definition of space, a form, a language and a technology, thus allowing to establish the rules for its development: The resulting systems are three, called by double typological / technological issue: 1. Terraced Housing in zig-zag or Mauerwerksbauten (bearing wall system) 2. Detached Housing or Stahlskelettbauten (steel skeleton system) 3. Terraced Housing in one row or Betonbauten (reinforced concrete system) The Am Rupenhorn Villas are planned as the check of this process: the synthesis of the categories developed all through the Housing Estate research. The Am Ruperhorn project is developed in a crucial moment, just as the Luckhardts and Anker are deeply involved in the definition process of a new language after the recent experience of Schorlemerallee, which has been a success in almost all possible aspects. "In 1930, they are on the top” has said his best critic and long-time collaborator, Achim Wendschuh. In the Villas, the authors make up their fully modern language with their own background, related with their recent Expressionist trend (Kunstwollen) and with the classical tradition of the German architectural culture: the notion of material related with Semper and the sensible approach to the landscape, linked with Schinkel. Its extraordinary interest lay on diverse factors, such as dual relationships, unusual in modern architecture, synthesis of languages and circumstances of their historical moment, all factors that have become a unique and unrepeatable proposal in one of the most extraordinary experimental ways of Modernity.
Resumo:
En la actualidad muchas estructuras de hormigón armado necesitan ser reforzadas debido a diversas razones: errores en el proyecto o construcción, deterioro debido a efectos ambientales, cambios de uso o mayores requerimientos en los códigos. Los materiales compuestos, también conocidos como polímeros reforzados con fibras (FRP), están constituidos por fibras continuas de gran resistencia y rigidez embebidas en un material polimérico. Los FRP se utilizan cada vez más en aplicaciones estructurales debido a sus excelentes propiedades (elevadas resistencia y rigidez específicas y resistencia a la corrosión). Una de las aplicaciones más atractivas es el refuerzo de pilares mediante confinamiento para incrementar su resistencia y ductilidad. El confinamiento puede conseguirse pegando capas de FRP envolviendo el pilar en la dirección de los cercos (con las fibras orientadas en dirección perpendicular al eje del elemento). Se han realizado numerosos estudios experimentales en probetas cilíndricas pequeñas confinadas con encamisados de FRP y sometidas a compresión axial, y se han propuesto varios modelos sobre el hormigón confinado con FRP. Es sabido que el confinamiento de pilares de sección no circular es menos eficiente. En una sección circular, el FRP ejerce una presión de confinamiento uniforme sobre todo el perímetro, mientras que en una sección rectangular la acción de confinamiento se concentra en las esquinas. Esta tesis presenta los resultados de una investigación experimental sobre el comportamiento de probetas de hormigón de sección cuadrada confinadas con FRP y sometidas a compresión centrada. Se realizaron un total de 42 ensayos investigándose el comportamiento en las direcciones axial y transversal. Las variables del estudio incluyen: la resistencia del hormigón, el tipo de fibras (vidrio o carbono), la cuantía de refuerzo y el radio de curvatura de las esquinas. Los resultados de los ensayos realizados muestran que el confinamiento con FRP puede mejorar considerablemente la resistencia y ductilidad de pilares de hormigón armado de sección cuadrada con las esquinas redondeadas. La mejora conseguida es mayor en los hormigones de baja resistencia que en los de resistencia media. La deformación de rotura de la camisa de FRP es menor que la que se obtiene en ensayos de tracción normalizados del laminado, y la eficiencia del confinamiento depende en gran medida del radio de redondeo de las esquinas. Los resultados se han comparado con los obtenidos según los modelos teóricos más aceptados. Hay dos parámetros críticos en el ajuste de los modelos: el factor de eficiencia de la deformación y el efecto de confinamiento en secciones no circulares. Nowadays, many existing RC structures are in need of repair and strengthening for several reasons: design or construction errors, deterioration caused by environmental effects, change in use of the structures or revisions of code requirements. Composite materials, also known as fibre reinforced polymers (FRP), are composed of high strength and stiffness continuous fibres embedded in a polymer material. FRP materials are being increasingly used in many structural applications due to their excellent properties (high strength- and stiffness-toweight ratio, good corrosion behaviour). One of the most attractive applications of FRP is the confinement of concrete columns to enhance both strength and ductility. Concrete confinement can be achieved by bonding layers of hoop FRP around the column (fibres oriented perpendicular to the longitudinal axis). Many experimental studies have been conducted on small-scale plain concrete specimens of circular cross-sections confined with FRP and subjected to pure axial compressive loading, and several design models have been proposed to describe the behaviour of FRP-confined concrete. It is widely accepted that the confinement of non-circular columns is less efficient than the confinement of circular columns. In a circular cross section, the jacket exerts a uniform confining pressure over the entire perimeter. In the case of a rectangular cross section, the confining action is mostly concentrated at the corners. This thesis presents the results of a comprehensive experimental investigation on the behaviour of axially loaded square concrete specimens confined with FRP. A total of 42 compression tests were conducted, and the behaviour of the specimens in the axial and transverse directions were investigated. The parameters considered in this study are: concrete strength, type of fibres (glass or carbon), amount of FRP reinforcement and corner radius of the cross section. The tests results indicate that FRP confinement can enhance considerably the compressive strength and ductility of RC square columns with rounded corners. The enhancement is more pronounced for low- than for normal-strength concrete. The rupture strain of the FRP jacket is lower than the ultimate strain obtained by standard tensile testing of the FRP material, and the confinement efficiency significantly depends on the corner radius. The confined concrete behaviour was predicted according to the more accepted theoretical models and compared with experimental results. There are two key parameters which critically influence the fitting of the models: the strain efficiency factor and the effect of confinement in non-circular sections.
Resumo:
La presente tesis doctoral desarrolla la obra del arquitecto Antonio Vallejo Álvarez (n. 1903, t. 1928, f. 2002) cuya larga carrera profesional permite observar una evolución que tiene como fondo la de la arquitectura española desde los planteamientos academicistas de principios del siglo XX, pasando por el primer racionalismo, hasta la influencia del Movimiento Moderno. Antonio Vallejo nació en Almonacid de Zorita, un pueblo de la provincia de Guadalajara pequeño pero singular ya que entonces se construía el Salto de Bolarque, instalación energética crucial en la época que albergaba además elementos de arquitectura culta. La familia le envió a Madrid a estudiar en las Escuelas Pías de San Fernando y luego en la vieja escuela de arquitectura de la calle Escritorios perteneciente a la Real Academia de Bellas Artes de San Fernando. Terminada la carrera realizó unas primeras edificaciones de corte historicista con relativa abundancia de estilemas academicista que van desapareciendo paulatinamente a la vez que evolucionan hacia el “decó”. De esta depuración, que puede observarse muy bien en los números 69,73 y 62 de la calle Viriato de Madrid, resulta un primer racionalismo en el que las balconadas y cuerpos volados se apoyan sobre una trama racionalista ortogonal cada vez más rígida. Simultáneamente trabajó en esta época en la Oficina de Información sobre la Ciudad del Ayuntamiento de Madrid junto a Bernardo Giner de los Ríos y Fernando García Mercadal, entre otros. Más tarde se incorporó a las órdenes del primero a la Oficina de Construcciones escolares donde se mantuvo hasta el estallido de la guerra civil. Al amparo de la Ley Salmón fundó la empresa promotora de viviendas Ar-In donde realizó una arquitectura en la que la trama racionalista cobra una gran fuerza expresiva, matizada y potenciada por grandes balcones aterrazados de corte higienista. Sus exponentes máximos son el conjunto en la calle Narváez esquina a Alcalde Sáinz de Baranda, y la manzana de Guzmán el Bueno, 75 de Madrid. La guerra civil interrumpe el proceso y tras ella nuestro autor ensaya la supervivencia del racionalismo mediante la superposición de la trama en grandes cuerpos de alzado de ladrillo ocupando las plantas de pisos, sobre un basamento de granito en la planta baja y una especie de pórtico enmarcando los huecos del ático a modo de remate. En las ventanas se colocan embocaduras de caliza de diversas formas. Esta arquitectura, muy en la línea del gusto de la época, será sublimada mediante un magnífico ejemplo de manierismo en su gran obra de la Residencia de los Agustinos Recoletos y la Iglesia de Santa Rita de Madrid. Superados los al menos tres lustros de postguerra, Vallejo inicia un proceso que podríamos llamar estructuralista en la medida en que la asunción de la situación de la estructura en el edificio y el módulo por ella creada definen sus características formales. Aquí, tras trabajar el hormigón armado en algunos edificios como los del Residencial Bellas Vistas de Madrid, lo hace con mucho más convencimiento en edificios con estructuras de acero como el colegio del Sagrado Corazón de Guadalajara. Es también importante hablar de la provincia de Almería, a cuya capital llega nuestro arquitecto inmediatamente después de la guerra civil para alejarse de las indeseables consecuencias que hubiera podido tener su fidelidad al gobierno de la República con el que colaboró hasta el último momento. En la ciudad desarrolló una extensa labor como constructor a través de Duarín SA, que se había formado sobre los restos de su promotora. También como arquitecto, con una labor paralela a la madrileña pero con menor presión ambiental, lo que contribuyó a que en cierta medida el proceso de afloramiento de su arquitectura estructuralista, heredera lejana de su primer racionalismo, fuese más rápido, como prueban realizaciones como los edificios de la calle Juan Pérez, 18 y del Paseo de la Estación, 19. ABSTRACT This thesis deals with the works in architecture from Antonio Vallejo Álvarez (b. 1903, g. 1928, d. 2002) whose long career enables us to concentrate on the evolution of the Spanish Architecture from the Academicism taking place at the beginning of XXth century , until the influence of the Modern Movement, taking also into account Racionalism. Antonio Vallejo was born in Almonacid de Zorita, a village in the province of Guadalajara small but unique because then Salto de Bolarque the crucial energy facility at the time also housed elements of classical architecture is built. His family sent him to study to Madrid in Escuelas Pías de San Fernando first, and then he attended lessons in the old Architecture school from Escritorios street belonging this last one to la Real Academia de Bellas Artes de San Fernando. Once he finished his degree on Architecture, he worked on some historicist buildings with a great use of academicist stylemes which will be disappearing little by little, turning into “deco”. From this depurationn, whose traces can be found in 69, 73, 62 at Viriato street in Madrid, our architect ends up with a first racionalism in which balconies and flown bodies are suspended on a racionalist and orthogonal more and more rigid. At that time, he was also working in the Information Office in Madrid Town Hall together with Bernardo Giner de los Ríos y Fernando García Mercadal, among others. Later, he worked for Bernardo Giner de los Ríos in the School Building Offices until the breaking out of the Civil War. Under Salmón law, he founded a developer for buildings named Ar-In, where he developed a type of Architecture in which racionalism develops a magnificent expressive force, empowered by great terraced balconies with higienistain court. His great masterpieces at this time are the buildings from Narvaez opposite to Alcalde Sáinz de Baranda and the block in 75 Guzmán El Bueno, in Madrid. Civil war interrupts somehow his process and once the war is over, our architect works on the survival of racionalism by overlapping on large bodies of brick elevation occupying different floor plants, on a base of granite on the ground floor and a sort of portico framing the gaps in the attic by way of auction. On the Windows he se colocan embocaduras de caliza de diversas formas. This type of architecture, very much enjoyed at that time, will be sublimed as a great example of manierism in his great work such as the case of Agustinos Recoletos Residence and Santa Rita Church in Madrid. About fifteen years after the war, in the post-war era, Vallejo starts a process which we could call structuralist, as lons as the asumption from the situation of the structure in the building and the created module define his main features. Here, once our architect works with reinforce concrete in some of his buildings such as Residencial Bellas Vistas de Madrid, he improves his technique with steel strucutres such as the on in the school Sagrado Corazón in Guadalajara. It is also remarkable to speak about the province of Almería, where our architect arrives inmediately after the civil war, to get rid of the consequences of his loyalty to the Republic movement to which he collaborated until his death. He developed a great career as a builder there through Duarín SA, which was launched though his former enterprise. Similary as the way he worked in Madrid,he, also as an arquitect, did his work in Almería with less environmental pressure though, fact which contributed to the flourishing of the structuralist architecture, as an heir from his first racionalism, as it can be shown from buildings in streets such as 18 Juan Pérez, and 19 Paseo de la Estación.