69 resultados para Modos del ensayo. De Borges a Piglia
Resumo:
Desde que el Hombre era morador de las cavernas ha sido manifiesto su deseo innato por grabar y reproducir "instantáneas con las que perpetuarse o sobre las que mirarse ". La aparición y desarrollo de la fotografía como medio para poder captar y fijar "la imagen directa de la realidad circundante " pronto se convierte en un nuevo lenguaje estético y poético que permite al artista la interpretación y reflexión de lo observado. Se imprime a la imagen el carácter de la mirada del fotógrafo, estableciendo un diálogo conceptual con el juego de luces. La presente Tesis plantea la creación de una nueva piel de arquitectura mediante la impresión fotográfica sobre materiales pétreos. La búsqueda de la expresividad de los materiales como soporte de expresión artística implica un cambio de escala al trasladar la instantánea fotográfica a la arquitectura y la aplicación de un nuevo soporte al imprimir la fotografía sobre materiales arquitectónicos. Se justifica la elección del dispositivo láser CO2 como sistema de impresión fotográfica sobre los materiales pétreos arquitectónicos, como la técnica que permite la unión física de la imagen y el proyecto arquitectónico, generando un valor añadido a través del arte de la fotografía. Se justifica la elección de los materiales investigados, Silestone® Blanco Zeus y GRC® con TX Active® Aria, de forma que la investigación de esta nueva piel de arquitectura abarca tanto la envolvente del edificio como su volumen interior, permitiendo cerrar el círculo arquitectónico "in&out" y dota al proyecto arquitectónico de un valor añadido al introducir conceptos sostenibles de carácter estético y medioambiental. Se realiza una consulta a las empresas del sector arquitectónico relacionadas directamente con la producción y distribución de los materiales Silestone® y GRC®, así como a las empresas especializadas en sistemas de impresión fotográfica sobre materiales, acerca del estado del arte. Se recorre la Historia de la fotografía desde sus orígenes hasta el desarrollo de la era digital y se analiza su condición artística. Se recopilan los sistemas de impresión fotográfica que han evolucionado en paralelo con los dispositivos de captura de la instantánea fotográfica y se describe en profundidad el sistema de impresión fotográfica mediante dispositivo láser CO2. Se describen los procesos de fabricación, las características técnicas, cualidades y aplicaciones de los materiales pétreos arquitectónicos Silestone® Blanco Zeus y GRC® con TX Active® Aria. Se explica la técnica utilizada para la captación de la imagen fotográfica, su justificación artística y su proceso de impresión mediante dispositivo láser CO2 bajo diferentes parámetros sobre muestras de los materiales arquitectónicos investigados. Se comprueba la viabilidad de desarrollo de la nueva piel de arquitectura sobre Silestone® Blanco Zeus y GRC® con TX Active® Aria sometiendo a las piezas impresas bajo diferentes parámetros a tres ensayos de laboratorio. En cada uno de ellos se concreta el objetivo y procedimiento del ensayo, la enumeración de las muestras ensayadas y los parámetros bajo los que han sido impresas, el análisis de los resultados del ensayo y las conclusiones del ensayo. Ensayo de amplitud térmica. Se determina el grado de afectación de las imágenes impresas bajo la acción de contrastes térmicos. Series de muestras de Silestone® Blanco Zeus y GRC® con TX Active® Aria impresas con láser CO2 se someten a ciclos de contraste frío-calor de 12 horas de duración para una amplitud térmica total de 102°C. Se realiza una toma sistemática de fotografías microscópicas con lupa de aumento de cada pieza antes y después de los ciclos frío-calor y la observación de las transformaciones que experimentan los materiales bajo la acción del láser CO2. Ensayo de exposición a la acción de la radiación ultravioleta (UV). Se determina el grado de afectación de las imágenes impresas al activar la capacidad autolimpiante de partículas orgánicas. Una serie de muestras de GRC® con TX Active® Aria impresa con láser CO2 se someten a ciclos de exposición de radiación ultravioleta de 26 horas de duración. Se somete la serie a un procedimiento de activación del aditivo TX Active®. Se simula la contaminación orgánica mediante la aplicación controlada de Rodamina B, tinte orgánico, y se simula la radiación UV mediante el empleo de una bombilla de emisión de rayos ultravioleta. Se realiza una toma sistemática de fotografías macroscópicas de la serie de muestras ensayadas: antes de aplicación de la Rodamina B, momento 00:00h, momento 04:00h y momento 26:00h del ensayo. Se procede a la descarga y análisis del histograma de las fotografías como registro de la actividad fotocatalítica. Ensayo de la capacidad autodescontaminante del GRC® con TX Active® impreso con láser CO2. Se comprueba si la capacidad autodescontaminante del GRC® con TX Active® se ve alterada como consecuencia de la impresión de la imagen fotográfica impresa con láser CO2. Serie de muestras de GRC® con TX Active® Aria impresa con láser CO2 se someten a test de capacidad autodescontaminante: atmósfera controlada y contaminada con óxidos de nitrógeno en los que se coloca cada pieza ensayada bajo la acción de una lámpara de emisión de radiación ultravioleta (UV). Se registra la actividad fotocatalítica en base a la variación de concentración de óxido de nitrógeno. Se recopila el análisis e interpretación de los resultados de los ensayos de laboratorio y se elaboran las conclusiones generales de la investigación. Se sintetizan las futuras líneas de investigación que, a partir de las investigaciones realizadas y de sus conclusiones generales, podrían desarrollarse en el ámbito de la impresión fotográfica sobre materiales arquitectónicos. Se describe el rendimiento tecnológico y artístico generado por las investigaciones previas que han dado origen y desarrollo a la Tesis Doctoral. ABSTRACT Since ancient time, humanity has been driven by an innate wish to reproduce and engrave "snapshots that could help to perpetúate or to look at one self". Photography's birth and its development as a mean to capture and fix "the direct image of the surrounding reality" quickly becomes a new aesthetical and poetical language allowing the artist to interpret and think over what has been observed. The photographer's eye is imprinted onto the image, and so the conceptual dialogue between the artist and the light beams begins. The current thesis suggests the creation of a new architectural skin through photography imprinting over stony materials. The search for material's expressiveness as a medium of artistic expression involves a change of scale as it transfers photographic snapshot into architecture and the use of a new photographic printing support over architectural materials. CO2 laser is the chosen printing system for this technique as it allows the physical union of the image and the architectonic project, generating an added value through the art of photography. The researched materials selected were Silestone®, Blanco Zeus and GRC® with TX Active® Aria. This new architectural skin contains the building surrounding as well as its interior volume, closing the architectonic "in & out" circle and adding a value to the project by introducing aesthetical and environmental sustainable concepts. Architecture companies related to the production and distribution of materials like Silestone® and GRC®, as well as companies specialized in photography printing over materials were consulted to obtain a State of the Art. A thorough analysis of photography's History from its origins to the digital era development was made and its artistic condition was studied in this thesis. In this study the author also makes a compilation of several photographic printing systems that evolved together with photographic snapshot devices. The CO2 laser-based photographic printing system is also described in depth. Regarding stony materials of architecture like Silestone®, Blanco Zeus and GRC® with TX Active® Aria, the present study also describes their manufacture processes as well as technical features, quality and application. There is also an explanation about the technique to capture the photographic image, its artistic justification and its CO2 laser-based printing system over the researched materials under different parameters. We also tested the feasibility of this new architectural skin over Silestone® Blanco Zeus and GRC® with TX Active® Aria. The pieces were tested under different parameters in three laboratory trials. Each trial comprises of an explanation of its objective and its process, the samples were numbered and the printing parameters were specified. Finally, with the analysis of the results some conclusions were drawn. In the thermal amplitude trial we tried to determine how printed images were affected as a result of the action of thermal contrasts. Series of samples of Silestone® Blanco Zeus and GRC® with TX Active® Aria printed with CO2 laser were subjected to several 12h warm-cold cycles for thermal total amplitude of 102oc. Each sample was captured systematically with microscopic enhanced lenses before and after cold-warm cycles. The changes experienced by these materials under the effect of CO2 laser were observed and recorded. Trial regarding the Ultraviolet Radiation (UR) effect on images. We determined to which extent printed images were affected once the self-cleaning organic particles were activated. This time GRC® with TX Active® Aria samples printed with CO2 laser were exposed to a 26h UR cycle. The samples were subjected to the activation of TX Active® additive. Through the controlled application of Rodamine B and organic dye we were able to simulate the organic contamination process. UR was simulated using an ultraviolet beam emission bulb. A systematic capture of macroscopic pictures of the tested sample series was performed at different time points: before Rodamine B application, at moment 00:00h, moment 04:00h and moment 26:00h of the trial. Picture's histogram was downloaded and analyzed as a log of photocatalytic activity. Trial regarding the self-decontaminating ability of GRC® with TX Active® printed with CO2 laser. We tested if this self-decontaminating ability is altered as a result of CO2 laser printed image. GRC® with TX Active® Aria samples printed with CO2 laser, were subject to self-decontaminating ability tests with controlled and nitrogen oxide contaminated atmosphere. Each piece was put under the action of an UR emission lamp. Photocatalytic activity was recorded according to the variation in nitrogen oxide concentration. The results of the trial and their interpretation as well as the general conclusions of the research are also compiled in the present study. Study conclusions enable to draw future research lines of potential applications of photographic printing over architecture materials. Previous research generated an artistic and technological outcome that led to the development of this doctoral thesis.
Resumo:
La corrosión bajo tensiones (SCC) es un problema de gran importancia en las aleaciones de aluminio de máxima resistencia (serie Al-Zn-Mg-Cu). La utilización de tratamientos térmicos sobremadurados, en particular el T73, ha conseguido prácticamente eliminar la susceptibilidad a corrosión bajo tensiones en dichas aleaciones pero a costa de reducir su resistencia mecánica. Desde entonces se ha tratado de optimizar simultáneamente ambos comportamientos, encontrándose para ello diversos inconvenientes entre los que destacan: la dificultad de medir experimentalmente el crecimiento de grieta por SCC, y el desconocimiento de las causas y el mecanismo por el cual se produce la SCC. Los objetivos de esta Tesis son mejorar el sistema de medición de grietas y profundizar en el conocimiento de la SCC, con el fin de obtener tratamientos térmicos que aúnen un óptimo comportamiento tanto en SCC como mecánico en las aleaciones de aluminio de máxima resistencia utilizadas en aeronáutica. Para conseguir los objetivos anteriormente descritos se han realizado unos cuarenta tratamientos térmicos diferentes, de los cuales la gran mayoría son nuevos, para profundizar en el conocimiento de la influencia de la microestructura (fundamentalmente, de los precipitados coherentes) en el comportamiento de las aleaciones Al-Zn-Mg-Cu, y estudiar la viabilidad de nuevos tratamientos apoyados en el conocimiento adquirido. Con el fin de obtener unos resultados aplicables a productos o semiproductos de aplicación aeronáutica, los tratamientos térmicos se han realizado a trozos grandes de una plancha de 30 mm de espesor de la aleación de aluminio 7475, muy utilizada en las estructuras aeronáuticas. Asimismo con el objeto de conseguir una mayor fiabilidad de los resultados obtenidos se han utilizado, normalmente, tres probetas de cada tratamiento para los diferentes ensayos realizados. Para la caracterización de dichos tratamientos se han utilizado diversas técnicas: medida de dureza y conductividad eléctrica, ensayos de tracción, calorimetría diferencial de barrido (DSC), metalografía, fractografía, microscopia electrónica de transmisión (MET) y de barrido (MEB), y ensayos de crecimiento de grieta en probeta DCB, que a su vez han permitido hacer una estimación del comportamiento en tenacidad del material. Las principales conclusiones del estudio realizado se pueden resumir en las siguientes: Se han diseñado y desarrollado nuevos métodos de medición de grieta basados en el empleo de la técnica de ultrasonidos, que permiten medir el crecimiento de grieta por corrosión bajo tensiones con la precisión y fiabilidad necesarias para valorar adecuadamente la susceptibilidad a corrosión bajo tensiones. La mejora de medida de la posición del frente de grieta ha dado lugar, entre otras cosas, a la definición de un nuevo ensayo a iniciación en probetas preagrietadas. Asimismo, se ha deducido una nueva ecuación que permite calcular el factor de intensidad de tensiones existente en punta de grieta en probetas DCB teniendo en cuenta la influencia de la desviación del plano de crecimiento de la grieta del plano medio de la probeta. Este aspecto ha sido determinante para poder explicar los resultados experimentales obtenidos ya que el crecimiento de la grieta por un plano paralelo al plano medio de la probeta DCB pero alejado de él reduce notablemente el factor de intensidades de tensiones que actúa en punta de grieta y modifica las condiciones reales del ensayo. Por otro lado, se han identificado los diferentes constituyentes de la microestructura de precipitación de todos los tratamientos térmicos estudiados y, en especial, se ha conseguido constatar (mediante MET y DSC) la existencia de zonas de Guinier-Preston del tipo GP(II) en la microestructura de numerosos tratamientos térmicos (no descrita en la bibliografía para las aleaciones del tipo de la estudiada) lo que ha permitido establecer una nueva interpretación de la evolución de la microestructura en los diferentes tratamientos. Al hilo de lo anterior, se han definido nuevas secuencias de precipitación para este tipo de aleaciones, que han permitido entender mejor la constitución de la microestructura y su relación con las propiedades en los diferentes tratamientos térmicos estudiados. De igual manera, se ha explicado el papel de los diferentes microconstituyentes en diversas propiedades mecánicas (propiedades a tracción, dureza y tenacidad KIa); en particular, el estudio realizado de la relación de la microestructura con la tenacidad KIa es inédito. Por otra parte, se ha correlacionado el comportamiento en corrosión bajo tensiones, tanto en la etapa de incubación de grieta como en la de propagación, con las características medidas de los diferentes constituyentes microestructurales de los tratamientos térmicos ensayados, tanto de interior como de límite de grano, habiéndose obtenido que la microestructura de interior de grano tiene una mayor influencia en el comportamiento en corrosión bajo tensiones que la de límite de grano. De forma especial, se ha establecido la importancia capital, y muy negativa, de la presencia en la microestructura de zonas de Guinier-Preston en el crecimiento de la grieta por corrosión bajo tensiones. Finalmente, como consecuencia de todo lo anterior, se ha propuesto un nuevo mecanismo por el que se produce la corrosión bajo tensiones en este tipo de aleaciones de aluminio, y que de forma muy resumida se puede concretar lo siguiente: la acumulación de hidrógeno (formado, básicamente, por un proceso corrosivo de disolución anódica) delante de la zonas GP (en especial, de las zonas GP(I)) próximas a la zona libre de precipitados que se desarrolla alrededor del límite de grano provoca enfragilización local y causa el rápido crecimiento de grieta característico de algunos tratamientos térmicos de este tipo de aleaciones. ABSTRACT The stress corrosion cracking (SCC) is a major problem in the aluminum alloys of high resistance (series Al-Zn-Mg-Cu). The use of overaged heat treatments, particularly T73 has achieved virtually eliminate the susceptibility to stress corrosion cracking in such alloys but at the expense of reducing its mechanical strength. Since then we have tried to simultaneously optimize both behaviors, several drawbacks found for it among them: the difficulty of measuring experimentally the SCC crack growth, and ignorance of the causes and the mechanism by which SCC occurs. The objectives of this thesis are to improve the measurement system of cracks and deeper understanding of the SCC, in order to obtain heat treatments that combine optimum performance in both SCC and maximum mechanical strength in aluminum alloys used in aerospace To achieve the above objectives have been made about forty different heat treatments, of which the vast majority are new, to deepen the understanding of the influence of microstructure (mainly of coherent precipitates) in the behavior of the alloys Al -Zn-Mg-Cu, and study the feasibility of new treatments supported by the knowledge gained. To obtain results for products or semi-finished aircraft application, heat treatments were performed at a large pieces plate 30 mm thick aluminum alloy 7475, widely used in aeronautical structures. Also in order to achieve greater reliability of the results obtained have been used, normally, three specimens of each treatment for various tests. For the characterization of these treatments have been used several techniques: measurement of hardness and electrical conductivity, tensile testing, differential scanning calorimetry (DSC), metallography, fractography, transmission (TEM) and scanning (SEM) electron microscopy, and crack growth tests on DCB specimen, which in turn have allowed to estimate the behavior of the material in fracture toughness. The main conclusions of the study can be summarized as follows: We have designed and developed new methods for measuring crack based on the use of the ultrasound technique, for measuring the growth of stress corrosion cracks with the accuracy and reliability needed to adequately assess the susceptibility to stress corrosion. Improved position measurement of the crack front has resulted, among other things, the definition of a new initiation essay in pre cracked specimens. Also, it has been inferred a new equation to calculate the stress intensity factor in crack tip existing in DCB specimens considering the influence of the deviation of the plane of the crack growth of the medium plane of the specimen. This has been crucial to explain the experimental results obtained since the crack growth by a plane parallel to the medium plane of the DCB specimen but away from it greatly reduces the stress intensity factor acting on the crack tip and modifies the actual conditions of the essay. Furthermore, we have identified the various constituents of the precipitation microstructure of all heat treatments studied and, in particular note has been achieved (by TEM and DSC) the existence of the type GP (II) of Guinier-Preston zones in the microstructure of several heat treatments (not described in the literature for alloys of the type studied) making it possible to establish a new interpretation of the evolution of the microstructure in the different treatments. In line with the above, we have defined new precipitation sequences for these alloys, which have allowed a better understanding of the formation of the microstructure in relation to the properties of different heat treatments studied. Similarly, explained the role of different microconstituents in various mechanical properties (tensile properties, hardness and toughness KIa), in particular, the study of the relationship between the tenacity KIa microstructure is unpublished. Moreover, has been correlated to the stress corrosion behavior, both in the incubation step as the crack propagation, with the measured characteristics of the various microstructural constituents heat treatments tested, both interior and boundary grain, having obtained the internal microstructure of grain has a greater influence on the stress corrosion cracking behavior in the grain boundary. In a special way, has established the importance, and very negative, the presence in the microstructure of Guinier-Preston zones in crack growth by stress corrosion. Finally, following the above, we have proposed a new mechanism by which stress corrosion cracking occurs in this type of aluminum alloy, and, very briefly, one can specify the following: the accumulation of hydrogen (formed basically by a corrosive process of anodic dissolution) in front of the GP zones (especially the GP (I) zones) near the precipitates free zone that develops around grain boundary causes local embrittlement which characterizes rapid crack growth of some heat treatments such alloys.
Resumo:
La pérdida de tensión por relajación en las armaduras activas afecta de forma importante a las estructuras de hormigón pretensado. Por ello se realizan ensayos de relajación de los alambres y cordones de pretensado tras su fabricación. Después, el material es enrollado y almacenado durante periodos que en ocasiones pueden superar el año de duración. Generalmente se desprecia la influencia que estas operaciones posteriores a la fabricación pueden tener sobre el material. Sin embargo, diversos fabricantes y suministradores han constatado experimentalmente que, en ocasiones, el material almacenado durante un periodo prolongado presenta pérdidas de relajación mayores que inmediatamente tras su fabricación. En este trabajo se realizan ensayos de laboratorio para comprobar la influencia que el radio de enrollamiento y el periodo de almacenamiento tienen sobre las pérdidas de relajación. También se propone un modelo analítico que permite predecir de manera razonablemente aproximada el valor del ensayo de relajación sobre un alambre sometido a un enrollamiento prolongado. Este modelo explica la evolución del perfil de tensiones durante el proceso de enrollamiento- almacenamiento-desenrollamiento, así como la influencia de las tensiones residuales.Stress relaxation losses on active reinforcement have significant impact on prestressed concrete structures. This is why relaxation tests are carried out on prestressing steel wires and strands after being manufactured. Then, these materials are coiled and stored for a long-term period, sometimes in excess of one year. The influence of these operations, carried out after manufacturing, is usually neglected. Nevertheless, some manufacturers and contractors have noticed that, sometimes, when relaxation tests are carried out after a long-term storage, the relaxation losses found are higher than those measured immediately after manufacturing. In this work, lab tests are performed to check the influence of the coiling radius and the period of storage on the relaxation test. In addition to this, an analytical model is presented to predict the results of a relaxation
Resumo:
El presente trabajo tiene como objetivo establecer algunos factores de corrección que afectan el resultado de la resistencia de las probetas testigo a fin de pronosticar la resistencia a compresión in situ. Para el cumplimiento de dicho objetivo se han fabricado 30 bloques de 500x500x1000 mm en Hormigón Autocompactante (HAC) cubriendo un amplio rango de resistencias de 20 MPa a 80 MPa. De estos bloques se han extraído 360 probetas testigo con variaciones en el diámetro (50 mm, 75 mm y 100 mm), en la dirección de extracción (horizontal y vertical) y en la condición de humedad secas y húmedas). Para el pronóstico de la resistencia in situ se ha considerado el principio de superposición de efectos establecido en normas como la ACI-214.4R-10. En este sentido, para las condiciones del ensayo, se han cuantificado mediante factores de corrección los efectos generados por el diámetro y la condición de humedad del testigo en el momento del ensayo y por el nivel resistente del hormigón. Además, se ha valorado de manera conjunta la influencia de las variables intrínsecas de las probetas testigo, tales como, microfisuración, efecto pared, condiciones de contorno, etc. Los resultados indicaron que algunos factores de corrección utilizados para pronosticar la resistencia in situ, inciden de forma muy diferente en los HAC con respecto a los hormigones vibrados tradicionalmente (HVT).
Resumo:
La construcción de una obra subterránea con las características de un túnel o condución de cualquier tipo afecta las propiedades del medio en el que se realiza, poniendo de manifiesto un problema que sólo en épocas relativamente recientes ha recibido antención: la interacción terreno-estructura. Si en las construcciones exteriores (edificios, presas etc.) la importancia de la interacción sólo existe en los casos de grandes obras, aquí la cuestión se plantea como algo intrínseco a la naturaleza del problema. La inclusión de las características del terreno en el análisis dinámico no es un problema sencillo, debido tanto a las irregularidades geométricas posibles, como a la incertidumbre respecto a las propiedades mecánicas. Por si fuera poco la aleatoriedad de las solicitaciones que estudiamos; terremotos, explosiones etc. exige un tratamiento estadístico de los resultados que se obtengan. Aunque se han realizado intentos analíticos para la resolución del problema, tropiezan siempre con la dificultad de las drásticas simplificaciones que es preciso suponer para hacer tratable el problema; estas simplificaciones pueden falsear los resultados deseados. De hecho, el único medio de introducir las numerosas variantes que aparecen es recurrir a los métodos numéricos de discretización. En este estudio hemos tanteado dos posibilidades. Finalmente, el método de los elementos finitos (F.E.M.)aparece como el más adecuado por su versatilidad y rápidez. El análisis dinámico mediante elementos finitos presenta algunos problemas, relativos fundamentalmente al modelado del medio. En efecto, la discretización introduce problemas al pretender simular la propagacíón de las ondas, y la presencia de contornos a distancia finita hace que se presenten problemas a menos que se dispongan medios como contornos absorbentes o cualquier otro procedimiento que elimine las reflexiones en los bordes. El problema es grave, pues se precisa disponer de un número muy grande de elementos lo que, limitado por la capacidad de la máquina, puede provocar una malla inadecuada para la representación de la estructura, siendo así que esta es nuestra preocupación básica. Por otro lado, si se utiliza la técnica modal, los dos o tres primeros modos del sistema global pueden no dar una representación apropiada del comportamiento de la estructura. El objetivo de este trabajo es la puesta a punto de un método que permita solventar estas dificultades y obtener la respuesta estructural con la precisión que se desee. Dado el carácter aleatorio de la solicitacion se ha dado un paso más y lo que se ha finalizado es con un estudio estadístico de la respuesta.
Resumo:
Evaluación de un hormigón autocompactante sometido a ciclos hielo-deshielo mediante ensayos no destructivos. Los daños asociados a los ciclos hielo-deshielo en estructuras de hormigón y sobre todo cuando se usan sales fundentes, son evidentes en una inspección, en muchos casos en ese momento, el daño ya es relativamente grande y se requiere una intervención importante. El uso de técnicas no destructivas que puedan anticipar el daño antes de que fuera detectable mediante inspección, permitiría poder acometer operaciones de mantenimiento con un menor coste. En este trabajo se monitoriza mediante técnicas no destructivas tres hormigones: uno convencional, con y sin aireante, y otro autocompactante frente a ciclos de hielo/ deshielo, sometiendo probetas al ensayo de resistencia al hielo-deshielo de acuerdo a la norma UNE-CEN/TS 12390-9 (medida de pérdida de masa superficial). En paralelo a las medidas de descascarillamiento superficial se realizaron medidas de velocidad de pulso ultrasónico, para establecer la variación del módulo de elasticidad dinámico del material. También se realizaron mediciones en continuo, durante todos los ciclos, de deformación superficial del hormigón utilizando bandas extensométricas y sensores de fibra óptica. Los resultados obtenidos del ensayo de hielo-deshielo muestran, como cabía esperar, un mayor deterioro en el hormigón de referencia sin aireante. Los hormigones eran de resistencias características similares, con el mismo contenido de cemento, igual relación agua/cemento, si bien el hormigón autocompactante tenía una mayor cantidad de finos filler calizo) con el consiguiente refinamiento de la red porosa. De los resultados obtenidos, se determinó por un lado la viabilidad del uso de ensayos no destructivos, con posible implementación in situ, para determinar el daño del hormigón autocompactante y por otro la posibilidad de utilizar estas medidas de la deformación en el ensayo de hielo-deshielo en laboratorio con la ventaja de no tener que parar el ensayo para realizar las medidas de descascarillamiento de las probetas.
Resumo:
El 10 de enero, cuando se cumplía justo un año del ensayo del John Deere 6190R, volvimos a Olías del Rey (Toledo), para trabajar en la misma comarca con su recién llegado hermano mayor, el John Deere 7290R, que también dispone de recirculación externa refrigerada de gases de escape, e incorpora la nueva transmisión e23 y un novedoso conjunto de iluminación led de 360 grados. En este ensayo se ha trabajado con un cultivador de 6mde anchura útil labrando a una profundidad media de 8 cm y se ha efectuado un transporte con remolque de 19.680 kg, comparando el modo de cambio manual y la gestión automática de la transmisión.
Resumo:
Antecedentes Europa vive una situación insostenible. Desde el 2008 se han reducido los recursos de los gobiernos a raíz de la crisis económica. El continente Europeo envejece con ritmo constante al punto que se prevé que en 2050 habrá sólo dos trabajadores por jubilado [54]. A esta situación se le añade el aumento de la incidencia de las enfermedades crónicas, relacionadas con el envejecimiento, cuyo coste puede alcanzar el 7% del PIB de un país [51]. Es necesario un cambio de paradigma. Una nueva manera de cuidar de la salud de las personas: sustentable, eficaz y preventiva más que curativa. Algunos estudios abogan por el cuidado personalizado de la salud (pHealth). En este modelo las prácticas médicas son adaptadas e individualizadas al paciente, desde la detección de los factores de riesgo hasta la personalización de los tratamientos basada en la respuesta del individuo [81]. El cuidado personalizado de la salud está asociado a menudo al uso de las tecnologías de la información y comunicación (TICs) que, con su desarrollo exponencial, ofrecen oportunidades interesantes para la mejora de la salud. El cambio de paradigma hacia el pHealth está lentamente ocurriendo, tanto en el ámbito de la investigación como en la industria, pero todavía no de manera significativa. Existen todavía muchas barreras relacionadas a la economía, a la política y la cultura. También existen barreras puramente tecnológicas, como la falta de sistemas de información interoperables [199]. A pesar de que los aspectos de interoperabilidad están evolucionando, todavía hace falta un diseño de referencia especialmente direccionado a la implementación y el despliegue en gran escala de sistemas basados en pHealth. La presente Tesis representa un intento de organizar la disciplina de la aplicación de las TICs al cuidado personalizado de la salud en un modelo de referencia, que permita la creación de plataformas de desarrollo de software para simplificar tareas comunes de desarrollo en este dominio. Preguntas de investigación RQ1 >Es posible definir un modelo, basado en técnicas de ingeniería del software, que represente el dominio del cuidado personalizado de la salud de una forma abstracta y representativa? RQ2 >Es posible construir una plataforma de desarrollo basada en este modelo? RQ3 >Esta plataforma ayuda a los desarrolladores a crear sistemas pHealth complejos e integrados? Métodos Para la descripción del modelo se adoptó el estándar ISO/IEC/IEEE 42010por ser lo suficientemente general y abstracto para el amplio enfoque de esta tesis [25]. El modelo está definido en varias partes: un modelo conceptual, expresado a través de mapas conceptuales que representan las partes interesadas (stakeholders), los artefactos y la información compartida; y escenarios y casos de uso para la descripción de sus funcionalidades. El modelo fue desarrollado de acuerdo a la información obtenida del análisis de la literatura, incluyendo 7 informes industriales y científicos, 9 estándares, 10 artículos en conferencias, 37 artículos en revistas, 25 páginas web y 5 libros. Basándose en el modelo se definieron los requisitos para la creación de la plataforma de desarrollo, enriquecidos por otros requisitos recolectados a través de una encuesta realizada a 11 ingenieros con experiencia en la rama. Para el desarrollo de la plataforma, se adoptó la metodología de integración continua [74] que permitió ejecutar tests automáticos en un servidor y también desplegar aplicaciones en una página web. En cuanto a la metodología utilizada para la validación se adoptó un marco para la formulación de teorías en la ingeniería del software [181]. Esto requiere el desarrollo de modelos y proposiciones que han de ser validados dentro de un ámbito de investigación definido, y que sirvan para guiar al investigador en la búsqueda de la evidencia necesaria para justificarla. La validación del modelo fue desarrollada mediante una encuesta online en tres rondas con un número creciente de invitados. El cuestionario fue enviado a 134 contactos y distribuido en algunos canales públicos como listas de correo y redes sociales. El objetivo era evaluar la legibilidad del modelo, su nivel de cobertura del dominio y su potencial utilidad en el diseño de sistemas derivados. El cuestionario incluía preguntas cuantitativas de tipo Likert y campos para recolección de comentarios. La plataforma de desarrollo fue validada en dos etapas. En la primera etapa se utilizó la plataforma en un experimento a pequeña escala, que consistió en una sesión de entrenamiento de 12 horas en la que 4 desarrolladores tuvieron que desarrollar algunos casos de uso y reunirse en un grupo focal para discutir su uso. La segunda etapa se realizó durante los tests de un proyecto en gran escala llamado HeartCycle [160]. En este proyecto un equipo de diseñadores y programadores desarrollaron tres aplicaciones en el campo de las enfermedades cardio-vasculares. Una de estas aplicaciones fue testeada en un ensayo clínico con pacientes reales. Al analizar el proyecto, el equipo de desarrollo se reunió en un grupo focal para identificar las ventajas y desventajas de la plataforma y su utilidad. Resultados Por lo que concierne el modelo que describe el dominio del pHealth, la parte conceptual incluye una descripción de los roles principales y las preocupaciones de los participantes, un modelo de los artefactos TIC que se usan comúnmente y un modelo para representar los datos típicos que son necesarios formalizar e intercambiar entre sistemas basados en pHealth. El modelo funcional incluye un conjunto de 18 escenarios, repartidos en: punto de vista de la persona asistida, punto de vista del cuidador, punto de vista del desarrollador, punto de vista de los proveedores de tecnologías y punto de vista de las autoridades; y un conjunto de 52 casos de uso repartidos en 6 categorías: actividades de la persona asistida, reacciones del sistema, actividades del cuidador, \engagement" del usuario, actividades del desarrollador y actividades de despliegue. Como resultado del cuestionario de validación del modelo, un total de 65 personas revisó el modelo proporcionando su nivel de acuerdo con las dimensiones evaluadas y un total de 248 comentarios sobre cómo mejorar el modelo. Los conocimientos de los participantes variaban desde la ingeniería del software (70%) hasta las especialidades médicas (15%), con declarado interés en eHealth (24%), mHealth (16%), Ambient Assisted Living (21%), medicina personalizada (5%), sistemas basados en pHealth (15%), informática médica (10%) e ingeniería biomédica (8%) con una media de 7.25_4.99 años de experiencia en estas áreas. Los resultados de la encuesta muestran que los expertos contactados consideran el modelo fácil de leer (media de 1.89_0.79 siendo 1 el valor más favorable y 5 el peor), suficientemente abstracto (1.99_0.88) y formal (2.13_0.77), con una cobertura suficiente del dominio (2.26_0.95), útil para describir el dominio (2.02_0.7) y para generar sistemas más específicos (2_0.75). Los expertos también reportan un interés parcial en utilizar el modelo en su trabajo (2.48_0.91). Gracias a sus comentarios, el modelo fue mejorado y enriquecido con conceptos que faltaban, aunque no se pudo demonstrar su mejora en las dimensiones evaluadas, dada la composición diferente de personas en las tres rondas de evaluación. Desde el modelo, se generó una plataforma de desarrollo llamada \pHealth Patient Platform (pHPP)". La plataforma desarrollada incluye librerías, herramientas de programación y desarrollo, un tutorial y una aplicación de ejemplo. Se definieron cuatro módulos principales de la arquitectura: el Data Collection Engine, que permite abstraer las fuentes de datos como sensores o servicios externos, mapeando los datos a bases de datos u ontologías, y permitiendo interacción basada en eventos; el GUI Engine, que abstrae la interfaz de usuario en un modelo de interacción basado en mensajes; y el Rule Engine, que proporciona a los desarrolladores un medio simple para programar la lógica de la aplicación en forma de reglas \if-then". Después de que la plataforma pHPP fue utilizada durante 5 años en el proyecto HeartCycle, 5 desarrolladores fueron reunidos en un grupo de discusión para analizar y evaluar la plataforma. De estas evaluaciones se concluye que la plataforma fue diseñada para encajar las necesidades de los ingenieros que trabajan en la rama, permitiendo la separación de problemas entre las distintas especialidades, y simplificando algunas tareas de desarrollo como el manejo de datos y la interacción asíncrona. A pesar de ello, se encontraron algunos defectos a causa de la inmadurez de algunas tecnologías empleadas, y la ausencia de algunas herramientas específicas para el dominio como el procesado de datos o algunos protocolos de comunicación relacionados con la salud. Dentro del proyecto HeartCycle la plataforma fue utilizada para el desarrollo de la aplicación \Guided Exercise", un sistema TIC para la rehabilitación de pacientes que han sufrido un infarto del miocardio. El sistema fue testeado en un ensayo clínico randomizado en el cual a 55 pacientes se les dio el sistema para su uso por 21 semanas. De los resultados técnicos del ensayo se puede concluir que, a pesar de algunos errores menores prontamente corregidos durante el estudio, la plataforma es estable y fiable. Conclusiones La investigación llevada a cabo en esta Tesis y los resultados obtenidos proporcionan las respuestas a las tres preguntas de investigación que motivaron este trabajo: RQ1 Se ha desarrollado un modelo para representar el dominio de los sistemas personalizados de salud. La evaluación hecha por los expertos de la rama concluye que el modelo representa el dominio con precisión y con un balance apropiado entre abstracción y detalle. RQ2 Se ha desarrollado, con éxito, una plataforma de desarrollo basada en el modelo. RQ3 Se ha demostrado que la plataforma es capaz de ayudar a los desarrolladores en la creación de software pHealth complejos. Las ventajas de la plataforma han sido demostradas en el ámbito de un proyecto de gran escala, aunque el enfoque genérico adoptado indica que la plataforma podría ofrecer beneficios también en otros contextos. Los resultados de estas evaluaciones ofrecen indicios de que, ambos, el modelo y la plataforma serán buenos candidatos para poderse convertir en una referencia para futuros desarrollos de sistemas pHealth. ABSTRACT Background Europe is living in an unsustainable situation. The economic crisis has been reducing governments' economic resources since 2008 and threatening social and health systems, while the proportion of older people in the European population continues to increase so that it is foreseen that in 2050 there will be only two workers per retiree [54]. To this situation it should be added the rise, strongly related to age, of chronic diseases the burden of which has been estimated to be up to the 7% of a country's gross domestic product [51]. There is a need for a paradigm shift, the need for a new way of caring for people's health, shifting the focus from curing conditions that have arisen to a sustainable and effective approach with the emphasis on prevention. Some advocate the adoption of personalised health care (pHealth), a model where medical practices are tailored to the patient's unique life, from the detection of risk factors to the customization of treatments based on each individual's response [81]. Personalised health is often associated to the use of Information and Communications Technology (ICT), that, with its exponential development, offers interesting opportunities for improving healthcare. The shift towards pHealth is slowly taking place, both in research and in industry, but the change is not significant yet. Many barriers still exist related to economy, politics and culture, while others are purely technological, like the lack of interoperable information systems [199]. Though interoperability aspects are evolving, there is still the need of a reference design, especially tackling implementation and large scale deployment of pHealth systems. This thesis contributes to organizing the subject of ICT systems for personalised health into a reference model that allows for the creation of software development platforms to ease common development issues in the domain. Research questions RQ1 Is it possible to define a model, based on software engineering techniques, for representing the personalised health domain in an abstract and representative way? RQ2 Is it possible to build a development platform based on this model? RQ3 Does the development platform help developers create complex integrated pHealth systems? Methods As method for describing the model, the ISO/IEC/IEEE 42010 framework [25] is adopted for its generality and high level of abstraction. The model is specified in different parts: a conceptual model, which makes use of concept maps, for representing stakeholders, artefacts and shared information, and in scenarios and use cases for the representation of the functionalities of pHealth systems. The model was derived from literature analysis, including 7 industrial and scientific reports, 9 electronic standards, 10 conference proceedings papers, 37 journal papers, 25 websites and 5 books. Based on the reference model, requirements were drawn for building the development platform enriched with a set of requirements gathered in a survey run among 11 experienced engineers. For developing the platform, the continuous integration methodology [74] was adopted which allowed to perform automatic tests on a server and also to deploy packaged releases on a web site. As a validation methodology, a theory building framework for SW engineering was adopted from [181]. The framework, chosen as a guide to find evidence for justifying the research questions, imposed the creation of theories based on models and propositions to be validated within a scope. The validation of the model was conducted as an on-line survey in three validation rounds, encompassing a growing number of participants. The survey was submitted to 134 experts of the field and on some public channels like relevant mailing lists and social networks. Its objective was to assess the model's readability, its level of coverage of the domain and its potential usefulness in the design of actual, derived systems. The questionnaires included quantitative Likert scale questions and free text inputs for comments. The development platform was validated in two scopes. As a small-scale experiment, the platform was used in a 12 hours training session where 4 developers had to perform an exercise consisting in developing a set of typical pHealth use cases At the end of the session, a focus group was held to identify benefits and drawbacks of the platform. The second validation was held as a test-case study in a large scale research project called HeartCycle the aim of which was to develop a closed-loop disease management system for heart failure and coronary heart disease patients [160]. During this project three applications were developed by a team of programmers and designers. One of these applications was tested in a clinical trial with actual patients. At the end of the project, the team was interviewed in a focus group to assess the role the platform had within the project. Results For what regards the model that describes the pHealth domain, its conceptual part includes a description of the main roles and concerns of pHealth stakeholders, a model of the ICT artefacts that are commonly adopted and a model representing the typical data that need to be formalized among pHealth systems. The functional model includes a set of 18 scenarios, divided into assisted person's view, caregiver's view, developer's view, technology and services providers' view and authority's view, and a set of 52 Use Cases grouped in 6 categories: assisted person's activities, system reactions, caregiver's activities, user engagement, developer's activities and deployer's activities. For what concerns the validation of the model, a total of 65 people participated in the online survey providing their level of agreement in all the assessed dimensions and a total of 248 comments on how to improve and complete the model. Participants' background spanned from engineering and software development (70%) to medical specialities (15%), with declared interest in the fields of eHealth (24%), mHealth (16%), Ambient Assisted Living (21%), Personalized Medicine (5%), Personal Health Systems (15%), Medical Informatics (10%) and Biomedical Engineering (8%) with an average of 7.25_4.99 years of experience in these fields. From the analysis of the answers it is possible to observe that the contacted experts considered the model easily readable (average of 1.89_0.79 being 1 the most favourable scoring and 5 the worst), sufficiently abstract (1.99_0.88) and formal (2.13_0.77) for its purpose, with a sufficient coverage of the domain (2.26_0.95), useful for describing the domain (2.02_0.7) and for generating more specific systems (2_0.75) and they reported a partial interest in using the model in their job (2.48_0.91). Thanks to their comments, the model was improved and enriched with concepts that were missing at the beginning, nonetheless it was not possible to prove an improvement among the iterations, due to the diversity of the participants in the three rounds. From the model, a development platform for the pHealth domain was generated called pHealth Patient Platform (pHPP). The platform includes a set of libraries, programming and deployment tools, a tutorial and a sample application. The main four modules of the architecture are: the Data Collection Engine, which allows abstracting sources of information like sensors or external services, mapping data to databases and ontologies, and allowing event-based interaction and filtering, the GUI Engine, which abstracts the user interface in a message-like interaction model, the Workow Engine, which allows programming the application's user interaction ows with graphical workows, and the Rule Engine, which gives developers a simple means for programming the application's logic in the form of \if-then" rules. After the 5 years experience of HeartCycle, partially programmed with pHPP, 5 developers were joined in a focus group to discuss the advantages and drawbacks of the platform. The view that emerged from the training course and the focus group was that the platform is well-suited to the needs of the engineers working in the field, it allowed the separation of concerns among the different specialities and it simplified some common development tasks like data management and asynchronous interaction. Nevertheless, some deficiencies were pointed out in terms of a lack of maturity of some technological choices, and for the absence of some domain-specific tools, e.g. for data processing or for health-related communication protocols. Within HeartCycle, the platform was used to develop part of the Guided Exercise system, a composition of ICT tools for the physical rehabilitation of patients who suffered from myocardial infarction. The system developed using the platform was tested in a randomized controlled clinical trial, in which 55 patients used the system for 21 weeks. The technical results of this trial showed that the system was stable and reliable. Some minor bugs were detected, but these were promptly corrected using the platform. This shows that the platform, as well as facilitating the development task, can be successfully used to produce reliable software. Conclusions The research work carried out in developing this thesis provides responses to the three three research questions that were the motivation for the work. RQ1 A model was developed representing the domain of personalised health systems, and the assessment of experts in the field was that it represents the domain accurately, with an appropriate balance between abstraction and detail. RQ2 A development platform based on the model was successfully developed. RQ3 The platform has been shown to assist developers create complex pHealth software. This was demonstrated within the scope of one large-scale project, but the generic approach adopted provides indications that it would offer benefits more widely. The results of these evaluations provide indications that both the model and the platform are good candidates for being a reference for future pHealth developments.
Resumo:
Con objeto de mejorar las prestaciones de los materiales y en particular los materiales de construcción, se está estudiando la incorporación de nano partículas en la fabricación de morteros y hormigones. En este trabajo se estudia el efecto de la incorporación de nano sílice a un hormigón autocompactante. Para ello se han seleccionado dos dosificaciones de nano sílice, 2,5% y 5% y se ha comparado su comportamiento con un hormigón autocompactante con la misma relación de material cementante. Se han evaluado las diferencias de comportamiento tanto en estado fresco como endurecido. En el trabajo se ha analizado el comportamiento mecánico (resistencia a compresión), microestructural (porosimetría por intrusión de mercurio y análisis termogravimétrico) y durable, (migración de cloruros y resistividad eléctrica), de las dosificaciones seleccionadas. Los resultados de los ensayos de resistencia a compresión muestran una relación directa entre este parámetro y el porcentaje de nano sílice adicionada. Los resultados de la caracterización microestructural ponen de manifiesto un refinamiento de la matriz porosa, con aumento de la cantidad de geles hidratados y reducción del tamaño de poro, mas significativo cuanto mayor es el porcentaje de adición. En cuanto a la resistencia del material a la penetración de cloruros se observa una disminución significativa cuanto mayor es el porcentaje de nano adición. Los datos obtenidos del ensayo de migración y de resistividad eléctrica muestran un mejor comportamiento por efecto de la adición. Sin embrago la variación relativa de la variable estimada en cada uno de los ensayos es sensiblemente diferente.
Resumo:
En los últimos años, las sociedades industrializadas han tomado una mayor conciencia sobre el problema que suponen las emisiones indiscriminadas de gases de efecto invernadero a la atmósfera. El hormigón, cuyo principal componente es el cemento, es probablemente el material más utilizado en construcción. En la actualidad, las emisiones globales de CO2 debidas a la combustión del CaCO3 del cemento Pórtland representan entre el 5% y el 10% respecto del total. Estos valores son de gran interés si se considera que el compromiso aceptado al firmar el Protocolo de Kioto es de una reducción del 5% antes del año 2020, sobre el total de gases producidos. El principal objetivo del presente trabajo es el estudio microestructural y de los procesos de hidratación de los cementos con adiciones. Para ello se propone contribuir a la investigación sobre nuevos productos cementicios basados en micropartículas esféricas vítreas que pueden adicionarse al cemento antes del proceso de amasado. Los resultados obtenidos se han contrastado con las adiciones convencionales de más uso en la actualidad. El nuevo material basa su composición en la química del aluminio y el silicio. Al disminuir la cantidad de CaCO3, se contribuye al desarrollo sostenible y a la reducción de emisiones de CO2. La patente creada por el Grupo Cementos Pórtland Valderrivas (GCPV), describe el proceso de producción de las cemesferas (WO 2009/007470, 2010). Los productos que forman la materia prima para la elaboración de las cemesferas son arcillas, calizas, margas o productos o subproductos industriales, que tras su molienda, son fundidos mediante un fluido gaseoso a elevada temperatura (entre 1250ºC y 1600ºC). Este proceso permite obtener un producto final en forma esférica maciza o microesfera, que tras estabilizarse mediante un enfriamiento rápido, consigue una alta vitrificación idónea para su reactividad química, con una mínima superficie específica en relación a su masa. El producto final obtenido presenta prácticamente la finura requerida y no precisa ser molido, lo que reduce las emisiones de CO2 por el ahorro de combustible durante el proceso de molienda. El proceso descrito permite obtener un amplio abanico de materiales cementantes que, no solo pueden dar respuesta a los problemas generados por las emisiones de CO2, sino también a la disponibilidad de materiales en países donde hasta el momento no se puede fabricar cemento debido a la falta de calizas. Complementariamente se ha optimizado el método de cálculo del grado de hidratación a partir de los resultados del ensayo de ATD-TG en base a los modelos de cálculo de Bhatty y Pane. El método propuesto permite interpretar el comportamiento futuro del material a partir de la interpolación numérica de la cantidad de agua químicamente enlazada. La evolución del grado de hidratación tiene una relación directa con el desarrollo de la resistencia mecánica del material. Con el fin de caracterizar los materiales de base cemento, se ha llevado a cabo una amplia campaña experimental en pasta de cemento, mortero y hormigón. La investigación abarca tres niveles: caracterización microestructural, macroestructural y caracterización del comportamiento a largo plazo, fundamentalmente durabilidad. En total se han evaluado ocho adiciones diferentes: cuatro adiciones convencionales y cuatro tipos de cemesferas con diferente composición química. Los ensayos a escala microscópica comprenden la caracterización química, granulométrica y de la superficie específica BET de los materiales anhidros, análisis térmico diferencial y termogravimétrico en pasta de cemento y mortero, resonancia magnética de silicio en pasta de cemento, difracción de rayos X de los materiales anhidros y de las probetas de pasta, microscopía electrónica de barrido con analizador de energía dispersiva por rayos X en pasta y mortero, y porosimetría por intrusión de mercurio en mortero. La caracterización macroscópica del material comprende ensayos de determinación del agua de consistencia normal y de los tiempos de inicio y fin de fraguado en pasta de cemento, ensayos de resistencia mecánica a flexión y compresión en probetas prismáticas de mortero, y ensayos de resistencia a compresión en probetas de hormigón. Para caracterizar la durabilidad se han desarrollado ensayos de determinación del coeficiente de migración de cloruros y ensayos de resistividad eléctrica en probetas de mortero. Todos los ensayos enumerados permiten clarificar el comportamiento de las cemesferas y compararlo con las distintas adiciones de uso convencional. Los resultados reflejan un buen comportamiento resistente y durable de los materiales con adición de cemesferas. La caracterización microscópica refleja su relación con las propiedades mesoscópicas y permite comprender mejor la evolución en los procesos de hidratación de las cemesferas. In recent years industrialised societies have become increasingly aware of the problem posed by indiscriminate emission of greenhouse gases into the atmosphere. Concrete, with a main component being cement, is arguably the most widely used construction material. At present, global emissions of CO2 due to the combustion of CaCO3 from Portland cement represent between 5% and 10% of the total. If the requirement of the Kyoto Protocol of a reduction of 5% of the total gas produced before 2020 is considered, then such values are of significant interest. The main objective of this work is the assessment of the microstructure and the hydration processes of cements with additions. Such an examination proposes research into new cementitious products based on vitreous spherical microparticles that may be added to the cement before the mixing process. The results are compared with the most commonly used conventional additions. The new material bases its composition on the chemistry of aluminium and silicates. By decreasing the amount of CaCO3, it is possible both to contribute to sustainable development and reduce CO2 emissions. The patent created by Grupo Cementos Portland Valderrivas (GCPV) describes the production process of microspheres (WO 2009/007470, 2010). The products that form the raw material for manufacture are clays, lime-stone, marl and industrial products or by-products that melt after being ground and fed into a gaseous fluid at high temperatures (1250°C and 1600°C). This process allows the obtaining of a product with a solid-spherical or micro-spherical shape and which, after being stabilised in a solid state by rapid cooling, obtains a high vitrification suitable for chemical reactivity, having a minimal surface in relation to its mass. Given that the final product has the fineness required, it prevents grinding that reduces CO2 emissions by saving fuel during this process. The process, which allows a wide range of cementitious materials to be obtained, not only addresses the problems caused by CO2 emissions but also enhances the availability of materials in countries that until the time of writing have not produced cement due to a lack of limestone. In addition, the calculation of the degree of hydration from the test results of DTA-TG is optimised and based on Bhatty and Pane calculation models. The proposed method allows prediction of the performance of the material from numerical interpolation of the amount of chemically bound water. The degree of hydration has a direct relationship with the development of material mechanical strength. In order to characterise the cement-based materials, an extensive experimental campaign in cement paste, concrete and mortar is conducted. The research comprises three levels: micro-structural characterisation, macro-structural and long-term behaviour (mainly durability). In total, eight additions are assessed: four conventional additions and four types of microspheres with different chemical compositions. The micro-scale tests include characterisation of chemical composition, particle size distribution and the BET specific surface area of anhydrous material, differential thermal and thermogravimetric analysis in cement paste and mortar, silicon-29 nuclear magnetic resonance in cement paste, X-ray diffraction of the anhydrous materials and paste specimens, scanning of electron microscopy with energy dispersive X-ray analyser in cement paste and mortar, and mercury intrusion porosimetry in mortar. The macroscopic material characterisation entails determination of water demand for normal consistency, and initial and final setting times of cement paste, flexural and compressive mechanical strength tests in prismatic mortar specimens, and compressive strength tests in concrete specimens. Tests for determining the chloride migration coefficient are performed to characterise durability, together with electrical resistivity tests in mortar specimens. All the tests listed allow clarification of the behaviour of the microspheres and comparison with the various additions of conventional use. The results show good resistance and durable behaviour of materials with a microsphere addition. Microscopic characterisation reflects their relationship with mesoscopic properties and provides insights into the hydration processes of the microspheres.
Resumo:
La corrosión del acero es una de las patologías más importantes que afectan a las estructuras de hormigón armado que están expuestas a ambientes marinos o al ataque de sales fundentes. Cuando se produce corrosión, se genera una capa de óxido alrededor de la superficie de las armaduras, que ocupa un volumen mayor que el acero inicial; como consecuencia, el óxido ejerce presiones internas en el hormigón circundante, que lleva a la fisuración y, ocasionalmente, al desprendimiento del recubrimiento de hormigón. Durante los últimos años, numerosos estudios han contribuido a ampliar el conocimiento sobre el proceso de fisuración; sin embargo, aún existen muchas incertidumbres respecto al comportamiento mecánico de la capa de óxido, que es fundamental para predecir la fisuración. Por ello, en esta tesis se ha desarrollado y aplicado una metodología, para mejorar el conocimiento respecto al comportamiento del sistema acero-óxido-hormigón, combinando experimentos y simulaciones numéricas. Se han realizado ensayos de corrosión acelerada en condiciones de laboratorio, utilizando la técnica de corriente impresa. Con el objetivo de obtener información cercana a la capa de acero, como muestras se seleccionaron prismas de hormigón con un tubo de acero liso como armadura, que se diseñaron para conseguir la formación de una única fisura principal en el recubrimiento. Durante los ensayos, las muestras se equiparon con instrumentos especialmente diseñados para medir la variación de diámetro y volumen interior de los tubos, y se midió la apertura de la fisura principal utilizando un extensómetro comercial, adaptado a la geometría de las muestras. Las condiciones de contorno se diseñaron cuidadosamente para que los campos de corriente y deformación fuesen planos durante los ensayos, resultando en corrosión uniforme a lo largo del tubo, para poder reproducir los ensayos en simulaciones numéricas. Se ensayaron series con varias densidades de corriente y varias profundidades de corrosión. De manera complementaria, el comportamiento en fractura del hormigón se caracterizó en ensayos independientes, y se midió la pérdida gravimétrica de los tubos siguiendo procedimientos estándar. En todos los ensayos, la fisura principal creció muy despacio durante las primeras micras de profundidad de corrosión, pero después de una cierta profundidad crítica, la fisura se desarrolló completamente, con un aumento rápido de su apertura; la densidad de corriente influye en la profundidad de corrosión crítica. Las variaciones de diámetro interior y de volumen interior de los tubos mostraron tendencias diferentes entre sí, lo que indica que la deformación del tubo no fue uniforme. Después de la corrosión acelerada, las muestras se cortaron en rebanadas, que se utilizaron en ensayos post-corrosión. El patrón de fisuración se estudió a lo largo del tubo, en rebanadas que se impregnaron en vacío con resina y fluoresceína para mejorar la visibilidad de las fisuras bajo luz ultravioleta, y se estudió la presencia de óxido dentro de las grietas. En todas las muestras, se formó una fisura principal en el recubrimiento, infiltrada con óxido, y varias fisuras secundarias finas alrededor del tubo; el número de fisuras varió con la profundidad de corrosión de las muestras. Para muestras con la misma corrosión, el número de fisuras y su posición fue diferente entre muestras y entre secciones de una misma muestra, debido a la heterogeneidad del hormigón. Finalmente, se investigó la adherencia entre el acero y el hormigón, utilizando un dispositivo diseñado para empujar el tubo en el hormigón. Las curvas de tensión frente a desplazamiento del tubo presentaron un pico marcado, seguido de un descenso constante; la profundidad de corrosión y la apertura de fisura de las muestras influyeron notablemente en la tensión residual del ensayo. Para simular la fisuración del hormigón causada por la corrosión de las armaduras, se programó un modelo numérico. Éste combina elementos finitos con fisura embebida adaptable que reproducen la fractura del hormigón conforme al modelo de fisura cohesiva estándar, y elementos de interfaz llamados elementos junta expansiva, que se programaron específicamente para reproducir la expansión volumétrica del óxido y que incorporan su comportamiento mecánico. En el elemento junta expansiva se implementó un fenómeno de despegue, concretamente de deslizamiento y separación, que resultó fundamental para obtener localización de fisuras adecuada, y que se consiguió con una fuerte reducción de la rigidez tangencial y la rigidez en tracción del óxido. Con este modelo, se realizaron simulaciones de los ensayos, utilizando modelos bidimensionales de las muestras con elementos finitos. Como datos para el comportamiento en fractura del hormigón, se utilizaron las propiedades determinadas en experimentos. Para el óxido, inicialmente se supuso un comportamiento fluido, con deslizamiento y separación casi perfectos. Después, se realizó un ajuste de los parámetros del elemento junta expansiva para reproducir los resultados experimentales. Se observó que variaciones en la rigidez normal del óxido apenas afectaban a los resultados, y que los demás parámetros apenas afectaban a la apertura de fisura; sin embargo, la deformación del tubo resultó ser muy sensible a variaciones en los parámetros del óxido, debido a la flexibilidad de la pared de los tubos, lo que resultó fundamental para determinar indirectamente los valores de los parámetros constitutivos del óxido. Finalmente, se realizaron simulaciones definitivas de los ensayos. El modelo reprodujo la profundidad de corrosión crítica y el comportamiento final de las curvas experimentales; se comprobó que la variación de diámetro interior de los tubos está fuertemente influenciada por su posición relativa respecto a la fisura principal, en concordancia con los resultados experimentales. De la comparación de los resultados experimentales y numéricos, se pudo extraer información sobre las propiedades del óxido que de otra manera no habría podido obtenerse. Corrosion of steel is one of the main pathologies affecting reinforced concrete structures exposed to marine environments or to molten salt. When corrosion occurs, an oxide layer develops around the reinforcement surface, which occupies a greater volume than the initial steel; thus, it induces internal pressure on the surrounding concrete that leads to cracking and, eventually, to full-spalling of the concrete cover. During the last years much effort has been devoted to understand the process of cracking; however, there is still a lack of knowledge regarding the mechanical behavior of the oxide layer, which is essential in the prediction of cracking. Thus, a methodology has been developed and applied in this thesis to gain further understanding of the behavior of the steel-oxide-concrete system, combining experiments and numerical simulations. Accelerated corrosion tests were carried out in laboratory conditions, using the impressed current technique. To get experimental information close to the oxide layer, concrete prisms with a smooth steel tube as reinforcement were selected as specimens, which were designed to get a single main crack across the cover. During the tests, the specimens were equipped with instruments that were specially designed to measure the variation of inner diameter and volume of the tubes, and the width of the main crack was recorded using a commercial extensometer that was adapted to the geometry of the specimens. The boundary conditions were carefully designed so that plane current and strain fields were expected during the tests, resulting in nearly uniform corrosion along the length of the tube, so that the tests could be reproduced in numerical simulations. Series of tests were carried out with various current densities and corrosion depths. Complementarily, the fracture behavior of concrete was characterized in independent tests, and the gravimetric loss of the steel tubes was determined by standard means. In all the tests, the main crack grew very slowly during the first microns of corrosion depth, but after a critical corrosion depth it fully developed and opened faster; the current density influenced the critical corrosion depth. The variation of inner diameter and inner volume of the tubes had different trends, which indicates that the deformation of the tube was not uniform. After accelerated corrosion, the specimens were cut into slices, which were used in post-corrosion tests. The pattern of cracking along the reinforcement was investigated in slices that were impregnated under vacuum with resin containing fluorescein to enhance the visibility of cracks under ultraviolet lightening and a study was carried out to assess the presence of oxide into the cracks. In all the specimens, a main crack developed through the concrete cover, which was infiltrated with oxide, and several thin secondary cracks around the reinforcement; the number of cracks diminished with the corrosion depth of the specimen. For specimens with the same corrosion, the number of cracks and their position varied from one specimen to another and between cross-sections of a given specimen, due to the heterogeneity of concrete. Finally, the bond between the steel and the concrete was investigated, using a device designed to push the tubes of steel in the concrete. The curves of stress versus displacement of the tube presented a marked peak, followed by a steady descent, with notably influence of the corrosion depth and the crack width on the residual stress. To simulate cracking of concrete due to corrosion of the reinforcement, a numerical model was implemented. It combines finite elements with an embedded adaptable crack that reproduces cracking of concrete according to the basic cohesive model, and interface elements so-called expansive joint elements, which were specially designed to reproduce the volumetric expansion of oxide and incorporate its mechanical behavior. In the expansive joint element, a debonding effect was implemented consisting of sliding and separation, which was proved to be essential to achieve proper localization of cracks, and was achieved by strongly reducing the shear and the tensile stiffnesses of the oxide. With that model, simulations of the accelerated corrosion tests were carried out on 2- dimensional finite element models of the specimens. For the fracture behavior of concrete, the properties experimentally determined were used as input. For the oxide, initially a fluidlike behavior was assumed with nearly perfect sliding and separation; then the parameters of the expansive joint element were modified to fit the experimental results. Changes in the bulk modulus of the oxide barely affected the results and changes in the remaining parameters had a moderate effect on the predicted crack width; however, the deformation of the tube was very sensitive to variations in the parameters of oxide, due to the flexibility of the tube wall, which was crucial for indirect determination of the constitutive parameters of oxide. Finally, definitive simulations of the tests were carried out. The model reproduced the critical corrosion depth and the final behavior of the experimental curves; it was assessed that the variation of inner diameter of the tubes is highly influenced by its relative position with respect to the main crack, in accordance with the experimental observations. From the comparison of the experimental and numerical results, some properties of the mechanical behavior of the oxide were disclosed that otherwise could not have been measured.
Resumo:
Y con la frescura del ensayo, la valentía del salto y la locura de la pirueta, los jóvenes arquitectos hicieron una casa en un espléndido lugar que fue más bello aún, ¡oh difícil consecución!, tras la construcción de aquella bellísima morada.
Resumo:
La actuación de cargas sobre un suelo saturado, produce, en función de la naturaleza de la solicitación, del tipo de suelo y de las condiciones de drenaje del terreno, un incremento de la presión sobre el agua de los intersticios. Se ha abordado el estudio de la generación de dicha presión intersticial a partir de muestras de suelo blando, normalmente consolidadas, procedentes del subsuelo del Puerto de Barcelona. Para ello se han utilizado los datos de una completa campaña experimental utilizando la máquina de ensayo de corte simple, y tras la adecuada interpretación del ensayo, se identifican los aspectos que se consideran clave para el proceso de generación de presión intersticial en el suelo, según las diferentes situaciones de carga actuante. Como conclusión, se plantea la generalización de la clásica ecuación que Skempton formuló hace casi 60 años y que permite interpretar la generación de presión intersticial para el aparato de ensayo triaxial. ncrease in pore pressure depending on the nature of the excitation, the type of soil and the drainage conditions of the ground are generated by loads acting on a saturated soil. It has approached the study of the generation of the pore pressure from usually consolidated soft soil samples from the basement of the Port of Barcelona. Data from an adequate experimental campaign using simple shear machine have been used, and the aspects that are considered key to the process of generation of pore pressure in the soil under different loading conditions acting have been identified. In conclusion, the generalization of Skempton's classical equation (formulated almost 60 years ago) and the interpretation of the pore pressure generation for triaxial test apparatus have been proposed.
Resumo:
La finalidad de esta investigación se enmarca dentro de los estudios sobre hormigones de presas llevados a cabo en el Laboratorio Central de Estructuras y Materiales del CEDEX. En España se han diagnosticado 18 obras afectadas tanto por la reacción álcali-sílice de tipo rápido como por la de tipo lento. Dos de de las obras, fabricadas con áridos graníticos, no presentan signos de deterioro pero en laboratorio se han hallado productos expansivos. En las 16 presas españolas restantes, el hormigón de 10 de ellas estaba fabricado con áridos graníticos, de las cuales, 7 están afectadas por la reacción de tipo lento. Sin embargo, en las clasificaciones internacionales de las rocas potencialmente reactivas se establece habitualmente que las rocas graníticas son inocuas o de reactividad muy baja. En los casos puntuales encontrados en la literatura, la reactividad de este tipo de áridos se encuentra frecuentemente asociada al cuarzo microcristalino que contienen y ocasionalmente se asocia esta reactividad también al cuarzo deformado y/o microfisurado. En la tesis doctoral de Víctor Daniel Lanza Fernández, también realizada en el CEDEX, se han tratado los áridos de reacción rápida, dando una descripción detallada de los componentes que intervienen en este tipo de reacción y presentando un ensayo eficaz para su detección en el laboratorio. La investigación desarrollada en la presente tesis doctoral se ha centrado en los áridos de reacción lenta, mucho menos estudiados. A partir del estudio bibliográfico realizado sobre este tipo de reacción se ha detectado ciertas lagunas, basadas principalmente en la falta de un método de detección en el laboratorio para los áridos de reacción lenta. No se ha encontrado un procedimiento en el estudio petrográfico que sea fiable y cuantificable para este tipo de áridos. El ensayo acelerado de barras de mortero, que para los áridos de reacción rápida supone un método rápido y fiable, falla en la detección de los áridos de reacción lenta al aplicar los límites normalizados. Si bien en publicaciones recientes se ha propuesto la posibilidad de ampliar el tiempo de tratamiento hasta los 90 días, la duración del ensayo es más larga de lo deseado. Para resolver estas lagunas, se han tomado áridos de obras reales afectadas por la reacción álcali-sílice (en algún caso también de las canteras de donde se extrajeron los áridos para la ejecución), con lo que la reactividad de estos áridos queda demostrada por su comportamiento en obra. Al objeto de aumentar la muestra de ensayo y utilizar también áridos inocuos, se han tomado muestras de canteras, tanto en uso como abandonadas. Sobre estos áridos se ha realizado una caracterización completa con los ensayos actualmente disponibles para el estudio de su reactividad con los álcalis del cemento: estudio petrográfico, ensayo acelerado de barras de mortero y Gel-Pat modificado. En la investigación se ha desarrollado una metodología de tinción de geles álcali-sílice para la cuantificación de los mismos en el interior de las barras de mortero. Se ha relacionado el volumen de gel generado en la reacción con la expansión producida, tanto para áridos lentos, como rápidos, estableciendo analogías y diferencias en el comportamiento de ambos. La cuantificación de este tipo de compuestos realizada en las barras de mortero, abre la posibilidad de estudiar la capacidad expansiva que presentan en testigos de hormigón de obras afectadas. Este dato podría ser una herramienta importante para el desarrollo de modelos matemáticos que puedan predecir el futuro comportamiento de las estructuras afectadas por la reacción álcali-sílice. La tinción ha sido asimismo utilizada para establecer un método de detección de áridos reactivos basado en el ensayo de Gel-Pat modificado. La metodología de detección propuesta para estos áridos es cuantitativa y proporciona los resultados en 14 días, suponiendo una ventaja importante sobre los métodos actuales, que permiten detectarlos en 90 días (de forma orientativa en 56 días). This research is part of the studies on durability of concrete dams carried out in the Laboratorio Central de Estructuras y Materiales of CEDEX during the last years. At the present time, 18 public works affected by alkali-silica reaction have been diagnosed in Spain. In 12 of them the concrete was mixed with granitic aggregates, 7 of which were damaged by the slow alkali-silica reaction, 3 by the rapid alkali-silica reaction and in the other 2 cases, although there was no visual evidence of the reaction in field, the laboratory tests showed the presence of expansive products inside the concrete. However, in the international classifications of potentially reactive aggregates granitic rocks are pointed out as innocuous or as low reactivity and usually their reactivity is attributed to the presence of microcrystalline quartz and occasionally with the strained and microcracked quartz. The rapid reactive aggregates were deeply studied in a previous research (Víctor Daniel Lanza’s Thesis) also carried out in CEDEX. In this research, a detailed description of the components involved in the rapid alkali-silica reaction was given. Also, a fast method to detect them in the laboratory was developed. The research of the present PhD Thesis is focused in the slow-reactive aggregates, much less studied. The state of the art has shown some gaps in the knowledge about this reaction, mainly the absence of a reliable method to detect slow-reactive aggregates. On one side, there is no systematic and quantitative petrographic test for these aggregates. On the other side, the accelerated mortar bar test has been proved to be effective to detect rapid reactive aggregates but the standard limits fail in the detection of the slowreactive aggregates. In recent investigations it has been proposed extending the test until 90 days, but this period is considered too long. In this research, aggregates taken from affected structures have been used in the test, so their reactivity has been shown in practice. With the aim of increasing the number of samples aggregates from quarries have been also used. A method to stain alkali-silica gels has been applied to mortar bars, thereby quantifying the volume of gel generated inside. This volume has been related to the expansion of the bars, both for rapid for slow reactive aggregates, establishing similarities and differences. The quantification of the gel volume, applied to concrete cores extracted from affected structures, could be an important tool in mathematical models to predict the future behaviour of the structures affected by the alkali-silica reaction. The staining method has been also used to develop a method to detect slow reactive aggregates, based on the optimised Gel-Pat test, obtaining results in 14 days. This represents a major improvement compared to the actual methods (accelerated mortar bar test) which give an indicative value of reactivity at 56 days, and a final result at 90 days.
Resumo:
La necesidad de desarrollar técnicas para predecir la respuesta vibroacústica de estructuras espaciales lia ido ganando importancia en los últimos años. Las técnicas numéricas existentes en la actualidad son capaces de predecir de forma fiable el comportamiento vibroacústico de sistemas con altas o bajas densidades modales. Sin embargo, ambos rangos no siempre solapan lo que hace que sea necesario el desarrollo de métodos específicos para este rango, conocido como densidad modal media. Es en este rango, conocido también como media frecuencia, donde se centra la presente Tesis doctoral, debido a la carencia de métodos específicos para el cálculo de la respuesta vibroacústica. Para las estructuras estudiadas en este trabajo, los mencionados rangos de baja y alta densidad modal se corresponden, en general, con los rangos de baja y alta frecuencia, respectivamente. Los métodos numéricos que permiten obtener la respuesta vibroacústica para estos rangos de frecuencia están bien especificados. Para el rango de baja frecuencia se emplean técnicas deterministas, como el método de los Elementos Finitos, mientras que, para el rango de alta frecuencia las técnicas estadísticas son más utilizadas, como el Análisis Estadístico de la Energía. En el rango de medias frecuencias ninguno de estos métodos numéricos puede ser usado con suficiente precisión y, como consecuencia -a falta de propuestas más específicas- se han desarrollado métodos híbridos que combinan el uso de métodos de baja y alta frecuencia, intentando que cada uno supla las deficiencias del otro en este rango medio. Este trabajo propone dos soluciones diferentes para resolver el problema de la media frecuencia. El primero de ellos, denominado SHFL (del inglés Subsystem based High Frequency Limit procedure), propone un procedimiento multihíbrido en el cuál cada subestructura del sistema completo se modela empleando una técnica numérica diferente, dependiendo del rango de frecuencias de estudio. Con este propósito se introduce el concepto de límite de alta frecuencia de una subestructura, que marca el límite a partir del cual dicha subestructura tiene una densidad modal lo suficientemente alta como para ser modelada utilizando Análisis Estadístico de la Energía. Si la frecuencia de análisis es menor que el límite de alta frecuencia de la subestructura, ésta se modela utilizando Elementos Finitos. Mediante este método, el rango de media frecuencia se puede definir de una forma precisa, estando comprendido entre el menor y el mayor de los límites de alta frecuencia de las subestructuras que componen el sistema completo. Los resultados obtenidos mediante la aplicación de este método evidencian una mejora en la continuidad de la respuesta vibroacústica, mostrando una transición suave entre los rangos de baja y alta frecuencia. El segundo método propuesto se denomina HS-CMS (del inglés Hybrid Substructuring method based on Component Mode Synthesis). Este método se basa en la clasificación de la base modal de las subestructuras en conjuntos de modos globales (que afectan a todo o a varias partes del sistema) o locales (que afectan a una única subestructura), utilizando un método de Síntesis Modal de Componentes. De este modo es posible situar espacialmente los modos del sistema completo y estudiar el comportamiento del mismo desde el punto de vista de las subestructuras. De nuevo se emplea el concepto de límite de alta frecuencia de una subestructura para realizar la clasificación global/local de los modos en la misma. Mediante dicha clasificación se derivan las ecuaciones globales del movimiento, gobernadas por los modos globales, y en las que la influencia del conjunto de modos locales se introduce mediante modificaciones en las mismas (en su matriz dinámica de rigidez y en el vector de fuerzas). Las ecuaciones locales se resuelven empleando Análisis Estadístico de Energías. Sin embargo, este último será un modelo híbrido, en el cual se introduce la potencia adicional aportada por la presencia de los modos globales. El método ha sido probado para el cálculo de la respuesta de estructuras sometidas tanto a cargas estructurales como acústicas. Ambos métodos han sido probados inicialmente en estructuras sencillas para establecer las bases e hipótesis de aplicación. Posteriormente, se han aplicado a estructuras espaciales, como satélites y reflectores de antenas, mostrando buenos resultados, como se concluye de la comparación de las simulaciones y los datos experimentales medidos en ensayos, tanto estructurales como acústicos. Este trabajo abre un amplio campo de investigación a partir del cual es posible obtener metodologías precisas y eficientes para reproducir el comportamiento vibroacústico de sistemas en el rango de la media frecuencia. ABSTRACT Over the last years an increasing need of novel prediction techniques for vibroacoustic analysis of space structures has arisen. Current numerical techniques arc able to predict with enough accuracy the vibro-acoustic behaviour of systems with low and high modal densities. However, space structures are, in general, very complex and they present a range of frequencies in which a mixed behaviour exist. In such cases, the full system is composed of some sub-structures which has low modal density, while others present high modal density. This frequency range is known as the mid-frequency range and to develop methods for accurately describe the vibro-acoustic response in this frequency range is the scope of this dissertation. For the structures under study, the aforementioned low and high modal densities correspond with the low and high frequency ranges, respectively. For the low frequency range, deterministic techniques as the Finite Element Method (FEM) are used while, for the high frequency range statistical techniques, as the Statistical Energy Analysis (SEA), arc considered as more appropriate. In the mid-frequency range, where a mixed vibro-acoustic behaviour is expected, any of these numerical method can not be used with enough confidence level. As a consequence, it is usual to obtain an undetermined gap between low and high frequencies in the vibro-acoustic response function. This dissertation proposes two different solutions to the mid-frequency range problem. The first one, named as The Subsystem based High Frequency Limit (SHFL) procedure, proposes a multi-hybrid procedure in which each sub-structure of the full system is modelled with the appropriate modelling technique, depending on the frequency of study. With this purpose, the concept of high frequency limit of a sub-structure is introduced, marking out the limit above which a substructure has enough modal density to be modelled by SEA. For a certain analysis frequency, if it is lower than the high frequency limit of the sub-structure, the sub-structure is modelled through FEM and, if the frequency of analysis is higher than the high frequency limit, the sub-structure is modelled by SEA. The procedure leads to a number of hybrid models required to cover the medium frequency range, which is defined as the frequency range between the lowest substructure high frequency limit and the highest one. Using this procedure, the mid-frequency range can be define specifically so that, as a consequence, an improvement in the continuity of the vibro-acoustic response function is achieved, closing the undetermined gap between the low and high frequency ranges. The second proposed mid-frequency solution is the Hybrid Sub-structuring method based on Component Mode Synthesis (HS-CMS). The method adopts a partition scheme based on classifying the system modal basis into global and local sets of modes. This classification is performed by using a Component Mode Synthesis, in particular a Craig-Bampton transformation, in order to express the system modal base into the modal bases associated with each sub-structure. Then, each sub-structure modal base is classified into global and local set, fist ones associated with the long wavelength motion and second ones with the short wavelength motion. The high frequency limit of each sub-structure is used as frequency frontier between both sets of modes. From this classification, the equations of motion associated with global modes are derived, which include the interaction of local modes by means of corrections in the dynamic stiffness matrix and the force vector of the global problem. The local equations of motion are solved through SEA, where again interactions with global modes arc included through the inclusion of an additional input power into the SEA model. The method has been tested for the calculation of the response function of structures subjected to structural and acoustic loads. Both methods have been firstly tested in simple structures to establish their basis and main characteristics. Methods are also verified in space structures, as satellites and antenna reflectors, providing good results as it is concluded from the comparison with experimental results obtained in both, acoustic and structural load tests. This dissertation opens a wide field of research through which further studies could be performed to obtain efficient and accurate methodologies to appropriately reproduce the vibro-acoustic behaviour of complex systems in the mid-frequency range.