28 resultados para Compuestos complejos
Resumo:
En este artículo se explora la aplicación del PCA (Principal Component Analysis), y mediciones estadísticas T 2 y Q para detectar daños en estructuras fabricadas en materiales compuestos mediante la utilización de FBGs (Fiber Bragg Grating). Un modelo PCA es construido usando datos de la estructura sin daños como un estado de referencia. Los defectos en la estructura son simulados causando pequeñas delaminaciones entre el panel y el rigidizador. Los datos de diferentes escenarios experimentales para la estructura sin daño y con daño son proyectados en el modelo PCA. Las proyecciones y los índices T 2 y Q son analizadas. Resultados de cada caso son presentados y discutidos demostrando la viabilidad y el potencial de usar esta formulación en SHM (Structural Health Monitoring)
Resumo:
Se instrumentó un prototipo de pala de aerogenerador de 150 kW de 13 metros de longitud con 24 FBGs embebidas directamente en el material durante la fabricación. Posteriormente se realizaron mediciones de deformaciones en el prototipo de pala sin ningún daño, con el fin de determinar el baseline de la pala. Luego, se indujeron algunos daños artificiales de diferentes naturalezas y severidades con el fin de estudiar la susceptibilidad de la aparición de cambios en el campo de deformaciones y la rigidez global de la pala, en función de la aparición de dichos daños. Se realizó un estudio de esfuerzos diferenciales con el fin de determinar la variación de la rigidez en la estructura y determinar si los sensores embebidos eran capaces de detectar dicha variación. Los resultados se presentan en este artículo.
Resumo:
En este informe los autores describen el flujo de los plásticos reforzados, con el que se elaboran en la industria abundantes piezas, que si bien no resultan en general espectaculares ni por su precio, ni por su tamaño, ni por el despliegue de medios tecnológicos asociados, constituyen un elementos básico en nuestro contorno cotidiano, y sin las cuales la vida diaria sería, cuanto menos, completamente diferente. Este trabajo, desarrollado por un acreditado inteniero francés y un joven ingeniero español (Francisco Chinesta y Arnaud Poitou), pretende ser una aproximación a la modelización global de aquellos tipos de procesos de fabricación.
Resumo:
La obtención de materiales monofásicos con respuesta ferroeléctrica y (anti-)ferromagnética simultánea y acoplada resulta problemática debido a limitaciones intrínsecas de tipo físico, estructural y electrónico. En este sentido una alternativa más realista, y en cierto modo con mayor flexibilidad a la hora de diseñar futuros dispositivos multiferroicos, consiste en preparar materiales compuestos en los cuales el acoplamiento magnetoeléctrico se puede alcanzar explotando los efectos interfaciales entre fases disimilares. Tal es el caso de los materiales compuestos basados en BaTiO3 (fase ferroeléctrica) y NiFe2O4 (fase magnética), que ya se han empezado a preparar fundamentalmente por medio de técnicas de deposición altamente energéticas. Sin embargo de cara a su aplicación práctica, sería interesante poder preparar esos materiales por métodos más sostenibles y menos costosos. De acuerdo con ello, en este trabajo se presenta un estudio preliminar en torno a la evolución microestructural experimentada por los materiales basados en NiFe2O4-BaTiO3 cuando son preparados mediante una técnica de procesamiento suave en disolución como es la síntesis hidrotermal. En concreto se ha analizado la influencia que diversos parámetros característicos del procesamiento hidrotermal pueden tener sobre la generación y distribución de fases e interfases durante la posterior consolidación térmica de estos materiales compuestos.
Resumo:
Situado en el límite entre Ingeniería, Informática y Biología, la mecánica computacional de las neuronas aparece como un nuevo campo interdisciplinar que potencialmente puede ser capaz de abordar problemas clínicos desde una perspectiva diferente. Este campo es multiescala por naturaleza, yendo desde la nanoescala (como, por ejemplo, los dímeros de tubulina) a la macroescala (como, por ejemplo, el tejido cerebral), y tiene como objetivo abordar problemas que son complejos, y algunas veces imposibles, de estudiar con medios experimentales. La modelización computacional ha sido ampliamente empleada en aplicaciones Neurocientíficas tan diversas como el crecimiento neuronal o la propagación de los potenciales de acción compuestos. Sin embargo, en la mayoría de los enfoques de modelización hechos hasta ahora, la interacción entre la célula y el medio/estímulo que la rodea ha sido muy poco explorada. A pesar de la tremenda importancia de esa relación en algunos desafíos médicos—como, por ejemplo, lesiones traumáticas en el cerebro, cáncer, la enfermedad del Alzheimer—un puente que relacione las propiedades electrofisiológicas-químicas y mecánicas desde la escala molecular al nivel celular todavía no existe. Con ese objetivo, esta investigación propone un marco computacional multiescala particularizado para dos escenarios respresentativos: el crecimiento del axón y el acomplamiento electrofisiológicomecánico de las neuritas. En el primer caso, se explora la relación entre los constituyentes moleculares del axón durante su crecimiento y sus propiedades mecánicas resultantes, mientras que en el último, un estímulo mecánico provoca deficiencias funcionales a nivel celular como consecuencia de sus alteraciones electrofisiológicas-químicas. La modelización computacional empleada en este trabajo es el método de las diferencias finitas, y es implementada en un nuevo programa llamado Neurite. Aunque el método de los elementos finitos es también explorado en parte de esta investigación, el método de las diferencias finitas tiene la flexibilidad y versatilidad necesaria para implementar mode los biológicos, así como la simplicidad matemática para extenderlos a simulaciones a gran escala con un coste computacional bajo. Centrándose primero en el efecto de las propiedades electrofisiológicas-químicas sobre las propiedades mecánicas, una versión adaptada de Neurite es desarrollada para simular la polimerización de los microtúbulos en el crecimiento del axón y proporcionar las propiedades mecánicas como función de la ocupación de los microtúbulos. Después de calibrar el modelo de crecimiento del axón frente a resultados experimentales disponibles en la literatura, las características mecánicas pueden ser evaluadas durante la simulación. Las propiedades mecánicas del axón muestran variaciones dramáticas en la punta de éste, donde el cono de crecimiento soporta las señales químicas y mecánicas. Bansándose en el conocimiento ganado con el modelo de diferencias finitas, y con el objetivo de ir de 1D a 3D, este esquema preliminar pero de una naturaleza innovadora allana el camino a futuros estudios con el método de los elementos finitos. Centrándose finalmente en el efecto de las propiedades mecánicas sobre las propiedades electrofisiológicas- químicas, Neurite es empleado para relacionar las cargas mecánicas macroscópicas con las deformaciones y velocidades de deformación a escala microscópica, y simular la propagación de la señal eléctrica en las neuritas bajo carga mecánica. Las simulaciones fueron calibradas con resultados experimentales publicados en la literatura, proporcionando, por tanto, un modelo capaz de predecir las alteraciones de las funciones electrofisiológicas neuronales bajo cargas externas dañinas, y uniendo lesiones mecánicas con las correspondientes deficiencias funcionales. Para abordar simulaciones a gran escala, aunque otras arquitecturas avanzadas basadas en muchos núcleos integrados (MICs) fueron consideradas, los solvers explícito e implícito se implementaron en unidades de procesamiento central (CPU) y unidades de procesamiento gráfico (GPUs). Estudios de escalabilidad fueron llevados acabo para ambas implementaciones mostrando resultados prometedores para casos de simulaciones extremadamente grandes con GPUs. Esta tesis abre la vía para futuros modelos mecánicos con el objetivo de unir las propiedades electrofisiológicas-químicas con las propiedades mecánicas. El objetivo general es mejorar el conocimiento de las comunidades médicas y de bioingeniería sobre la mecánica de las neuronas y las deficiencias funcionales que aparecen de los daños producidos por traumatismos mecánicos, como lesiones traumáticas en el cerebro, o enfermedades neurodegenerativas como la enfermedad del Alzheimer. ABSTRACT Sitting at the interface between Engineering, Computer Science and Biology, Computational Neuron Mechanics appears as a new interdisciplinary field potentially able to tackle clinical problems from a new perspective. This field is multiscale by nature, ranging from the nanoscale (e.g., tubulin dimers) to the macroscale (e.g., brain tissue), and aims at tackling problems that are complex, and sometime impossible, to study through experimental means. Computational modeling has been widely used in different Neuroscience applications as diverse as neuronal growth or compound action potential propagation. However, in the majority of the modeling approaches done in this field to date, the interactions between the cell and its surrounding media/stimulus have been rarely explored. Despite of the tremendous importance of such relationship in several medical challenges—e.g., traumatic brain injury (TBI), cancer, Alzheimer’s disease (AD)—a bridge between electrophysiological-chemical and mechanical properties of neurons from the molecular scale to the cell level is still lacking. To this end, this research proposes a multiscale computational framework particularized for two representative scenarios: axon growth and electrophysiological-mechanical coupling of neurites. In the former case, the relation between the molecular constituents of the axon during its growth and its resulting mechanical properties is explored, whereas in the latter, a mechanical stimulus provokes functional deficits at cell level as a consequence of its electrophysiological-chemical alterations. The computational modeling approach chosen in this work is the finite difference method (FDM), and was implemented in a new program called Neurite. Although the finite element method (FEM) is also explored as part of this research, the FDM provides the necessary flexibility and versatility to implement biological models, as well as the mathematical simplicity to extend them to large scale simulations with a low computational cost. Focusing first on the effect of electrophysiological-chemical properties on the mechanical proper ties, an adaptation of Neurite was developed to simulate microtubule polymerization in axonal growth and provide the axon mechanical properties as a function of microtubule occupancy. After calibrating the axon growth model against experimental results available in the literature, the mechanical characteristics can be tracked during the simulation. The axon mechanical properties show dramatic variations at the tip of the axon, where the growth cone supports the chemical and mechanical signaling. Based on the knowledge gained from the FDM scheme, and in order to go from 1D to 3D, this preliminary yet novel scheme paves the road for future studies with FEM. Focusing then on the effect of mechanical properties on the electrophysiological-chemical properties, Neurite was used to relate macroscopic mechanical loading to microscopic strains and strain rates, and simulate the electrical signal propagation along neurites under mechanical loading. The simulations were calibrated against experimental results published in the literature, thus providing a model able to predict the alteration of neuronal electrophysiological function under external damaging load, and linking mechanical injuries to subsequent acute functional deficits. To undertake large scale simulations, although other state-of-the-art architectures based on many integrated cores (MICs) were considered, the explicit and implicit solvers were implemented for central processing units (CPUs) and graphics processing units (GPUs). Scalability studies were done for both implementations showing promising results for extremely large scale simulations with GPUs. This thesis opens the avenue for future mechanical modeling approaches aimed at linking electrophysiological- chemical properties to mechanical properties. Its overarching goal is to enhance the bioengineering and medical communities knowledge on neuronal mechanics and functional deficits arising from damages produced by direct mechanical insults, such as TBI, or neurodegenerative evolving illness, such as AD.
Resumo:
La heterogeneidad del medio geológico introduce en el proyecto de obra subterránea un alto grado de incertidumbre que debe ser debidamente gestionado a fin de reducir los riesgos asociados, que son fundamentalmente de tipo geotécnico. Entre los principales problemas a los que se enfrenta la Mecánica de Rocas moderna en el ámbito de la construcción subterránea, se encuentran la fluencia de roca en túneles (squeezing) y la rotura de pilares de carbón. Es ampliamente conocido que su aparición causa importantes perjuicios en el coste y la seguridad de los proyectos por lo que su estudio, ha estado tradicionalmente vinculado a la predicción de su ocurrencia. Entre las soluciones existentes para la determinación de estos problemas se encuentran las que se basan en métodos analíticos y numéricos. Estas metodologías son capaces de proporcionar un alto nivel de representatividad respecto del comportamiento geotécnico real, sin embargo, su utilización solo es posible cuando se dispone de una suficiente caracterización geotécnica y por tanto de una detallada definición de los parámetros que alimentan los complejos modelos constitutivos y criterios de rotura que los fenómenos estudiados requieren. Como es lógico, este nivel de definición solo es posible cuando se alcanzan etapas avanzadas de proyecto, incluso durante la propia construcción, a fin de calibrar adecuadamente los parámetros introducidos en los modelos, lo que supone una limitación de uso en etapas iniciales, cuando su predicción tiene verdadero sentido. Por su parte, los métodos empíricos permiten proporcionar soluciones a estos complejos problemas de un modo sencillo, con una baja parametrización y, dado su eminente enfoque observacional, de gran fiabilidad cuando se implementan sobre condiciones de contorno similares a las originales. La sencillez y escasez de los parámetros utilizados permiten a estas metodologías ser utilizadas desde las fases preliminares del proyecto, ya que estos constituyen en general, información habitual de fácil y económica adquisición. Este aspecto permite por tanto incorporar la predicción desde el principio del proceso de diseño, anticipando el riesgo en origen. En esta tesis doctoral, se presenta una nueva metodología empírica que sirve para proporcionar predicciones para la ocurrencia de squeezing y el fallo de pilares de carbón basada en una extensa recopilación de información de casos reales de túneles y minas en las que ambos fenómenos fueron evaluados. Esta información, recogida de referencias bibliográficas de prestigio, ha permitido recopilar una de las más extensas bases de datos existentes hasta la fecha relativa a estos fenómenos, lo que supone en sí mismo una importante contribución sobre el estado del arte. Con toda esta información, y con la ayuda de la teoría de clasificadores estadísticos, se ha implementado sobre las bases de datos un clasificador lineal de tipo regresión logística que permite hacer predicciones sobre la ocurrencia de ambos fenómenos en términos de probabilidad, y por tanto ponderar la incertidumbre asociada a la heterogeneidad incorporada por el medio geológico. Este aspecto del desarrollo es el verdadero valor añadido proporcionado por la tesis y la principal ventaja de la solución propuesta respecto de otras metodologías empíricas. Esta capacidad de ponderación probabilística permite al clasificador constituir una solución muy interesante como metodología para la evaluación de riesgo geotécnico y la toma de decisiones. De hecho, y como ejercicio de validación práctica, se ha implementado la solución desarrollada en un modelo coste-beneficio asociado a la optimización del diseño de pilares involucrados en una de mina “virtual” explotada por tajos largos. La capacidad del clasificador para cuantificar la probabilidad de fallo del diseño, junto con una adecuada cuantificación de las consecuencias de ese fallo, ha permitido definir una ley de riesgo que se ha incorporado al balance de costes y beneficios, que es capaz, a partir del redimensionamiento iterativo del sistema de pilares y de la propia configuración de la mina, maximizar el resultado económico del proyecto minero bajo unas condiciones de seguridad aceptables, fijadas de antemano. Geological media variability introduces to the subterranean project a high grade of uncertainty that should be properly managed with the aim to reduce the associated risks, which are mainly geotechnical. Among the major problems facing the modern Rock Mechanics in the field of underground construction are both, the rock squeezing while tunneling and the failure of coal pillars. Given their harmfulness to the cost and safety of the projects, their study has been traditionally linked to the determination of its occurrence. Among the existing solutions for the determination of these problems are those that are based on analytical and numerical methods. Those methodologies allow providing a high level of reliability of the geotechnical behavior, and therefore a detailed definition of the parameters that feed the complex constitutive models and failure criteria that require the studied phenomena. Obviously, this level of definition is only possible when advanced stages of the project are achieved and even during construction in order to properly calibrate the parameters entered in the models, which suppose a limited use in early stages, when the prediction has true sense. Meanwhile, empirical methods provide solutions to these complex problems in a simple way, with low parameterization and, given his observational scope, with highly reliability when implemented on similar conditions to the original context. The simplicity and scarcity of the parameters used allow these methodologies be applied in the early stages of the project, since that information should be commonly easy and cheaply to get. This aspect can therefore incorporate the prediction from the beginning of the design process, anticipating the risk beforehand. This thesis, based on the extensive data collection of case histories of tunnels and underground mines, presents a novel empirical approach used to provide predictions for the occurrence of both, squeezing and coal pillars failures. The information has been collected from prestigious references, providing one of the largest databases to date concerning phenomena, a fact which provides an important contribution to the state of the art. With all this information, and with the aid of the theory of statistical classifiers, it has been implemented on both databases, a type linear logistic regression classifier that allows predictions about the occurrence of these phenomena in terms of probability, and therefore weighting the uncertainty associated with geological variability. This aspect of the development is the real added value provided by the thesis and the main advantage of the proposed solution over other empirical methodologies. This probabilistic weighting capacity, allows being the classifier a very interesting methodology for the evaluation of geotechnical risk and decision making. In fact, in order to provide a practical validation, we have implemented the developed solution within a cost-benefit analysis associated with the optimization of the design of coal pillar systems involved in a "virtual" longwall mine. The ability of the classifier to quantify the probability of failure of the design along with proper quantification of the consequences of that failure, has allowed defining a risk law which is introduced into the cost-benefits model, which is able, from iterative resizing of the pillar system and the configuration of the mine, maximize the economic performance of the mining project under acceptable safety conditions established beforehand.
Resumo:
In opposition to the current period of upheaval and manifest limitations of the quantitative methods to develop forecasting models for reliable in medium and long term future scenarios, it is increasingly necessary turning to qualitative approaches which minimize the impact of unexpected consequences: foresight. Flexible models from the new progress on complex systems development, but seen from the other side, the negative thinking. This is an instrument that looks like so contemporary but it could be inherent to the whole interdisciplinary knowledge transfer. RESUMEN Ante el convulso panorama actual y las patentes limitaciones de los métodos cuantitativos para el desarrollo de modelos de previsión de escenarios futuros fi ables a medio y largo plazo, resulta cada vez más necesario, recurrir a planteamientos cualitativos que minimicen el impacto de las consecuencias imprevistas: la prospectiva. Modelos fl exibles procedentes de los nuevos avances en el desarrollo de los sistemas complejos, pero desde un enfoque distinto, el pensamiento negativo. Un instrumento que si bien parece ser completamente contemporáneo, sería inherente a toda transferencia interdisciplinar de conocimiento.
Resumo:
El propósito de esta tesis fue estudiar el rendimiento ofensivo de los equipos de balonmano de élite cuando se considera el balonmano como un sistema dinámico complejo no lineal. La perspectiva de análisis dinámica dependiente del tiempo fue adoptada para evaluar el rendimiento de los equipos durante el partido. La muestra general comprendió los 240 partidos jugados en la temporada 2011-2012 de la liga profesional masculina de balonmano de España (Liga ASOBAL). En el análisis posterior solo se consideraron los partidos ajustados (diferencia final de goles ≤ 5; n = 142). El estado del marcador, la localización del partido, el nivel de los oponentes y el periodo de juego fueron incorporados al análisis como variables situacionales. Tres estudios compusieron el núcleo de la tesis. En el primer estudio, analizamos la coordinación entre las series temporales que representan el proceso goleador a lo largo del partido de cada uno de los dos equipos que se enfrentan. Autocorrelaciones, correlaciones cruzadas, doble media móvil y transformada de Hilbert fueron usadas para el análisis. El proceso goleador de los equipos presentó una alta consistencia a lo largo de todos los partidos, así como fuertes modos de coordinación en fase en todos los contextos de juego. Las únicas diferencias se encontraron en relación al periodo de juego. La coordinación en los procesos goleadores de los equipos fue significativamente menor en el 1er y 2º periodo (0–10 min y 10–20 min), mostrando una clara coordinación creciente a medida que el partido avanzaba. Esto sugiere que son los 20 primeros minutos aquellos que rompen los partidos. En el segundo estudio, analizamos los efectos temporales (efecto inmediato, a corto y a medio plazo) de los tiempos muertos en el rendimiento goleador de los equipos. Modelos de regresión lineal múltiple fueron empleados para el análisis. Los resultados mostraron incrementos de 0.59, 1.40 y 1.85 goles para los periodos que comprenden la primera, tercera y quinta posesión de los equipos que pidieron el tiempo muerto. Inversamente, se encontraron efectos significativamente negativos para los equipos rivales, con decrementos de 0.50, 1.43 y 2.05 goles en los mismos periodos respectivamente. La influencia de las variables situacionales solo se registró en ciertos periodos de juego. Finalmente, en el tercer estudio, analizamos los efectos temporales de las exclusiones de los jugadores sobre el rendimiento goleador de los equipos, tanto para los equipos que sufren la exclusión (inferioridad numérica) como para los rivales (superioridad numérica). Se emplearon modelos de regresión lineal múltiple para el análisis. Los resultados mostraron efectos negativos significativos en el número de goles marcados por los equipos con un jugador menos, con decrementos de 0.25, 0.40, 0.61, 0.62 y 0.57 goles para los periodos que comprenden el primer, segundo, tercer, cuarto y quinto minutos previos y posteriores a la exclusión. Para los rivales, los resultados mostraron efectos positivos significativos, con incrementos de la misma magnitud en los mismos periodos. Esta tendencia no se vio afectada por el estado del marcador, localización del partido, nivel de los oponentes o periodo de juego. Los incrementos goleadores fueron menores de lo que se podría esperar de una superioridad numérica de 2 minutos. Diferentes teorías psicológicas como la paralización ante situaciones de presión donde se espera un gran rendimiento pueden ayudar a explicar este hecho. Los últimos capítulos de la tesis enumeran las conclusiones principales y presentan diferentes aplicaciones prácticas que surgen de los tres estudios. Por último, se presentan las limitaciones y futuras líneas de investigación. ABSTRACT The purpose of this thesis was to investigate the offensive performance of elite handball teams when considering handball as a complex non-linear dynamical system. The time-dependent dynamic approach was adopted to assess teams’ performance during the game. The overall sample comprised the 240 games played in the season 2011-2012 of men’s Spanish Professional Handball League (ASOBAL League). In the subsequent analyses, only close games (final goal-difference ≤ 5; n = 142) were considered. Match status, game location, quality of opposition, and game period situational variables were incorporated into the analysis. Three studies composed the core of the thesis. In the first study, we analyzed the game-scoring coordination between the time series representing the scoring processes of the two opposing teams throughout the game. Autocorrelation, cross-correlation, double moving average, and Hilbert transform were used for analysis. The scoring processes of the teams presented a high consistency across all the games as well as strong in-phase modes of coordination in all the game contexts. The only differences were found when controlling for the game period. The coordination in the scoring processes of the teams was significantly lower for the 1st and 2nd period (0–10 min and 10–20 min), showing a clear increasing coordination behavior as the game progressed. This suggests that the first 20 minutes are those that break the game-scoring. In the second study, we analyzed the temporal effects (immediate effect, short-term effect, and medium-term effect) of team timeouts on teams’ scoring performance. Multiple linear regression models were used for the analysis. The results showed increments of 0.59, 1.40 and 1.85 goals for the periods within the first, third and fifth timeout ball possessions for the teams that requested the timeout. Conversely, significant negative effects on goals scored were found for the opponent teams, with decrements of 0.59, 1.43 and 2.04 goals for the same periods, respectively. The influence of situational variables on the scoring performance was only registered in certain game periods. Finally, in the third study, we analyzed the players’ exclusions temporal effects on teams’ scoring performance, for the teams that suffer the exclusion (numerical inferiority) and for the opponents (numerical superiority). Multiple linear regression models were used for the analysis. The results showed significant negative effects on the number of goals scored for the teams with one less player, with decrements of 0.25, 0.40, 0.61, 0.62, and 0.57 goals for the periods within the previous and post one, two, three, four and five minutes of play. For the opponent teams, the results showed positive effects, with increments of the same magnitude in the same game periods. This trend was not affected by match status, game location, quality of opposition, or game period. The scoring increments were smaller than might be expected from a 2-minute numerical playing superiority. Psychological theories such as choking under pressure situations where good performance is expected could contribute to explain this finding. The final chapters of the thesis enumerate the main conclusions and underline the main practical applications that arise from the three studies. Lastly, limitations and future research directions are described.
Resumo:
Los fenómenos dinámicos pueden poner en peligro la integridad de estructuras aeroespaciales y los ingenieros han desarrollado diferentes estrategias para analizarlos. Uno de los grandes problemas que se plantean en la ingeniería es cómo atacar un problema dinámico estructural. En la presente tesis se plantean distintos fenómenos dinámicos y se proponen métodos para estimar o simular sus comportamientos mediante un análisis paramétrico determinista y aleatorio del problema. Se han propuesto desde problemas sencillos con pocos grados de libertad que sirven para analizar las diferentes estrategias y herramientas a utilizar, hasta fenómenos muy dinámicos que contienen comportamientos no lineales, daños y fallos. Los primeros ejemplos de investigación planteados cubren una amplia gama de los fenómenos dinámicos, como el análisis de vibraciones de elementos másicos, incluyendo impactos y contactos, y el análisis de una viga con carga armónica aplicada a la que también se le añaden parámetros aleatorios que pueden responder a un desconocimiento o incertidumbre de los mismos. Durante el desarrollo de la tesis se introducen conceptos y se aplican distintos métodos, como el método de elementos finitos (FEM) en el que se analiza su resolución tanto por esquemas implícitos como explícitos, y métodos de análisis paramétricos y estadísticos mediante la técnica de Monte Carlo. Más adelante, una vez ya planteadas las herramientas y estrategias de análisis, se estudian fenómenos más complejos, como el impacto a baja velocidad en materiales compuestos, en el que se busca evaluar la resistencia residual y, por lo tanto, la tolerancia al daño de la estructura. Se trata de un suceso que puede producirse por la caída de herramienta, granizo o restos en la pista de aterrizaje. Otro de los fenómenos analizados también se da en un aeropuerto y se trata de la colisión con un dispositivo frangible, el cual tiene que romperse bajo ciertas cargas y, sin embargo, soportar otras. Finalmente, se aplica toda la metodología planteada en simular y analizar un posible incidente en vuelo, el fenómeno de la pérdida de pala de un turbohélice. Se trata de un suceso muy particular en el que la estructura tiene que soportar unas cargas complejas y excepcionales con las que la aeronave debe ser capaz de completar con éxito el vuelo. El análisis incluye comportamientos no lineales, daños, y varios tipos de fallos, y en el que se trata de identificar los parámetros clave en la secuencia del fallo. El suceso se analiza mediante análisis estructurales deterministas más habituales y también mediante otras técnicas como el método de Monte Carlo con el que se logran estudiar distintas incertidumbres en los parámetros con variables aleatorias. Se estudian, entre otros, el tamaño de pala perdida, la velocidad y el momento en el que se produce la rotura, y la rigidez y resistencia de los apoyos del motor. Se tiene en cuenta incluso el amortiguamiento estructural del sistema. Las distintas estrategias de análisis permiten obtener unos resultados valiosos e interesantes que han sido objeto de distintas publicaciones. ABSTRACT Dynamic phenomena can endanger the integrity of aerospace structures and, consequently, engineers have developed different strategies to analyze them. One of the major engineering problems is how to deal with the structural dynamics. In this thesis, different dynamic phenomena are introduced and several methods are proposed to estimate or simulate their behaviors. The analysis is considered through parametric, deterministic and statistical methods. The suggested issues are from simple problems with few degrees of freedom, in order to develop different strategies and tools to solve them, to very dynamic phenomena containing nonlinear behaviors failures, damages. The first examples cover a wide variety of dynamic phenomena such as vibration analysis of mass elements, including impacts and contacts, and beam analysis with harmonic load applied, in which random parameters are included. These parameters can represent the unawareness or uncertainty of certain variables. During the development of the thesis several concepts are introduced and different methods are applied, such as the finite element method (FEM), which is solved through implicit and explicit schemes, and parametrical and statistical methods using the Monte Carlo analysis technique. Next, once the tools and strategies of analysis are set out more complex phenomena are studied. This is the case of a low-speed impact in composite materials, the residual strength of the structure is evaluated, and therefore, its damage tolerance. This incident may occur from a tool dropped, hail or debris throw on the runway. At an airport may also occur, and it is also analyzed, a collision between an airplane and a frangible device. The devise must brake under these loads, however, it must withstand others. Finally, all the considered methodology is applied to simulate and analyze a flight incident, the blade loss phenomenon of a turboprop. In this particular event the structure must support complex and exceptional loads and the aircraft must be able to successfully complete the flight. Nonlinear behavior, damage, and different types of failures are included in the analysis, in which the key parameters in the failure sequence are identified. The incident is analyzed by deterministic structural analysis and also by other techniques such as Monte Carlo method, in which it is possible to include different parametric uncertainties through random variables. Some of the evaluated parameters are, among others, the blade loss size, propeller rotational frequency, speed and angular position where the blade is lost, and the stiffness and strength of the engine mounts. The study does also research on the structural damping of the system. The different strategies of analysis obtain valuable and interesting results that have been already published.
Resumo:
El yacimiento Casablanca es un campo petrolífero maduro en etapa de agotamiento considerado como el más grande del mar Mediterráneo. Lleva en explotación desde 1977 y tiene una producción acumulada de 22.6 MMm3 de petróleo. La formación productiva consiste en carbonatos karstificados del Grupo Basal Terciario y del Mesozoico. El mecanismo de drenaje identificado es por empuje de agua de un gran acuífero activo considerado como infinito ya que ha mantenido la presión al 95% de la original después de casi 40 años de producción. En el año 1999, los pozos asociados al campo Casablanca producían unos 500 m3/d de agua que era tratada y vertida al mar. Para cumplir con las leyes medio ambientales de la época, se convirtió el pozo Casablanca-9 en pozo sumidero con el objetivo de devolver a la formación toda el agua producida de una manera segura, limpia y totalmente respetuosa con el medio ambiente. Años después se observó que ésta inyección no era inocua, sino que tenía un impacto en la producción de petróleo. En la presente tesis se ha definido una metodología que, mediante la experimentación en campo con trazadores, pruebe la existencia de comunicación entre pozos productores y pozos sumidero, rompiendo así el paradigma instaurado en el campo que reza que no es posible la recuperación mejorada mediante inyección de agua en Casablanca debido al gran acuífero existente. Los resultados obtenidos serán el punto de partida para la construcción de un modelo de simulación que permita verificar que es posible la aplicación de técnicas IOR/EOR, y más concretamente la recuperación mejorada mediante inyección de agua en presencia de un acuífero activo infinito. ABSTRACT Casablanca is a brown field in the decline stage and is considered as the largest field in the Mediterranean Sea. It has been on production since 1977 and the cumulative production is 22.6 MMm3 of oil. The productive reservoir formation consists on complex karstified carbonates from Basal Tertiary Group and Mesozoic. The drive mechanism identified is water drive by a large aquifer considered as infinite acting due to the pressure maintenance at 95% of the original after near 40 years of production. In 1999, the wells associated to Casablanca field produced about 500 m3/d of water that was treated and disposed to the sea. In order to comply with the environmental laws at that time, Casablanca-9 was converted from producer to water disposal well with the objective to dispose all the water back to the formation in a safe, clean and environmental fully respectful way. Years later, it was observed that injection was not innocuous, but had an impact on oil production. The methodology defined in this thesis will demonstrate the existence of communication between producers and disposal wells through field experiments with tracers, breaking the paradigm established in the field that says it is not possible to apply waterflooding techniques in Casablanca due to the existence of a strong infinite acting aquifer. The results obtained will be the starting point in order to build a simulation model able to demonstrate that the application of IOR / EOR techniques are suitable, more specifically water flooding techniques in presence of an infinite active aquifer.
Resumo:
Los enjarjes, jarjas o jarjamentos conforman el comienzo de la bóveda de crucería, el lugar en el que todos los nervios nacen reunidos. Permiten la transición entre el muro y las dovelas que constituyen nervios, resolviendo un encuentro de gran importancia constructiva. Están compuestos por piezas de lechos horizontales que traban con el muro y que, además de conformar el arranque de los nervios, han de proporcionar apoyo a las primeras dovelas. Al construirse a la vez que el muro y antes que el resto de la bóveda, se podría decir que son los encargados de portar su ADN: en ellos queda registrado el número de nervios que tendrá la bóveda, su curvatura, desde qué altura arrancará cada uno, su perfil, etc. El objetivo de este trabajo se centra en estudio de los enjarjes en la obra de Guillem Sagrera abordando su dimensión tecnológica, constructiva y de diseño. Dos características los distinguen de otras soluciones y justifican su interés: los nervios surgen directamente del muro, sin la intermediación de capiteles, ménsulas o pilastras; y se diseñan con la intención de facilitar la aparición de intersecciones entre las molduras de sus perfiles, en algunos casos mediante el cruce de los ejes de los nervios. Sagrera nos acerca a una innovación arquitectónica en la que el esfuerzo no se centra en realizar bóvedas con muchos nervios o con trazados en planta complejos, sino en la cuidada resolución de este encuentro de nervios. En ella se adivina el trabajo minucioso con las plantillas que controlan el trazado del contorno de los lechos de las piezas y la hábil mano de los canteros que son capaces de tallar intersecciones de gran complejidad. Se ha realizado un repaso de los primeros experimentos relativos al modo de relacionarse los nervios entre sí para ilustrar el contexto y origen de las soluciones realizadas por Guillem Sagrera. Mostramos que ante ciertas dificultades, consecuencia de la reunión de nervios, los constructores fueron capaces de desarrollar nuevas soluciones, mediante la experimentación con un sistema constructivo que conocían y manejaban con destreza. Para acercarnos a la comprensión de las estrategias de diseño que permiten el proyecto de estos enjarjes y los procedimientos técnicos y constructivos necesarios para su ejecución, nos vimos en la necesidad de adentrarnos en la problemática general de los enjarjes de la bóveda de crucería. De este modo, lo que empezó siendo una introducción para poder contextualizar la obra del mallorquín acabó convirtiéndose en la primera parte de la tesis, cuyo volumen prácticamente equipara a la segunda. En ella presentamos el proceso de diseño, trazado y talla de los cuatro enjarjes llevados a cabo en el taller de cantería de la ETSAM, en los que hemos podido experimentar de manera práctica los aspectos teóricos desarrollados. Estos ensayos nos han permitido contrastar hipótesis y baremar la dificultad de ciertos procedimientos o procesos, así como acercarnos realmente al elemento constructivo. El trabajo práctico nos ha enseñado a no fiarnos siempre de las hipótesis que se desarrollan modelando con el ordenador o dibujando; a valorar el pensar con las manos. En relación con la obra de Sagrera, la presente investigación realiza aportaciones al conocimiento del cambio proyectual y constructivo llevado a cabo en los arranques de las bóvedas entre los siglos XIII y XV, cuando los nervios comienzan a surgir directamente de los soportes y se dan los primeros cruzamientos. Mostramos que ya no solamente se construyen enjarjes fruto directo de la geometría general de la bóveda, sino que se llevan a cabo cambios deliberados en relación a su resultado, en los que se advierten decisiones proyectuales que, por supuesto, no serían viables sin las posibilidades que ofrece el trabajo con plantillas. ABSTRACT The solid blocks commonly known as tas-de-charge (in Spanish enjarjes, jarjas or jarjamentos) constitute the beginning of the ribbed vault – the place from which all the ribs spring together. They facilitate a transition between the wall and the rib voussoirs, and thus solve a junction of utmost constructive importance. They consist of blocks set in horizontal courses which interlock with the wall and which, as well as constituting the springing of the ribs, serve as a support for their first voussoirs. The tas-de-charge are built simultaneously with the wall and well before the remainder of the vault – thus, they arguably carry its ‘DNA’, since they register how many ribs the vault will have as well as their curvature, their springing height or their profile. This work is focused on the study of the tas-de-charge in the works of Guillem Sagrera, and will address their technological, constructive and design aspects. Two characteristics set these apart from other solutions and justify their relevance: these are that the ribs spring directly from the wall without the mediation of capitals, corbels or pilasters; and that they are deliberately designed to force the intersection of their mouldings, in some cases by crossing the rib axes. Sagrera’s work tells a story of architectural innovation – one where the effort is not centred on creating vaults with numerous ribs or a sophisticated ground plan, but on carefully solving the rib unions, which evidence a meticulous use of templates to control the tracing of the pieces’ profiles as well as the skill of the stonemasons, able to carve highly complex intersections. An overview of the first experiments with rib relationships will illustrate the context and origin of Guillem Sagrera’s solutions. We show how, faced with difficulties arising from the convergence of ribs into the tas-de-charge, builders were able to develop new solutions by experimenting with a construction system that they were already familiar with and could control easily. In order to gain a better insight into the design strategies behind his tas-de-charge and the technical and constructive procedures required for their execution, we found ourselves facing the need to address the general subject of tas-de-charge in ribbed vaults. This, which began as an introduction meant as context for Sagrera’s work, took on a life of its own and became the first half of the thesis, with a volume practically equal to that of the second. We have devoted a chapter to experimental archaeology. It comprises the design, tracing and carving processes for the four tas-de-charge executed at the ETSAM Stonecutting Workshop, in which we have tested experimentally the theories studied in the previous chapters. These tests have allowed us to contrast hypotheses, assess the difficulty of certain procedures or processes and understand the built element as a real entity. The practical work has taught us not to always trust the hypotheses proposed through computer modelling or drawing – and to recognise the importance of coordinating the hands and the mind. After studying Sagrera’s work and contrasting it with other related or previous tas-de-charge, our research will seek to make a contribution to the study of the shift in the design and construction of vault springers that took place between the 13th and 14th centuries, when ribs began to spring directly from their support and moulding crossings began to appear. We show that, from then on, tas-de-charge would not only depend on the general vault geometry – deliberate modifications would be carried out in order to achieve the desired result. This reveals design decisions that would have been unworkable if not for the effective use of template strategies.
Resumo:
Desde hace ya algunos años la búsqueda de energías alternativas a los combustibles fósiles es uno de los grandes retos a nivel mundial. Según los datos de la Agencia Estadounidense de Información sobre la Energía (EIA), el consumo energético en el mundo fue de 18 TW en 2015 y se espera que este consumo se dispare hasta alcanzar los 25 TW en 2035 y los 30 TW en 2050. Parece, por tanto, necesario dar respuesta a esta demanda creciente, y no solo considerar de dónde va a proceder esta energía sino también cuáles van a ser las consecuencias derivadas de este aumento en el consumo energético. Ya en el año 2007 la Academia Sueca reconoció, con la concesión del Premio Nobel de la Paz al ex vicepresidente de Estados Unidos Al Gore y al Grupo Intergubernamental de expertos sobre Cambio Climático (IPCC) de Naciones Unidas, la necesidad de concienciación de que el modelo de desarrollo que tenemos es ecológicamente insostenible. En este contexto, las energías renovables en general y, la energía solar en particular, tienen mucho que ofrecer. Una de las mayores ventajas de la energía solar respecto a las otras fuentes de energía es su enorme potencial, que los investigadores que trabajan en este campo resumen con la siguiente afirmación: la cantidad de energía solar que la Tierra recibe en una hora es mayor que el consumo mundial en el planeta durante todo un año. Al hablar de energía solar se suele distinguir entre energía solar térmica y energía solar fotovoltaica; la primera consiste en aprovechar la energía del sol para convertirla en calor, mientras que la segunda pretende transformar la radiación solar en electricidad por medio de unos dispositivos llamados células fotovoltaicas. Y es precisamente en este campo donde se centra este proyecto. El fundamento científico en el que se basan las células fotovoltaicas es el efecto fotoeléctrico, descubierto por Becquerel en 1839. No obstante, tendrían que pasar más de cien años hasta que investigadores de los laboratorios Bell en 1954 desarrollaran una célula de silicio monocristalino con un rendimiento del 6%. Y en 1958, con el lanzamiento del satélite Vangard I equipado con paneles solares se pudo demostrar la viabilidad de esta tecnología. Desde entonces, la investigación en esta área ha permitido desarrollar dispositivos con eficiencias superiores al 20%. No obstante, la fotovoltaica tradicional basada en elementos semiconductores tipo silicio presenta algunos inconvenientes como el impacto visual de los parques solares, los costes elevados o los rendimientos no muy altos. El descubrimiento de materiales orgánicos semiconductores, reconocido con el Premio Nobel de Química a Heeger, MacDiarmid y Shirakawa en 1976, ha permitido ampliar el campo de la fotovoltaica, ofreciendo la posibilidad de desarrollar células solares orgánicas frente a las células tradicionales inorgánicas. Las células fotovoltaicas orgánicas resultan atractivas ya que, en principio, presentan ventajas como reducción de costes y facilidad de procesado: los materiales orgánicos se pueden elaborar mediante procesos de impresión y recubrimiento de alta velocidad, aerosoles o impresión por inyección y se podrían aplicar como una pintura sobre superficies, tejados o edificios. La transformación de la energía solar en corriente eléctrica es un proceso que transcurre en varias etapas: 1. Absorción del fotón por parte del material orgánico. 2. Formación de un excitón (par electrón-hueco), donde el electrón, al absorber el fotón, es promovido a un nivel energético superior dejando un hueco en el nivel energético en el que se encontraba inicialmente. 3. Difusión del excitón, siendo muy decisiva la morfología del dispositivo. 4. Disociación del excitón y transporte de cargas, lo que requiere movilidades altas de los portadores de cargas. 5. Recolección de cargas en los electrodos. En el diseño de las células solares orgánicas, análogamente a los semiconductores tipo p y tipo n inorgánicos, se suelen combinar dos tipos de materiales orgánicos: un material orgánico denominado dador, que absorbe el fotón y que a continuación deberá ceder el electrón a un segundo material orgánico, denominado aceptor. Para que la célula resulte eficaz es necesario que se cumplan simultáneamente varios requisitos: 1. La energía del fotón incidente debe ser superior a la diferencia de energía entre los orbitales frontera del material orgánico, el HOMO (orbital molecular ocupado de más alta energía) y el LUMO (orbital desocupado de menor energía). Para ello, se necesitan materiales orgánicos semiconductores que presenten una diferencia de energía entre los orbitales frontera (ELUMO-EHOMO= band gap) menor de 2 eV. Materiales orgánicos con estas características son los polímeros conjugados, donde alternan dobles enlaces carbono-carbono con enlaces sencillos carbono-carbono. Uno de los polímeros orgánicos más utilizados como material dador es el P3HT (poli-3-hexiltiofeno). 2. Tanto el material orgánico aceptor como el material orgánico dador deben presentar movilidades altas para los portadores de carga, ya sean electrones o huecos. Este es uno de los campos en los que los materiales orgánicos se encuentran en clara desventaja frente a los materiales inorgánicos: la movilidad de electrones en el silicio monocristalino es 1500 cm2V-1s-1 y en el politiofeno tan solo 10-5 cm2V-1s-1. La movilidad de los portadores de carga aparece muy relacionada con la estructura del material, cuanto más cristalino sea el material, es decir, cuanto mayor sea su grado de organización, mejor será la movilidad. Este proyecto se centra en la búsqueda de materiales orgánicos que puedan funcionar como dadores en el dispositivo fotovoltaico. Y en lugar de centrarse en materiales de tipo polimérico, se ha preferido explorar otra vía: materiales orgánicos semiconductores pero con estructura de moléculas pequeñas. Hay varias razones para intentar sustituir los materiales poliméricos por moléculas pequeñas como, por ejemplo, la difícil reproducibilidad de resultados que se encuentra con los materiales poliméricos y su baja cristalinidad, en general. Entre las moléculas orgánicas sencillas que pudieran ser utilizadas como el material dador en una célula fotovoltaica orgánica llama la atención el atractivo de las moléculas de epindolidiona y quinacridona. En los dos casos se trata de moléculas planas, con enlaces conjugados y que presentan anillos condensados, cuatro en el caso de la epindolidiona y cinco en el caso de la quinacridona. Además ambos compuestos aparecen doblemente funcionalizados con grupos dadores de enlace de hidrógeno (NH) y aceptores (grupos carbonilo C=O). Por su estructura, estas moléculas podrían organizarse tanto en el plano, mediante la formación de varios enlaces de hidrógeno intermoleculares, como en apilamientos verticales tipo columnar, por las interacciones entre las superficies de los anillos aromáticos que forman parte de su estructura (tres en el caso de la quinacridona) y dos (en el caso de la epindolidiona). Esta organización debería traducirse en una mayor movilidad de portadores de carga, cumpliendo así con uno de los requisitos de un material orgánico para su aplicación en fotovoltaica. De estas dos moléculas, en este trabajo se profundiza en las moléculas tipo quinacridona, ya que el desarrollo de las moléculas tipo epindolidiona se llevó a cabo en un proyecto de investigación financiado por una beca Repsol y concedida a Guillermo Menéndez, alumno del Grado en Tecnologías Industriales de esta escuela. La quinacridona es uno de los pigmentos más utilizados y se estima que la venta anual de los mismos alcanza las 4.000 toneladas por año. Son compuestos muy estables tanto desde el punto de vista térmico como fotoquímico y su síntesis no resulta excesivamente compleja. Son además compuestos no tóxicos y la legislación autoriza su empleo en cosméticos y juguetes para niños. El inconveniente principal de la quinacridona es su elevada insolubilidad (soluble en ácido sulfúrico concentrado), por lo que aunque resulta un material muy atractivo para su aplicación en fotovoltaica, resulta difícil su implementación. De hecho, solo es posible su incorporación en dispositivos fotovoltaicos funcionalizando la quinacridona con algún grupo lábil que le proporcione la suficiente solubilidad para poder ser aplicado y posteriormente eliminar dicho grupo lábil. La propuesta inicial de este proyecto es intentar desarrollar quinacridonas que sean solubles en los disolventes orgánicos más habituales tipo cloruro de metileno o cloroformo, para de este modo poder cumplir con una de las ventajas que, a priori, ofrecen las células fotovoltaicas orgánicas frente a las inorgánicas, como es la facilidad de su procesado. El objetivo se centra, por lo tanto, en la preparación de quinacridonas solubles pero sin renunciar a su capacidad para formar enlaces de hidrógeno ni a su capacidad de apilamiento π-π, ya que se quiere mantener los valores de movilidad de portadores para la quinacridona (movilidad de huecos 0,2 cm2V-1s-1). En primer lugar se intenta la preparación de una quinacridona que presenta la ventaja de que los materiales de partida para su síntesis son comerciales: a partir del succinato de dimetilo y de 4-tetradecilanilina se podía acceder, en una síntesis de cuatro etapas, a la molécula deseada. La elección de la amina aromática con la sustitución en posición 4 presenta la ventaja de que en la etapa de doble ciclación necesaria en la síntesis, solo se forma uno de los regioisómeros posibles; este hecho es de gran relevancia para conseguir compuestos con altas movilidades, ya que la presencia de mezcla de regioisómeros, como se ha demostrado con otros compuestos como el P3HT, reduce considerablemente la movilidad de los portadores. Se obtiene así una quinacridona funcionalizada con dos cadenas lineales de 14 carbonos cada una en posiciones simétricas sobre los anillos aromáticos de los extremos. Se espera que la presencia de la superficie aromática plana y las dos cadenas lineales largas pueda conducir a una organización del material similar a la de un cristal líquido discótico. Sin embargo, el producto obtenido resulta ser tremendamente insoluble, no siendo suficiente las dos cadenas de 14 carbonos para aumentar su solubilidad respecto a la quinacridona sin funcionalizar. Se prepara entonces un derivado de esta quinacridona por alquilación de los nitrógenos. Este derivado, incapaz de formar enlaces de hidrógeno, resulta ser fácilmente soluble lo que proporciona una idea de la importancia de los enlaces de hidrógeno en la organización del compuesto. La idea inicial es conseguir, con una síntesis lo más sencilla posible, una quinacridona soluble, por lo que se decide utilizar la 4-t-butilanilina, también comercial, en lugar de la 4-tetradecilanilina. La cadena de t-butilo solo aporta cuatro átomos de carbono, pero su disposición (tres grupos metilo sobre un mismo átomo de carbono) suele conducir a resultados muy buenos en términos de solubilidad. Otra vez, la incorporación de los dos grupos t-butilo resulta insuficiente en términos de solubilidad del material. En estos momentos, y antes de explorar otro tipo de modificaciones sobre el esqueleto de quinacridona, en principio más complejos, se piensa en utilizar una amina aromática funcionalizada en la posición adyacente a la amina, de manera que el grupo funcional cumpliera una doble misión: por una parte, proporcionar solubilidad y por otra parte, perturbar ligeramente la formación de enlaces de hidrógeno, que han evidenciado ser una de las causas fundamentales para la insolubilidad del compuesto. Se realiza un análisis sobre cuáles podrían ser los grupos funcionales más idóneos en esta posición, valorando dos aspectos: el impedimento estérico que dificultaría la formación de enlaces de hidrógeno y la facilidad en su preparación. Ello conduce a optar por un grupo tioéter como candidato, ya que el 2-aminobencenotiol es un compuesto comercial y su adecuada funcionalización conduciría a una anilina con las propiedades deseadas. Se realiza simultáneamente la preparación de una quinacridona con una cadena de 18 átomos de carbono y otra quinacridona de cadena corta pero ramificada. Y finalmente, con estas quinacridonas se logra obtener compuestos solubles. Por último, se realiza el estudio de sus propiedades ópticas, mediante espectroscopia UV-Visible y fluorescencia, y se determinan experimentalmente los band gap, que se aproximan bastante a los resultados teóricos, en torno a 2,2 eV en disolución. No obstante, y aun cuando el band gap pueda parecer algo elevado, se sabe que en disolución las barreras energéticas son más elevadas que cuando el material se deposita en film. Por otra parte, todas las quinacridonas sintetizadas han demostrado una elevada estabilidad térmica. Como resumen final, el trabajo que aquí se presenta, ha permitido desarrollar una ruta sintética hacia derivados de quinacridona solubles con buenas perspectivas para su aplicación en dispositivos fotovoltaicos.
Resumo:
En la actualidad muchas estructuras de hormigón armado necesitan ser reforzadas debido a diversas razones: errores en el proyecto o construcción, deterioro debido a efectos ambientales, cambios de uso o mayores requerimientos en los códigos. Los materiales compuestos, también conocidos como polímeros reforzados con fibras (FRP), están constituidos por fibras continuas de gran resistencia y rigidez embebidas en un material polimérico. Los FRP se utilizan cada vez más en aplicaciones estructurales debido a sus excelentes propiedades (elevadas resistencia y rigidez específicas y resistencia a la corrosión). Una de las aplicaciones más atractivas es el refuerzo de pilares mediante confinamiento para incrementar su resistencia y ductilidad. El confinamiento puede conseguirse pegando capas de FRP envolviendo el pilar en la dirección de los cercos (con las fibras orientadas en dirección perpendicular al eje del elemento). Se han realizado numerosos estudios experimentales en probetas cilíndricas pequeñas confinadas con encamisados de FRP y sometidas a compresión axial, y se han propuesto varios modelos sobre el hormigón confinado con FRP. Es sabido que el confinamiento de pilares de sección no circular es menos eficiente. En una sección circular, el FRP ejerce una presión de confinamiento uniforme sobre todo el perímetro, mientras que en una sección rectangular la acción de confinamiento se concentra en las esquinas. Esta tesis presenta los resultados de una investigación experimental sobre el comportamiento de probetas de hormigón de sección cuadrada confinadas con FRP y sometidas a compresión centrada. Se realizaron un total de 42 ensayos investigándose el comportamiento en las direcciones axial y transversal. Las variables del estudio incluyen: la resistencia del hormigón, el tipo de fibras (vidrio o carbono), la cuantía de refuerzo y el radio de curvatura de las esquinas. Los resultados de los ensayos realizados muestran que el confinamiento con FRP puede mejorar considerablemente la resistencia y ductilidad de pilares de hormigón armado de sección cuadrada con las esquinas redondeadas. La mejora conseguida es mayor en los hormigones de baja resistencia que en los de resistencia media. La deformación de rotura de la camisa de FRP es menor que la que se obtiene en ensayos de tracción normalizados del laminado, y la eficiencia del confinamiento depende en gran medida del radio de redondeo de las esquinas. Los resultados se han comparado con los obtenidos según los modelos teóricos más aceptados. Hay dos parámetros críticos en el ajuste de los modelos: el factor de eficiencia de la deformación y el efecto de confinamiento en secciones no circulares. Nowadays, many existing RC structures are in need of repair and strengthening for several reasons: design or construction errors, deterioration caused by environmental effects, change in use of the structures or revisions of code requirements. Composite materials, also known as fibre reinforced polymers (FRP), are composed of high strength and stiffness continuous fibres embedded in a polymer material. FRP materials are being increasingly used in many structural applications due to their excellent properties (high strength- and stiffness-toweight ratio, good corrosion behaviour). One of the most attractive applications of FRP is the confinement of concrete columns to enhance both strength and ductility. Concrete confinement can be achieved by bonding layers of hoop FRP around the column (fibres oriented perpendicular to the longitudinal axis). Many experimental studies have been conducted on small-scale plain concrete specimens of circular cross-sections confined with FRP and subjected to pure axial compressive loading, and several design models have been proposed to describe the behaviour of FRP-confined concrete. It is widely accepted that the confinement of non-circular columns is less efficient than the confinement of circular columns. In a circular cross section, the jacket exerts a uniform confining pressure over the entire perimeter. In the case of a rectangular cross section, the confining action is mostly concentrated at the corners. This thesis presents the results of a comprehensive experimental investigation on the behaviour of axially loaded square concrete specimens confined with FRP. A total of 42 compression tests were conducted, and the behaviour of the specimens in the axial and transverse directions were investigated. The parameters considered in this study are: concrete strength, type of fibres (glass or carbon), amount of FRP reinforcement and corner radius of the cross section. The tests results indicate that FRP confinement can enhance considerably the compressive strength and ductility of RC square columns with rounded corners. The enhancement is more pronounced for low- than for normal-strength concrete. The rupture strain of the FRP jacket is lower than the ultimate strain obtained by standard tensile testing of the FRP material, and the confinement efficiency significantly depends on the corner radius. The confined concrete behaviour was predicted according to the more accepted theoretical models and compared with experimental results. There are two key parameters which critically influence the fitting of the models: the strain efficiency factor and the effect of confinement in non-circular sections.