25 resultados para Deformação elástica
Optimización de la densidad de energía en vigas de material compuesto (PRF) sometidas a flexión pura
Resumo:
Las necesidades energéticas actuales requieren el desarrollo de tecnologías eficaces y eficientes en producción, transporte y distribución de energía. Estas necesidades han impulsado nuevos desarrollos en el ámbito energético, entre los cuales se encuentran sistemas de almacenamiento de energía. El avance en ingeniería de materiales permite pensar en la posibilidad de almacenamiento mediante deformación elástica de vigas. Concretamente se parte de un concepto de mecanismo acumulador de energía basado en la deformación elástica de resortes espirales a torsión. Dichos resortes se pueden considerar como elementos vigas sometidos a flexión pura y grandes deflexiones. Esta Tesis de centra en el diseño y optimización de estos elementos con el fin de maximizar la densidad de energía que son capaces de absorber. El proceso de optimización comienza con la identificación del factor crítico del que depende dicho proceso, en este caso de trata de la densidad de energía. Dicho factor depende de la geometría de la sección resistente y del material empleado en su construcción. En los últimos años ha existido un gran desarrollo de los materiales compuestos de tipo polimérico reforzados con fibras (PRF). Estos materiales están sustituyendo gradualmente a otros materiales, como los metales, debido principalmente a su excelente relación entre propiedades mecánicas y peso. Por otro lado, analizando las posibles geometrías para la sección resistente, se observó que la más adecuada es una estructura tipo sándwich. Se implementa así un procedimiento de diseño de vigas sándwich sometidas a flexión pura, con las pieles fabricadas en materiales compuestos tipo PRF y un núcleo que debe garantizar el bajo peso de la estructura. Se desarrolla así un procedimiento sistemático que se puede particularizar dependiendo de los parámetros de entrada de la viga, y que tiene en cuenta y analiza la aparición de todos los posibles modos de fallo posibles. Así mismo se desarrollan una serie de mapas o ábacos de diseño que permiten seleccionar rápidamente las dimensiones preliminares de la viga. Finalmente se llevan a cabo ensayos que permiten, por un lado, validar el concepto del mecanismo acumulador de energía a través del ensayo de un muelle con sección monolítica, y por otro validar los distintos diseños de vigas sándwich propuestos y mostrar el incremento de la densidad de energía con respecto a la alternativa monolítica. Como líneas futuras de investigación se plantean la investigación en nuevos materiales, como la utilización de nanotubos de carbono, y la optimización del mecanismo de absorción de energía; optimizando el mecanismo de absorción a flexión pura e implementando sistemas que permitan acumular energía mediante la deformación elástica debida a esfuerzos de tracción-compresión. ABSTRACT Energy supply requires the development of effective and efficient technologies for the production, transport and distribution of energy. In recent years, many energy storage systems have been developed. Advances in the field of materials engineering has allowed the development of new concepts as the energy storage by elastic deformation of beams. Particularly, in this Thesis an energy storage device based on the elastic deformation of torsional springs has been studied. These springs can be considered as beam elements subjected to pure bending loads and large deflections. This Thesis is focused on the design and optimization of these beam elements in order to maximize its density of stored energy. The optimization process starts with the identification of the critical factors for the elastic energy storage: the density. This factor depends on the geometry of the cross section of the beam and the materials from which it is made. In the last 20 years, major advances in the field of composite materials have been made, particularly in the field of fiber reinforced polymers (FRP). This type of material is substituting gradually metallic materials to their excellent weight-mechanical properties ratio. In the other side, several possible geometries are analyzed for its use in the cross section of the beam; it was concluded that the best option, for maximum energy density, is using a sandwich beam. A design procedure for sandwich beams with skins made up with FRP composites and a light weight core is developed. This procedure can be particularized for different input parameters and it analyzes all the possible failure modes. Abacus and failure mode maps have been developed in order to simplify the design process. Finally several tested was made. Firstly, a prototype of the energy storage system which uses a monolithic composite beam was tested in order to validate the concept of the energy storage by elastic deformation. After that sandwich beam samples are built and tested, validating the design and showing the increase of energy density with respect to the monolithic beam. As futures research lines the following are proposed: research in new materials, as carbon nanotubes; and the optimization of the energy storage mechanism, that means optimizing the pure bending storage mechanism and developing new ones based on traction-compression mechanisms.
Resumo:
En este proyecto se trata la simulación numérica de un fenómeno dinámico, basado en el comportamiento de una onda transmitida a lo largo de una cuerda elástica de un instrumento musical, cuyos extremos se encuentran anclados. El fenómeno físico, se desarrolla utilizando una ecuación en derivadas parciales hiperbólicas con variables espacial y temporal, acompañada por unas condiciones de contorno tipo Dirichlet en los extremos y por más condiciones iniciales que dan comienzo al proceso. Posteriormente se han generado algoritmos para el método numérico empleado (Diferencias finitas centrales y progresivas) y la programación del problema aproximado con su consistencia, estabilidad y convergencia, obteniéndose unos resultados acordes con la solución analítica del problema matemático. La programación y salida de resultados se ha realizado con Visual Studio 8.0. y la programación de objetos con Visual Basic .Net In this project the topic is the numerical simulation of a dynamic phenomenon, based on the behavior of a transmitted wave along an elastic string of a musical instrument, whose ends are anchored. The physical phenomenon is developed using a hyperbolic partial differential equation with spatial and temporal variables, accompanied by a Dirichlet boundary conditions at the ends and more initial conditions that start the process. Subsequently generated algorithms for the numerical method used (central and forward finite differences) and the programming of the approximate problem with consistency, stability and convergence, yielding results in line with the analytical solution of the mathematical problem. Programming and output results has been made with Visual Studio 8.0. and object programming with Visual Basic. Net
Resumo:
El comportamiento mecánico de muchos materiales biológicos y poliméricos en grandes deformaciones se puede describir adecuadamente mediante formulaciones isocóricas hiperelásticas y viscoelásticas. Las ecuaciones de comportamiento elástico y viscoelástico y las formulaciones computacionales para materiales incompresibles isótropos en deformaciones finitas están ampliamente desarrolladas en la actualidad. Sin embargo, el desarrollo de modelos anisótropos no lineales y de sus correspondientes formulaciones computacionales sigue siendo un tema de investigación de gran interés. Cuando se consideran grandes deformaciones, existen muchas medidas de deformación disponibles con las que poder formular las ecuaciones de comportamiento. Los modelos en deformaciones cuadráticas facilitan la implementación en códigos de elementos finitos, ya que estas medidas surgen de forma natural en la formulación. No obstante, pueden dificultar la interpretación de los modelos y llevar a resultados pocos realistas. El uso de deformaciones logarítmicas permite el desarrollo de modelos más simples e intuitivos, aunque su formulación computacional debe ser adaptada a las exigencias del programa. Como punto de partida, en esta tesis se demuestra que las deformaciones logarítmicas representan la extensión natural de las deformaciones infinitesimales, tanto axiales como angulares, al campo de las grandes deformaciones. Este hecho permite explicar la simplicidad de las ecuaciones resultantes. Los modelos hiperelásticos predominantes en la actualidad están formulados en invariantes de deformaciones cuadráticas. Estos modelos, ya sean continuos o microestructurales, se caracterizan por tener una forma analítica predefinida. Su expresión definitiva se calcula mediante un ajuste de curvas a datos experimentales. Un modelo que no sigue esta metodología fue desarrollado por Sussman y Bathe. El modelo es sólo válido para isotropía y queda definido por una función de energía interpolada con splines, la cual reproduce los datos experimentales de forma exacta. En esta tesis se presenta su extensión a materiales transversalmente isótropos y ortótropos utilizando deformaciones logarítmicas. Asimismo, se define una nueva propiedad que las funciones de energía anisótropas deben satisfacer para que su convergencia al caso isótropo sea correcta. En visco-hiperelasticidad, aparte de las distintas funciones de energía disponibles, hay dos aproximaciones computational típicas basadas en variables internas. El modelo original de Simó está formulado en tensiones y es válido para materiales anisótropos, aunque sólo es adecuado para pequeñas desviaciones con respecto al equilibrio termodinámico. En cambio, el modelo basado en deformaciones de Reese y Govindjee permite grandes deformaciones no equilibradas pero es, en esencia, isótropo. Las formulaciones anisótropas en este último contexto son microestructurales y emplean el modelo isótropo para cada uno de los constituyentes. En esta tesis se presentan dos formulaciones fenomenológicas viscoelásticas definidas mediante funciones hiperelásticas anisótropas y válidas para grandes desviaciones con respecto al equilibrio termodinámico. El primero de los modelos está basado en la descomposición multiplicativa de Sidoroff y requiere un comportamiento viscoso isótropo. La formulación converge al modelo de Reese y Govindjee en el caso especial de isotropía elástica. El segundo modelo se define a partir de una descomposición multiplicativa inversa. Esta formulación está basada en una descripción co-rotacional del problema, es sustancialmente más compleja y puede dar lugar a tensores constitutivos ligeramente no simétricos. Sin embargo, su rango de aplicación es mucho mayor ya que permite un comportamiento anisótropo tanto elástico como viscoso. Varias simulaciones de elementos finitos muestran la gran versatilidad de estos modelos cuando se combinan con funciones hiperelásticas formadas por splines. ABSTRACT The mechanical behavior of many polymeric and biological materials may be properly modelled be means of isochoric hyperelastic and viscoelastic formulations. These materials may sustain large strains. The viscoelastic computational formulations for isotropic incompressible materials at large strains may be considered well established; for example Ogden’s hyperelastic function and the visco-hyperelastic model of Reese and Govindjee are well known models for isotropy. However, anisotropic models and computational procedures both for hyperelasticity and viscohyperelasticity are still under substantial research. Anisotropic hyperelastic models are typically based on structural invariants obtained from quadratic strain measures. These models may be microstructurallybased or phenomenological continuum formulations, and are characterized by a predefined analytical shape of the stored energy. The actual final expression of the stored energy depends on some material parameters which are obtained from an optimization algorithm, typically the Levenberg-Marquardt algorithm. We present in this work anisotropic spline-based hyperelastic stored energies in which the shape of the stored energy is obtained as part of the procedure and which (exactly in practice) replicates the experimental data. These stored energies are based on invariants obtained from logarithmic strain measures. These strain measures preserve the metric and the physical meaning of the trace and deviator operators and, hence, are interesting and meaningful for anisotropic formulations. Furthermore, the proposed stored energies may be formulated in order to have material-symmetries congruency both from a theoretical and from a numerical point of view, which are new properties that we define in this work. On the other hand, visco-hyperelastic formulations for anisotropic materials are typically based on internal stress-like variables following a procedure used by Sim´o. However, it can be shown that this procedure is not adequate for large deviations from thermodynamic equilibrium. In contrast, a formulation given by Reese and Govindjee is valid for arbitrarily large deviations from thermodynamic equilibrium but not for anisotropic stored energy functions. In this work we present two formulations for visco-hyperelasticity valid for anisotropic stored energies and large deviations from thermodynamic equilibrium. One of the formulations is based on the Sidoroff multiplicative decomposition and converges to the Reese and Govindjee formulation for the case of isotropy. However, the formulation is restricted to isotropy for the viscous component. The second formulation is based on a reversed multiplicative decomposition. This last formulation is substantially more complex and based on a corotational description of the problem. It can also result in a slightly nonsymmetric tangent. However, the formulation allows for anisotropy not only in the equilibrated and non-equilibrated stored energies, but also in the viscous behavior. Some examples show finite element implementation, versatility and interesting characteristics of the models.
Resumo:
En 1587 un sismo de magnitud 6.4 asociado a las fallas ciegas de Quito, causó gran daño en la ciudad; esto es muy preocupante toda vez que existen estudios que indican que el período de recurrencia es de aproximadamente 200 años. Lo que implica que al 2014 debieron haberse producido dos sismos de igual magnitud, que gracias a Dios no ha sucedido, ya que las consecuencias habrían sido desastrosas porque buena parte de la ciudad se encuentra sobre estas fallas. Al no haberse registrado sismos de la magnitud indicada en los cuatro últimos siglos se tiene una gran acumulación de energía toda vez que la tasa de movimiento de estas fallas se encuentra entre los 3 y 4 mm al año. De tal manera que existe una gran probabilidad de tener un sismo muy fuerte. En estas condiciones es muy importante obtener espectros de respuesta elástica que se generarían por un sismo asociado a alguno de los segmentos de las fallas ciegas inversas de Quito y que mejor hacerlo con modelos de movimientos fuertes que han sido publicados en los últimos años y reconocidos a nivel mundial por la gran base de datos con la que fueron obtenidos. En este artículo se van a presentar tres modelos de movimientos fuertes y son los desarrollados por: Abrahamson, Silva y Kamai (2013); Campbell y Borzognia (2013); y el modelo de Zhao et al. (2006). Para cada uno de estos modelos se indican la base de datos y las ecuaciones que definen las ramas del espectro. Se destaca que estos modelos sirven también para encontrar leyes de atenuación del movimiento del suelo. Posteriormente como una aplicación se obtendrá espectros para cinco Parroquias del Centro Norte de Quito, a saber: Rumipamba, Belisario Quevedo, Mariscal Sucre, Iñaquito y Jipijapa; asociados al sismo máximo probable generados en el segmento de falla que está más cerca y es el denominado Ilumbisí-La Bota, con cada uno de los modelos indicados en el párrafo anterior y se encontrarán espectros ponderados para un nivel de confiabilidad del 84%. Las ordenadas espectrales que se hallan son mayores a las ordenadas espectrales que reporta la Norma Ecuatoriana de la Construcción de 2011 y los que se obtienen con los factores de sitio hallados en el estudio de Microzonificación Sísmica de Quito por ERN en el 2012.
Resumo:
Una de las barreras para la aplicación de las técnicas de monitorización de la integridad estructural (SHM) basadas en ondas elásticas guiadas (GLW) en aeronaves es la influencia perniciosa de las condiciones ambientales y de operación (EOC). En esta tesis se ha estudiado dicha influencia y la compensación de la misma, particularizando en variaciones del estado de carga y temperatura. La compensación de dichos efectos se fundamenta en Redes Neuronales Artificiales (ANN) empleando datos experimentales procesados con la Transformada Chirplet. Los cambios en la geometría y en las propiedades del material respecto al estado inicial de la estructura (lo daños) provocan cambios en la forma de onda de las GLW (lo que denominamos característica sensible al daño o DSF). Mediante técnicas de tratamiento de señal se puede buscar una relación entre dichas variaciones y los daños, esto se conoce como SHM. Sin embargo, las variaciones en las EOC producen también cambios en los datos adquiridos relativos a las GLW (DSF) que provocan errores en los algoritmos de diagnóstico de daño (SHM). Esto sucede porque las firmas de daño y de las EOC en la DSF son del mismo orden. Por lo tanto, es necesario cuantificar y compensar el efecto de las EOC sobre la GLW. Si bien existen diversas metodologías para compensar los efectos de las EOC como por ejemplo “Optimal Baseline Selection” (OBS) o “Baseline Signal Stretching” (BSS), estas, se emplean exclusivamente en la compensación de los efectos térmicos. El método propuesto en esta tesis mezcla análisis de datos experimentales, como en el método OBS, y modelos basados en Redes Neuronales Artificiales (ANN) que reemplazan el modelado físico requerido por el método BSS. El análisis de datos experimentales consiste en aplicar la Transformada Chirplet (CT) para extraer la firma de las EOC sobre la DSF. Con esta información, obtenida bajo diversas EOC, se entrena una ANN. A continuación, la ANN actuará como un interpolador de referencias de la estructura sin daño, generando información de referencia para cualquier EOC. La comparación de las mediciones reales de la DSF con los valores simulados por la ANN, dará como resultado la firma daño en la DSF, lo que permite el diagnóstico de daño. Este esquema se ha aplicado y verificado, en diversas EOC, para una estructura unidimensional con un único camino de daño, y para una estructura representativa de un fuselaje de una aeronave, con curvatura y múltiples elementos rigidizadores, sometida a un estado de cargas complejo, con múltiples caminos de daños. Los efectos de las EOC se han estudiado en detalle en la estructura unidimensional y se han generalizado para el fuselaje, demostrando la independencia del método respecto a la configuración de la estructura y el tipo de sensores utilizados para la adquisición de datos GLW. Por otra parte, esta metodología se puede utilizar para la compensación simultánea de una variedad medible de EOC, que afecten a la adquisición de datos de la onda elástica guiada. El principal resultado entre otros, de esta tesis, es la metodología CT-ANN para la compensación de EOC en técnicas SHM basadas en ondas elásticas guiadas para el diagnóstico de daño. ABSTRACT One of the open problems to implement Structural Health Monitoring techniques based on elastic guided waves in real aircraft structures at operation is the influence of the environmental and operational conditions (EOC) on the damage diagnosis problem. This thesis deals with the compensation of these environmental and operational effects, specifically, the temperature and the external loading, by the use of the Chirplet Transform working with Artificial Neural Networks. It is well known that the guided elastic wave form is affected by the damage appearance (what is known as the damage sensitive feature or DSF). The DSF is modified by the temperature and by the load applied to the structure. The EOC promotes variations in the acquired data (DSF) and cause mistakes in damage diagnosis algorithms. This effect promotes changes on the waveform due to the EOC variations of the same order than the damage occurrence. It is difficult to separate both effects in order to avoid damage diagnosis mistakes. Therefore it is necessary to quantify and compensate the effect of EOC over the GLW forms. There are several approaches to compensate the EOC effects such as Optimal Baseline Selection (OBS) or Baseline Signal Stretching (BSS). Usually, they are used for temperature compensation. The new method proposed here mixes experimental data analysis, as in the OBS method, and Artificial Neural Network (ANN) models to replace the physical modelling which involves the BSS method. The experimental data analysis studied is based on apply the Chirplet Transform (CT) to extract the EOC signature on the DSF. The information obtained varying EOC is employed to train an ANN. Then, the ANN will act as a baselines interpolator of the undamaged structure. The ANN generates reference information at any EOC. By comparing real measurements of the DSF against the ANN simulated values, the damage signature appears clearly in the DSF, enabling an accurate damage diagnosis. This schema has been applied in a range of EOC for a one-dimensional structure containing single damage path and two dimensional real fuselage structure with stiffener elements and multiple damage paths. The EOC effects tested in the one-dimensional structure have been generalized to the fuselage showing its independence from structural arrangement and the type of sensors used for GLW data acquisition. Moreover, it can be used for the simultaneous compensation of a variety of measurable EOC, which affects the guided wave data acquisition. The main result, among others, of this thesis is the CT-ANN methodology for the compensation of EOC in GLW based SHM technique for damage diagnosis.
Resumo:
La presente tesis analiza la mejora de la resistencia estructural ante vuelco de autocares enfocando dos vías de actuación: análisis y propuestas de requisitos reglamentarios a nivel europeo y la generación de herramientas que ayuden al diseño y a la verificación de estos requisitos. Los requisitos reglamentarios de resistencia estructural a vuelco contemplan la superestructura de los vehículos pero no para los asientos y sistemas de retención. La influencia de los pasajeros retenidos es superior a la incluida en reglamentación (Reg. 66.01) debiendo considerarse unida al vehículo un porcentaje de la masa de los pasajeros del 91% para cinturón de tres puntos y del 52% para cinturón subabdominal frente al 50% reglamentario para todos los casos. Se ha determinado la cinemática y dinámica del vuelco normativo en sus diferentes fases, formulando las energías en las fases iniciales (hasta el impacto contra el suelo) y determinando la fase final de deformación a través del análisis secuencial de ensayos de módulos reales. Se han determinado los esfuerzos para los asientos que se dividen en dos fases diferenciadas temporalmente: una primera debida a la deformación estructural y una segunda debida al esfuerzo del pasajero retenido que se produce en sentido opuesto (con una deceleración del pasajero en torno a 3.3 g). Se ha caracterizado a través de ensayos cuasi.estáticos el comportamiento de perfiles a flexión y de las uniones estructurales de las principales zonas del vehículo (piso, ventana y techo) verificándose la validez del comportamiento plástico teórico Kecman.García para perfiles de hasta 4 mm de espesor y caracterizando la resistencia y rigidez en la zona elástica de las uniones en función del tipo de refuerzo, materiales y perfiles (análisis de más de 180 probetas). Se ha definido un método de ensayo cuasi.estático para asientos ante esfuerzos de vuelco, ensayándose 19 butacas y determinándose que son resistentes (salvo las uniones a vehículo con pinzas), que son capaces de absorber hasta más de un 17% de la energía absorbida, aunque algunos necesitan optimización para llegar a contribuir en el mecanismo de deformación estructural. Se han generado modelos simplificados para introducir en los modelos barra.rótula plástica: un modelo combinado unión+rótula plástica (que incluye la zona de rigidez determinada en función del tipo de unión) para la superestructura y un modelo simplificado de muelles no.lineales para los asientos. Igualmente se ha generado la metodología de diseño a través de ensayos virtuales con modelos de detalle de elementos finitos tanto de las uniones como de los asientos. Se ha propuesto una metodología de diseño basada en obtener el “mecanismo óptimo de deformación estructural” (elevando la zona de deformación lateral a nivel de ventana y en pilar o en costilla en techo). Para ello se abren dos vías: diseño de la superestructura (selección de perfiles y generación de uniones resistentes) o combinación con asientos (que en lugar de solo resistir las cargas pueden llegar a modificar el mecanismo de deformación). Se ha propuesto una metodología de verificación alternativa al vuelco de vehículo completo que contempla el cálculo cuasi.estático con modelos simplificados barra.rótula plástica más el ensayo de una sección representativa con asientos y utillajes antropomórficos retenidos que permite validar el diseño de las uniones, determinar el porcentaje de energía que debe absorberse por deformación estructural (factor C) y verificar el propio asiento como sistema de retención. ABSTRACT This research analyzes the improvement of the structural strength of buses and coaches under rollover from two perspectives: regulatory requirements at European level and generation of tools that will help to the design and to the verification of requirements. European Regulations about rollover structural strength includes requirements for the superstructure of the vehicles but not about seats, anchorages and restraint systems. The influence of the retained passengers is higher than the one included currently in the Regulations (Reg. 66.01), being needed to consider a 91% of the passenger mass as rigidly joint to the vehicle (for 3 points’ belt, a 52% for 2 points’ belt) instead of the 50% included in the Regulation. Kinematic and dynamic of the normative rollover has been determined from testing of different sections, formulating the energies of the first phases (up to the first impact with the ground) and determining the last deformation phase through sequential analysis of movements and deformations. The efforts due to rollover over the seats have been established, being divided in two different temporal phases: a first one due to the structural deformation of the vehicle and a second one due to the effort of the restrained passenger being this second one in opposite sense (with a passenger deceleration around 3.3 g). From quasi.static testing, the behavior of the structural tubes under flexural loads, including the principal joints in the vehicle (floor, window and roof), the validity of the theoretical plastic behavior according Kecman.García theories have been verified up to 4 mm of thickness. Strength of the joints as well as the stiffness of the elastic zone has been determined in function of main parameters: type of reinforcement, materials and section of the tubes (more than 180 test specimens). It has been defined a quasi.static testing methodology to characterize the seats and restrain system behavior under rollover, testing 19 double seats and concluding that they are resistant (excepting clamping joints), that they can absorb more than a 17 of the absorbed energy, and that some of them need optimization to contribute in the structural deformation mechanism. It has been generated simplified MEF models, to analyze in a beam.plastic hinge model: a combined model joint+plastic hinge (including the stiffness depending on the type of joint) for the superstructure and a simplified model with non.lineal springs to represent the seats. It has been detailed methodologies for detailed design of joints and seats from virtual testing (MEF models). A design methodology based in the “optimized structural deformation mechanism” (increasing the height of deformation of the lateral up to window level) is proposed. Two possibilities are analyzed: design of the superstructure based on the selection of profiles and design of strength joints (were seats only resist the efforts and contribute in the energy absorption) or combination structure.seats, were seats contributes in the deformation mechanism. An alternative methodology to the rollover of a vehicle that includes the quasi.static calculation with simplified models “beam.joint+plastic hinge” plus the testing of a representative section of the vehicle including seats and anthropomorphic ballast restrained by the safety belts is presented. The test of the section allows validate the design of the joints, determine the percentage of energy to be absorbed by structural deformation (factor C) and verify the seat as a retention system.
Resumo:
Las pilas de los puentes son elementos habitualmente verticales que, generalmente, se encuentran sometidos a un estado de flexión compuesta. Su altura significativa en muchas ocasiones y la gran resistencia de los materiales constituyentes de estos elementos – hormigón y acero – hace que se encuentren pilas de cierta esbeltez en la que los problemas de inestabilidad asociados al cálculo en segundo orden debido a la no linealidad geométrica deben ser considerados. Además, la mayoría de las pilas de nuestros puentes y viaductos están hechas de hormigón armado por lo que se debe considerar la fisuración del hormigón en las zonas en que esté traccionado. Es decir, el estudio del pandeo de pilas esbeltas de puentes requiere también la consideración de un cálculo en segundo orden mecánico, y no solo geométrico. Por otra parte, una pila de un viaducto no es un elemento que pueda considerarse como aislado; al contrario, su conexión con el tablero hace que aparezca una interacción entre la propia pila y aquél que, en cierta medida, supone una cierta coacción al movimiento de la propia cabeza de pila. Esto hace que el estudio de la inestabilidad de una pila esbelta de un puente no puede ser resuelto con la “teoría del pandeo de la pieza aislada”. Se plantea, entonces, la cuestión de intentar definir un procedimiento que permita abordar el problema complicado del pandeo de pilas esbeltas de puentes pero empleando herramientas de cálculo no tan complejas como las que resuelven “el pandeo global de una estructura multibarra, teniendo en cuenta todas las no linealidades, incluidas las de las coacciones”. Es decir, se trata de encontrar un procedimiento, que resulta ser iterativo, que resuelva el problema planteado de forma aproximada, pero suficientemente ajustada al resultado real, pero empleando programas “convencionales” de cálculo que sean capaces de : - por una parte, en la estructura completa: o calcular en régimen elástico lineal una estructura plana o espacial multibarra compleja; - por otra, en un modelo de una sola barra aislada: o considerar las no linealidades geométricas y mecánicas a nivel tensodeformacional, o considerar la no linealidad producida por la fisuración del hormigón, o considerar una coacción “elástica” en el extremo de la pieza. El objeto de este trabajo es precisamente la definición de ese procedimiento iterativo aproximado, la justificación de su validez, mediante su aplicación a diversos casos paramétricos, y la presentación de sus condicionantes y limitaciones. Además, para conseguir estos objetivos se han elaborado unos ábacos de nueva creación que permiten estimar la reducción de rigidez que supone la fisuración del hormigón en secciones huecas monocajón de hormigón armado. También se han creado unos novedosos diagramas de interacción axil-flector válidos para este tipo de secciones en flexión biaxial. Por último, hay que reseñar que otro de los objetivos de este trabajo – que, además, le da título - era cuantificar el valor de la coacción que existe en la cabeza de una pila debido a que el tablero transmite las cargas de una pila al resto de los integrantes de la subestructura y ésta, por tanto, colabora a reducir los movimientos de la cabeza de pila en cuestión. Es decir, la cabeza de una pila no está exenta lo cual mejora su comportamiento frente al pandeo. El régimen de trabajo de esta coacción es claramente no lineal, ya que la rigidez de las pilas depende de su grado de fisuración. Además, también influye cómo las afecta la no linealidad geométrica que, para la misma carga, aumenta la flexión de segundo orden de cada pila. En este documento se define cuánto vale esta coacción, cómo hay que calcularla y se comprueba su ajuste a los resultados obtenidos en el l modelo no lineal completo. The piers of the bridges are vertical elements where axial loads and bending moments are to be considered. They are often high and also the strength of the materials they are made of (concrete and steel) is also high. This means that slender piers are very common and, so, the instabilities produced by the second order effects due to the geometrical non linear effects are to be considered. In addition to this, the piers are usually made of reinforced concrete and, so, the effects of the cracking of the concrete should also be evaluated. That is, the analysis of the instabilities of te piers of a bridge should consider both the mechanical and the geometrical non linearities. Additionally, the pier of a bridge is not a single element, but just the opposite; the connection of the pier to the deck of the bridge means that the movements of the top of the pier are reduced compared to the situation of having a free end at the top of the pier. The connection between the pier and the deck is the reason why the instability of the pier cannot be analysed using “the buckling of a compressed single element method”. So, the question of defining an approximate method for analysing the buckling of the slender piers of a bridge but using a software less complex than what it is needed for analysing the “ global buckling of a multibeam structure considering all t”, is arisen. Then, the goal should be trying to find a procedure for analysing the said complex problem of the buckling of the slender piers of a bridge using a simplified method. This method could be an iterative (step by step) procedure, being accurate enough, using “normal” software having the following capabilities: - Related to the calculation of the global structure o Ability for calculating a multibesam strucutre using elastic analysis. - Related to the calculation of a single beam strcuture:: o Ability for taking into account the geometrical and mechanical () non linearities o Ability for taking into account the cracking of the concrete. o Ability for using partial stiff constraints (elastic springs) at the end of the elements One of the objectives of this document is just defining this simplified methodology, justifying the accuracy of the proposed procedure by using it on some different bridges and presenting the exclusions and limitations of the propose method. In addition to this, some new charts have been created for calculating the reduction of the stiffness of hollow cross sections made of reinforced concrete. Also, new charts for calculating the reinforcing of hollow cross sections under biaxial bending moments are also included in the document. Finally, it is to be said that another aim of the document – as it is stated on the title on the document – is defining the value of the constraint on the top of the pier because of the connection of the pier to the deck .. and to the other piers. That is, the top of the pier is not a free end of a beam and so the buckling resistance of the pier is significantly improved. This constraint is a non-elastic constraint because the stiffness of each pier depends on the level of cracking. Additionally, the geometrical non linearity is to be considered as there is an amplification of the bending moments due to the increasing of the movements of the top of the pier. This document is defining how this constraints is to be calculated; also the accuracy of the calculations is evaluated comparing the final results with the results of the complete non linear calculations
Resumo:
La computación ubicua está extendiendo su aplicación desde entornos específicos hacia el uso cotidiano; el Internet de las cosas (IoT, en inglés) es el ejemplo más brillante de su aplicación y de la complejidad intrínseca que tiene, en comparación con el clásico desarrollo de aplicaciones. La principal característica que diferencia la computación ubicua de los otros tipos está en como se emplea la información de contexto. Las aplicaciones clásicas no usan en absoluto la información de contexto o usan sólo una pequeña parte de ella, integrándola de una forma ad hoc con una implementación específica para la aplicación. La motivación de este tratamiento particular se tiene que buscar en la dificultad de compartir el contexto con otras aplicaciones. En realidad lo que es información de contexto depende del tipo de aplicación: por poner un ejemplo, para un editor de imágenes, la imagen es la información y sus metadatos, tales como la hora de grabación o los ajustes de la cámara, son el contexto, mientras que para el sistema de ficheros la imagen junto con los ajustes de cámara son la información, y el contexto es representado por los metadatos externos al fichero como la fecha de modificación o la de último acceso. Esto significa que es difícil compartir la información de contexto, y la presencia de un middleware de comunicación que soporte el contexto de forma explícita simplifica el desarrollo de aplicaciones para computación ubicua. Al mismo tiempo el uso del contexto no tiene que ser obligatorio, porque si no se perdería la compatibilidad con las aplicaciones que no lo usan, convirtiendo así dicho middleware en un middleware de contexto. SilboPS, que es nuestra implementación de un sistema publicador/subscriptor basado en contenido e inspirado en SIENA [11, 9], resuelve dicho problema extendiendo el paradigma con dos elementos: el Contexto y la Función de Contexto. El contexto representa la información contextual propiamente dicha del mensaje por enviar o aquella requerida por el subscriptor para recibir notificaciones, mientras la función de contexto se evalúa usando el contexto del publicador y del subscriptor. Esto permite desacoplar la lógica de gestión del contexto de aquella de la función de contexto, incrementando de esta forma la flexibilidad de la comunicación entre varias aplicaciones. De hecho, al utilizar por defecto un contexto vacío, las aplicaciones clásicas y las que manejan el contexto pueden usar el mismo SilboPS, resolviendo de esta forma la incompatibilidad entre las dos categorías. En cualquier caso la posible incompatibilidad semántica sigue existiendo ya que depende de la interpretación que cada aplicación hace de los datos y no puede ser solucionada por una tercera parte agnóstica. El entorno IoT conlleva retos no sólo de contexto, sino también de escalabilidad. La cantidad de sensores, el volumen de datos que producen y la cantidad de aplicaciones que podrían estar interesadas en manipular esos datos está en continuo aumento. Hoy en día la respuesta a esa necesidad es la computación en la nube, pero requiere que las aplicaciones sean no sólo capaces de escalar, sino de hacerlo de forma elástica [22]. Desgraciadamente no hay ninguna primitiva de sistema distribuido de slicing que soporte un particionamiento del estado interno [33] junto con un cambio en caliente, además de que los sistemas cloud actuales como OpenStack u OpenNebula no ofrecen directamente una monitorización elástica. Esto implica que hay un problema bilateral: cómo puede una aplicación escalar de forma elástica y cómo monitorizar esa aplicación para saber cuándo escalarla horizontalmente. E-SilboPS es la versión elástica de SilboPS y se adapta perfectamente como solución para el problema de monitorización, gracias al paradigma publicador/subscriptor basado en contenido y, a diferencia de otras soluciones [5], permite escalar eficientemente, para cumplir con la carga de trabajo sin sobre-provisionar o sub-provisionar recursos. Además está basado en un algoritmo recientemente diseñado que muestra como añadir elasticidad a una aplicación con distintas restricciones sobre el estado: sin estado, estado aislado con coordinación externa y estado compartido con coordinación general. Su evaluación enseña como se pueden conseguir notables speedups, siendo el nivel de red el principal factor limitante: de hecho la eficiencia calculada (ver Figura 5.8) demuestra cómo se comporta cada configuración en comparación con las adyacentes. Esto permite conocer la tendencia actual de todo el sistema, para saber si la siguiente configuración compensará el coste que tiene con la ganancia que lleva en el throughput de notificaciones. Se tiene que prestar especial atención en la evaluación de los despliegues con igual coste, para ver cuál es la mejor solución en relación a una carga de trabajo dada. Como último análisis se ha estimado el overhead introducido por las distintas configuraciones a fin de identificar el principal factor limitante del throughput. Esto ayuda a determinar la parte secuencial y el overhead de base [26] en un despliegue óptimo en comparación con uno subóptimo. Efectivamente, según el tipo de carga de trabajo, la estimación puede ser tan baja como el 10 % para un óptimo local o tan alta como el 60 %: esto ocurre cuando se despliega una configuración sobredimensionada para la carga de trabajo. Esta estimación de la métrica de Karp-Flatt es importante para el sistema de gestión porque le permite conocer en que dirección (ampliar o reducir) es necesario cambiar el despliegue para mejorar sus prestaciones, en lugar que usar simplemente una política de ampliación. ABSTRACT The application of pervasive computing is extending from field-specific to everyday use. The Internet of Things (IoT) is the shiniest example of its application and of its intrinsic complexity compared with classical application development. The main characteristic that differentiates pervasive from other forms of computing lies in the use of contextual information. Some classical applications do not use any contextual information whatsoever. Others, on the other hand, use only part of the contextual information, which is integrated in an ad hoc fashion using an application-specific implementation. This information is handled in a one-off manner because of the difficulty of sharing context across applications. As a matter of fact, the application type determines what the contextual information is. For instance, for an imaging editor, the image is the information and its meta-data, like the time of the shot or camera settings, are the context, whereas, for a file-system application, the image, including its camera settings, is the information and the meta-data external to the file, like the modification date or the last accessed timestamps, constitute the context. This means that contextual information is hard to share. A communication middleware that supports context decidedly eases application development in pervasive computing. However, the use of context should not be mandatory; otherwise, the communication middleware would be reduced to a context middleware and no longer be compatible with non-context-aware applications. SilboPS, our implementation of content-based publish/subscribe inspired by SIENA [11, 9], solves this problem by adding two new elements to the paradigm: the context and the context function. Context represents the actual contextual information specific to the message to be sent or that needs to be notified to the subscriber, whereas the context function is evaluated using the publisher’s context and the subscriber’s context to decide whether the current message and context are useful for the subscriber. In this manner, context logic management is decoupled from context management, increasing the flexibility of communication and usage across different applications. Since the default context is empty, context-aware and classical applications can use the same SilboPS, resolving the syntactic mismatch that there is between the two categories. In any case, the possible semantic mismatch is still present because it depends on how each application interprets the data, and it cannot be resolved by an agnostic third party. The IoT environment introduces not only context but scaling challenges too. The number of sensors, the volume of the data that they produce and the number of applications that could be interested in harvesting such data are growing all the time. Today’s response to the above need is cloud computing. However, cloud computing applications need to be able to scale elastically [22]. Unfortunately there is no slicing, as distributed system primitives that support internal state partitioning [33] and hot swapping and current cloud systems like OpenStack or OpenNebula do not provide elastic monitoring out of the box. This means there is a two-sided problem: 1) how to scale an application elastically and 2) how to monitor the application and know when it should scale in or out. E-SilboPS is the elastic version of SilboPS. I t is the solution for the monitoring problem thanks to its content-based publish/subscribe nature and, unlike other solutions [5], it scales efficiently so as to meet workload demand without overprovisioning or underprovisioning. Additionally, it is based on a newly designed algorithm that shows how to add elasticity in an application with different state constraints: stateless, isolated stateful with external coordination and shared stateful with general coordination. Its evaluation shows that it is able to achieve remarkable speedups where the network layer is the main limiting factor: the calculated efficiency (see Figure 5.8) shows how each configuration performs with respect to adjacent configurations. This provides insight into the actual trending of the whole system in order to predict if the next configuration would offset its cost against the resulting gain in notification throughput. Particular attention has been paid to the evaluation of same-cost deployments in order to find out which one is the best for the given workload demand. Finally, the overhead introduced by the different configurations has been estimated to identify the primary limiting factor for throughput. This helps to determine the intrinsic sequential part and base overhead [26] of an optimal versus a suboptimal deployment. Depending on the type of workload, this can be as low as 10% in a local optimum or as high as 60% when an overprovisioned configuration is deployed for a given workload demand. This Karp-Flatt metric estimation is important for system management because it indicates the direction (scale in or out) in which the deployment has to be changed in order to improve its performance instead of simply using a scale-out policy.
Resumo:
Históricamente la fractura ha sido considerada siempre como un efecto indeseado entre los materiales, dado que su aparición supone un cese del material en servicio, puesto que un material fracturado carece de importancia desde el punto de vista comercial. Consecuentemente, la Mecánica de Fractura ha experimentado un desarrollo importante en las últimas décadas como no lo hizo en toda la historia de los materiales. El desarrollo de nuevos campos a nivel científico y técnico han estado de la mano con el desarrollo de nuevos materiales que satisfagan las necesidades particulares de cada sector o aplicación. Este requerimiento se ve acentuado cuando se incorpora el aspecto económico, dado que, así como se necesitan materiales con mayor resistencia a la fractura, corrosión etc, también se necesita que su precio en el mercado sea accesible y que permita una aplicación rentable. En los últimos 70 años, desde los requerimientos de nuevos materiales resistentes a la fractura con los buques Liberty hasta el boom petrolero, pasando por las aplicaciones aeroespaciales se han desarrollado diversas teorías que explican el comportamiento de los materiales, en cuando a la tenacidad a la fractura en distintas temperaturas, composiciones químicas, materiales compuestos etc. Uno de los sectores que más ha demandado un desarrollo, por su amplitud en cuanto a requerimientos y consumo global, así como su impacto en la economía mundial, es el sector de gas, petróleo y petroquímica. Muchos de los proyectos que se intentaron desarrollar hasta hace menos de 25 años eran inviables por su elevado coste de ejecución y su bajo retorno de inversión debido a la caída de los precios del petróleo. Con una demanda creciente a nivel mundial y unos precios que apuntan hacia la estabilización o alza moderada, nuevos sistemas de trasporte por tuberías han sido necesarios desarrollar, desde el punto de vista de ingeniería, con el menos coste posible y de un modo seguro. Muchas de estas aplicaciones se vieron incrementadas cuando nuevos requerimientos en cuanto a resistencia a la corrosión fueron necesarios: demanda de materiales que no se corroan, con prestaciones seguras a nivel mecánico y un bajo coste. Esta nueva etapa se conoce como Aleaciones Resistentes a la Corrosión (CRA´s por sus siglas en inglés) en las cuales uno de los factores de diseño seguro recaían indiscutiblemente en la mecánica de fractura. Por estas razones era necesario entender como influía en la resistencia a la fractura las aportaciones que podrían hacerse sobre una superficie metálica. Al realizar el presente estudio se comenzó analizando la influencia que tenían modificaciones en el rango iónico sobre aceros al carbono. Estudios previos sobre láminas de acero ferrítico usadas en reactores de fisión nuclear demostraron que aportes de iones, en este particular el Helio, influían en el comportamiento de la tenacidad a la fractura en función de la temperatura. De este modo, un primer análisis fue hecho sobre la influencia de iones de nitrógeno aportados sobre superficies de acero al carbono y como modificaban su tenacidad a la fractura. Este primer análisis sirvió para comprobar el impacto que tenían pequeñas dosis de iones de nitrógeno en la tenacidad a la fractura. Otro desarrollo con una mayor aplicación industrial fue hecho sobre superficies de acero al carbono con aporte por soldadura de los materiales más usados para evitar la corrosión. El análisis se centró fundamentalmente en la influencia que tenían distintos materiales aportados como el MONEL 400, DUPLEX 928, INCONEL 625 y STAINLESS-STEEL 316 en referencia a características de diseño como la tensión elástica y la tensión a la rotura. Este análisis permitió conocer el impacto de los materiales aportados en los ensayos de tracción en probetas de acero al carbono. Una explicación acerca del comportamiento fue soportada por el análisis macrofractográfico de los perfiles fracturados y las macro deformaciones en la superficie de las probetas. Un posterior desarrollo teórico permitió modelar matemáticamente la fractura de las probetas aportadas por soldadura en la región elástica por medio de la Ley de Hooke, así como la teoría de Plasticidad de Hill para la región de deformación plástica. ABSTRACT Fracture mechanics has been extensively studied in the last 70 years by the constant requirements of new materials with low costs. These requirements have allowed surface modified welded materials in which it is necessary to know the influence of design fundamentals with the material surface welded. Several specimens have been studied for ductile fracture in longitudinal tensile tests for carbon steel surface-modified by weld overlay MONEL 400, DUPLEX 928, INCONEL 625 and STAINLESS-STEEL 316. Similarly of macro photographic analyzes to level the fractured surfaces that explain the behavior curves obtained in Tensile – displacement charts. The contribution of weld overlay material shows a significant impact on the yield and tensile stress of the specimens which was modeled according to Hooke's law for elastic area and Hill´s theory of plasticity to the plastic one.
Resumo:
La ubicación marginal y el aislamiento de los Parques Urbanos implican infrautilización y deterioro de los mismos. Su interconexión mediante una red verde peatonal con limitaciones al tráfico rodado, supone una puesta en valor de todo el sistema de espacios libres y zonas verdes de la ciudad y un importante incentivo para desviar determinados flujos rodados a otras vías cercanas, rescatando así, espacios urbanos a favor del peatón. Esta conexión ayuda a minimizar la fragmentación del espacio urbano, generando nexos de unión, que articulan y estructuran la ciudad. En esta investigación se describe una metodología para localizar y seleccionar conectores entre distintos Parques Urbanos, evaluando su funcionalidad, seguridad, confort y atractivo. Como caso de estudio, se proponen las conexiones entre los Parques Públicos de una entidad determinada, situados en la ciudad de Madrid. Esta metodología es elástica, universal, y dada su sencillez, aplicable por personas no especializadas; estas características la hacen especialmente valiosa, para apoyar la toma de decisiones en los instrumentos de Ordenación del Territorio y en el desarrollo de Planes Específicos encaminados a la mejora de la calidad ambiental y al aumento de la potencialidad peatonal de la ciudad. ABSTRACT The marginal location and the solitary distribution of City Parks are factors that expose these “City Lungs” to be underused and damaged. The City Parks chained by a green pedestrian web with a minimized relevance for engine vehicles, generates an important enhancement for open spaces and green areas of the City, and a crucial incentive for altering the course of vehicle transportation from particular areas to proximate avenues and arteries, resulting in urban spaces being exclusively for pedestrians. This network helps to minimize the fragmentation of the urban space generating nodes of connection that provide a structure to the city. In this investigation a procedure is described for the purpose of identifying and prioritizing green connectors amongst the City Parks, evaluating the functionality, security, comfort, and attractions. For this research paper, it is proposed to establish a green web, which links up the main City Parks of Madrid. This methodology is elastic, universal, and due to its simplicity, can be applicable for non-specialized people of the field: these features make this urban concept a very estimable and valued idea that can be taken into consideration for future urban planning and for the development of specific plans with the object of improving the quality of the environment and lead to an increase of the pedestrian potential within the city.