1000 resultados para TUBOS FLEXÍVEIS
Resumo:
En este proyecto se desarrolla un sistema electrónico para variar la geometría de un motor de un monoplaza que participa en la competición Fórmula SAE. Fórmula SAE es una competición de diseño de monoplazas para estudiantes, organizado por “Society of Automotive Enginners” (SAE). Este concurso busca la innovación tecnológica de la automoción, así como que estudiantes participen en un trabajo real, en el cual el objetivo es obtener resultados competitivos cumpliendo con una serie de requisitos. La variación de la geometría de un motor en un vehículo permite mejorar el rendimiento del monoplaza consiguiendo elevar el par de potencia del motor. Cualquier mejora en del vehículo en un ámbito de competición puede resultar determinante en el desenlace de la misma. El objetivo del proyecto es realizar esta variación mediante el control de la longitud de los tubos de admisión de aire o “runners” del motor de combustión, empleando un motor lineal paso a paso. A partir de la información obtenida por sensores de revoluciones del motor de combustión y la posición del acelerador se debe controlar la distancia de dichos tubos. Integrando este sistema en el bus CAN del vehículo para que comparta la información medida al resto de módulos. Por todo esto se realiza un estudio aclarando los aspectos generales del objetivo del trabajo, para la comprensión del proyecto a realizar, las posibilidades de realización y adquisición de conocimientos para un mejor desarrollo. Se presenta una solución basada en el control del motor lineal paso a paso mediante el microcontrolador PIC32MX795F512-L. Dispositivo del fabricante Microchip con una arquitectura de 32 bits. Este dispone de un módulo CAN integrado y distintos periféricos que se emplean en la medición de los sensores y actuación sobre el motor paso a paso empleando el driver de Texas Instruments DRV8805. Entonces el trabajo se realiza en dos líneas, una parte software de programación del control del sistema, empleando el software de Microchip MPLABX IDE y otra parte hardware de diseño de una PCB y circuitos acondicionadores para la conexión del microcontrolador, con los sensores, driver, motor paso a paso y bus CAN. El software empleado para la realización de la PCB es Orcad9.2/Layout. Para la evaluación de las medidas obtenidas por los sensores y la comprobación del bus CAN se emplea el kit de desarrollo de Microchip, MCP2515 CAN Bus Monitor Demo Board, que permite ver la información en el bus CAN e introducir tramas al mismo. ABSTRACT. This project develops an electronic system to vary the geometry of a car engine which runs the Formula SAE competition. Formula SAE is a design car competition for students, organized by "Society of Automotive Engineers" (SAE). This competition seeks technological innovation in the automotive industry and brings in students to participate in a real job, in which the objective is to obtain competitive results in compliance with certain requirements. Varying engine’s geometry in a vehicle improves car’s performance raising engine output torque. Any improvement in the vehicle in a competition field can be decisive in the outcome of it. The goal of the project is the variation by controlling the length of the air intake pipe or "runners" in a combustion engine, using a linear motor step. For these, uses the information gathered by speed sensors from the combustion engine and by the throttle position to control the distance of these tubes. This system is integrated in the vehicle CAN bus to share the information with the other modules. For all this is made a study to clarify the general aspects of the project in order to understand the activities developed inside the project, the different options available and also, to acquire knowledge for a better development of the project. The solution is based on linear stepper motor control by the microcontroller PIC32MX795F512-L. Device from manufacturer Microchip with a 32-bit architecture. This module has an integrated CAN various peripherals that are used in measuring the performance of the sensors and drives the stepper motor using Texas Instruments DRV8805 driver. Then the work is done in two lines, first, control programming software system using software MPLABX Microchip IDE and, second, hardware design of a PCB and conditioning circuits for connecting the microcontroller, with sensors, driver stepper motor and CAN bus. The software used to carry out the PCB is Orcad9.2/Layout. For the evaluation of the measurements obtained by the sensors and CAN bus checking is used Microchip development kit, MCP2515 CAN Bus Monitor Demo Board, that allows you to see the information on the CAN bus and enter new frames in the bus.
Resumo:
En la actualidad la humanidad se enfrenta a una serie de problemas de gran transcendencia que van a determinar en alto grado los niveles de calidad de vida en los próximos años. El calentamiento global, el incremento demográfico incontrolado, la contaminación ambiental y la escasez de recursos así como una mala distribución de los mismos, son sólo algunos ejemplos. En este contexto, las microalgas, microrganismos fotosintéticos de alta eficiencia y versatilidad, presentan una serie de características que las convierten a priori en la base de una tecnología con un enorme potencial para formar parte de la solución a estos graves problemas planteados. Uno de los principales factores que impiden una mayor implantación de la tecnología de microalgas es de tipo económico. La baja productividad por unidad de área de los sistemas de cultivo actuales y la alta inversión necesaria en equipos y mantenimiento, hace que solo se justifique el cultivo de productos de muy alto valor añadido. Las soluciones pasan por aumentar el rendimiento global de los cultivos y por disminuir los costes de equipos e instalaciones. La presente tesis investiga sobre la posibilidad de conseguir un mejor aprovechamiento de la luz solar incidente sobre un cultivo de microalgas mediante el uso de una serie de dispositivos ópticos que vienen a denominarse intensificadores lumínicos. De entre los factores que determinan la productividad de un campo de cultivo de microalgas, posiblemente el más determinante sea la cantidad de radiación que las microalgas pueden aprovechar. Los intensificadores aumentan la disponibilidad de luz en el interior de los tubos de cultivo, de forma que la fotosíntesis se vea favorecida y, de este modo, se incremente la tasa de crecimiento de las microalgas. En el desarrollo de la tesis se proponen tres tipologías diferentes de intensificador diseñadas en base a criterios óptico-geométricos. Para cada una de estas tipologías se evalúa el incremento de radiación que se lograría sobre un tubo de cultivo. Paralelamente se desarrolla un modelo que permite la evaluación de la productividad del cultivo. Esto permite añadir el factor biológico al puramente óptico-físico y valorar las distintas propuestas de intensificadores en función de las características propias del microalga utilizada en el cultivo. El modelo es verificado y contrastado frente a datos de producción obtenidos en la bibliografía. Finalmente, la exposición concluye con una presentación general de las futuras líneas de investigación. ABSTRACT Today, humanity is facing a series of problems of global significance that will determine the standard of living in the years ahead. Global warming, uncontrolled population growth, pollution, lack of resources and poor distribution of them are just an example of the challenges we are facing. In this context, microalgae, high efficient photosynthetic microorganisms, have a number of characteristics that turn them into a very promising technology that can contribute or be part of a sustainable solution. One of the main factors preventing the adoption of microalgae technology is economical. The low productivity per unit area of current farming systems and the high investment needed in equipment and maintenance, only justifies the cultivation of algae for high value applications. One solution could be increasing the overall yield of the crops and reduce the equipment and facilities costs. Among the factors that determine the productivity of a microalgae culture, possibly the most influential one is the amount of radiation that microalgae receive. This Thesis develops the possibility of making better use of the sunlight radiation incident on a crop field using a series of devices similar to solar collectors. The solar collectors proposed are intended to increase the availability of light inside the culture tubes and within it, the tax of photosynthesis and the overall growth rate of the microalgae. In this research, three different configurations of collectors are designed, based on optical and geometrical criteria. For each one of these collectors, the increase on radiation that would be expected is evaluated. Furthermore, a model for light distribution inside the culture is developed in terms to estimate the biomass productivity. This allows adding the biological factor to purely optical-physical considerations and to assess the different solar collectors proposed, in terms specific for the microalgae. The model is tested against production data obtained in different scientific literature. Finally, the exposition concludes with some guidelines for future research.
Resumo:
La corrosión del acero es una de las patologías más importantes que afectan a las estructuras de hormigón armado que están expuestas a ambientes marinos o al ataque de sales fundentes. Cuando se produce corrosión, se genera una capa de óxido alrededor de la superficie de las armaduras, que ocupa un volumen mayor que el acero inicial; como consecuencia, el óxido ejerce presiones internas en el hormigón circundante, que lleva a la fisuración y, ocasionalmente, al desprendimiento del recubrimiento de hormigón. Durante los últimos años, numerosos estudios han contribuido a ampliar el conocimiento sobre el proceso de fisuración; sin embargo, aún existen muchas incertidumbres respecto al comportamiento mecánico de la capa de óxido, que es fundamental para predecir la fisuración. Por ello, en esta tesis se ha desarrollado y aplicado una metodología, para mejorar el conocimiento respecto al comportamiento del sistema acero-óxido-hormigón, combinando experimentos y simulaciones numéricas. Se han realizado ensayos de corrosión acelerada en condiciones de laboratorio, utilizando la técnica de corriente impresa. Con el objetivo de obtener información cercana a la capa de acero, como muestras se seleccionaron prismas de hormigón con un tubo de acero liso como armadura, que se diseñaron para conseguir la formación de una única fisura principal en el recubrimiento. Durante los ensayos, las muestras se equiparon con instrumentos especialmente diseñados para medir la variación de diámetro y volumen interior de los tubos, y se midió la apertura de la fisura principal utilizando un extensómetro comercial, adaptado a la geometría de las muestras. Las condiciones de contorno se diseñaron cuidadosamente para que los campos de corriente y deformación fuesen planos durante los ensayos, resultando en corrosión uniforme a lo largo del tubo, para poder reproducir los ensayos en simulaciones numéricas. Se ensayaron series con varias densidades de corriente y varias profundidades de corrosión. De manera complementaria, el comportamiento en fractura del hormigón se caracterizó en ensayos independientes, y se midió la pérdida gravimétrica de los tubos siguiendo procedimientos estándar. En todos los ensayos, la fisura principal creció muy despacio durante las primeras micras de profundidad de corrosión, pero después de una cierta profundidad crítica, la fisura se desarrolló completamente, con un aumento rápido de su apertura; la densidad de corriente influye en la profundidad de corrosión crítica. Las variaciones de diámetro interior y de volumen interior de los tubos mostraron tendencias diferentes entre sí, lo que indica que la deformación del tubo no fue uniforme. Después de la corrosión acelerada, las muestras se cortaron en rebanadas, que se utilizaron en ensayos post-corrosión. El patrón de fisuración se estudió a lo largo del tubo, en rebanadas que se impregnaron en vacío con resina y fluoresceína para mejorar la visibilidad de las fisuras bajo luz ultravioleta, y se estudió la presencia de óxido dentro de las grietas. En todas las muestras, se formó una fisura principal en el recubrimiento, infiltrada con óxido, y varias fisuras secundarias finas alrededor del tubo; el número de fisuras varió con la profundidad de corrosión de las muestras. Para muestras con la misma corrosión, el número de fisuras y su posición fue diferente entre muestras y entre secciones de una misma muestra, debido a la heterogeneidad del hormigón. Finalmente, se investigó la adherencia entre el acero y el hormigón, utilizando un dispositivo diseñado para empujar el tubo en el hormigón. Las curvas de tensión frente a desplazamiento del tubo presentaron un pico marcado, seguido de un descenso constante; la profundidad de corrosión y la apertura de fisura de las muestras influyeron notablemente en la tensión residual del ensayo. Para simular la fisuración del hormigón causada por la corrosión de las armaduras, se programó un modelo numérico. Éste combina elementos finitos con fisura embebida adaptable que reproducen la fractura del hormigón conforme al modelo de fisura cohesiva estándar, y elementos de interfaz llamados elementos junta expansiva, que se programaron específicamente para reproducir la expansión volumétrica del óxido y que incorporan su comportamiento mecánico. En el elemento junta expansiva se implementó un fenómeno de despegue, concretamente de deslizamiento y separación, que resultó fundamental para obtener localización de fisuras adecuada, y que se consiguió con una fuerte reducción de la rigidez tangencial y la rigidez en tracción del óxido. Con este modelo, se realizaron simulaciones de los ensayos, utilizando modelos bidimensionales de las muestras con elementos finitos. Como datos para el comportamiento en fractura del hormigón, se utilizaron las propiedades determinadas en experimentos. Para el óxido, inicialmente se supuso un comportamiento fluido, con deslizamiento y separación casi perfectos. Después, se realizó un ajuste de los parámetros del elemento junta expansiva para reproducir los resultados experimentales. Se observó que variaciones en la rigidez normal del óxido apenas afectaban a los resultados, y que los demás parámetros apenas afectaban a la apertura de fisura; sin embargo, la deformación del tubo resultó ser muy sensible a variaciones en los parámetros del óxido, debido a la flexibilidad de la pared de los tubos, lo que resultó fundamental para determinar indirectamente los valores de los parámetros constitutivos del óxido. Finalmente, se realizaron simulaciones definitivas de los ensayos. El modelo reprodujo la profundidad de corrosión crítica y el comportamiento final de las curvas experimentales; se comprobó que la variación de diámetro interior de los tubos está fuertemente influenciada por su posición relativa respecto a la fisura principal, en concordancia con los resultados experimentales. De la comparación de los resultados experimentales y numéricos, se pudo extraer información sobre las propiedades del óxido que de otra manera no habría podido obtenerse. Corrosion of steel is one of the main pathologies affecting reinforced concrete structures exposed to marine environments or to molten salt. When corrosion occurs, an oxide layer develops around the reinforcement surface, which occupies a greater volume than the initial steel; thus, it induces internal pressure on the surrounding concrete that leads to cracking and, eventually, to full-spalling of the concrete cover. During the last years much effort has been devoted to understand the process of cracking; however, there is still a lack of knowledge regarding the mechanical behavior of the oxide layer, which is essential in the prediction of cracking. Thus, a methodology has been developed and applied in this thesis to gain further understanding of the behavior of the steel-oxide-concrete system, combining experiments and numerical simulations. Accelerated corrosion tests were carried out in laboratory conditions, using the impressed current technique. To get experimental information close to the oxide layer, concrete prisms with a smooth steel tube as reinforcement were selected as specimens, which were designed to get a single main crack across the cover. During the tests, the specimens were equipped with instruments that were specially designed to measure the variation of inner diameter and volume of the tubes, and the width of the main crack was recorded using a commercial extensometer that was adapted to the geometry of the specimens. The boundary conditions were carefully designed so that plane current and strain fields were expected during the tests, resulting in nearly uniform corrosion along the length of the tube, so that the tests could be reproduced in numerical simulations. Series of tests were carried out with various current densities and corrosion depths. Complementarily, the fracture behavior of concrete was characterized in independent tests, and the gravimetric loss of the steel tubes was determined by standard means. In all the tests, the main crack grew very slowly during the first microns of corrosion depth, but after a critical corrosion depth it fully developed and opened faster; the current density influenced the critical corrosion depth. The variation of inner diameter and inner volume of the tubes had different trends, which indicates that the deformation of the tube was not uniform. After accelerated corrosion, the specimens were cut into slices, which were used in post-corrosion tests. The pattern of cracking along the reinforcement was investigated in slices that were impregnated under vacuum with resin containing fluorescein to enhance the visibility of cracks under ultraviolet lightening and a study was carried out to assess the presence of oxide into the cracks. In all the specimens, a main crack developed through the concrete cover, which was infiltrated with oxide, and several thin secondary cracks around the reinforcement; the number of cracks diminished with the corrosion depth of the specimen. For specimens with the same corrosion, the number of cracks and their position varied from one specimen to another and between cross-sections of a given specimen, due to the heterogeneity of concrete. Finally, the bond between the steel and the concrete was investigated, using a device designed to push the tubes of steel in the concrete. The curves of stress versus displacement of the tube presented a marked peak, followed by a steady descent, with notably influence of the corrosion depth and the crack width on the residual stress. To simulate cracking of concrete due to corrosion of the reinforcement, a numerical model was implemented. It combines finite elements with an embedded adaptable crack that reproduces cracking of concrete according to the basic cohesive model, and interface elements so-called expansive joint elements, which were specially designed to reproduce the volumetric expansion of oxide and incorporate its mechanical behavior. In the expansive joint element, a debonding effect was implemented consisting of sliding and separation, which was proved to be essential to achieve proper localization of cracks, and was achieved by strongly reducing the shear and the tensile stiffnesses of the oxide. With that model, simulations of the accelerated corrosion tests were carried out on 2- dimensional finite element models of the specimens. For the fracture behavior of concrete, the properties experimentally determined were used as input. For the oxide, initially a fluidlike behavior was assumed with nearly perfect sliding and separation; then the parameters of the expansive joint element were modified to fit the experimental results. Changes in the bulk modulus of the oxide barely affected the results and changes in the remaining parameters had a moderate effect on the predicted crack width; however, the deformation of the tube was very sensitive to variations in the parameters of oxide, due to the flexibility of the tube wall, which was crucial for indirect determination of the constitutive parameters of oxide. Finally, definitive simulations of the tests were carried out. The model reproduced the critical corrosion depth and the final behavior of the experimental curves; it was assessed that the variation of inner diameter of the tubes is highly influenced by its relative position with respect to the main crack, in accordance with the experimental observations. From the comparison of the experimental and numerical results, some properties of the mechanical behavior of the oxide were disclosed that otherwise could not have been measured.
Resumo:
El objetivo del presente Trabajo Fin de Máster es estudiar la precisión de los resultados obtenidos en la medición del coeficiente de absorción acústica en tubo de impedancia, según la norma UNE-EN ISO 10534-2 “Determinación del coeficiente de absorción acústica y de la impedancia acústica en tubos de impedancia. Parte 2: Método de la función de transferencia”. En primer lugar, se han estudiado los fundamentos teóricos relacionados con el método de ensayo. A continuación, se ha detallado dicho método y se ha aplicado a un caso práctico con la instrumentación disponible en el laboratorio de Acústica de la Escuela. En relación a la precisión del método se ha analizado si la preparación e instalación de la muestra son causas de imprecisión. Para ello, se han realizado varios ensayos con dos tipos de materiales acústicos, con el fin de estudiar la dispersión entre los resultados que produce tanto el corte de la muestra, realizado en el proceso de confección, como su colocación en el tubo de impedancia. Además, se ha estudiado si desviaciones en la medida de la temperatura y de la distancia entre los micrófonos influyen en los valores del coeficiente de absorción acústica medido y de su incertidumbre asociada. Puesto que el resultado de un ensayo únicamente se halla completo cuando está acompañado de una declaración acerca de la incertidumbre de dicho resultado, en el presente trabajo se ha aplicado a este método de ensayo un procedimiento para estimar la incertidumbre empleando el método de Monte Carlo. ABSTRACT The objective of this project is studying the precision of the measurements of sound absorption coefficient in impedance tube, according to standard UNE-EN ISO 10534-2 “Determination of sound absorption coefficient and impedance in impedance tubes. Part 2: Transfer-function method”. Firstly, theoretical basis related to the test method have been studied. Furthermore, this method has been defined and applied to a particular case with the instrumentation available in the Acoustics laboratory of the College. In relation to the precision of the method, the preparation and installation of the test sample have been analyzed as possible causes of imprecision. For this purpose, two types of acoustic materials have been tested in order to study the deviation between the results produced by the cutting of the test sample and the collocation in impedance tube. In addition, it has been studied if deviations in the measurement of the temperature and distance between microphones may influence the sound absorption coefficient measured and its associated uncertainty. The test result must be accompanied by a statement of the uncertainty of the result. For this reason, in this project a procedure for estimating uncertainty of the result of this test method has been applied using the Monte Carlo method.
Resumo:
Aunque las primeras fábricas de tubos de poliéster reforzado con fibra de vidrio en España datan del año 1984, no es sino hasta el año 1996 cuando se comienza su utilización masiva como un sustituto de las tuberías de fribrocemento, que ya habían sido prohibidas por la legislación, debido a los efectos cancerígenos de este material. Desde entonces se ha prodigado la utilización de todas las diferentes tipologías de esta clase de tubería, de conformidad a los procesos de fabricación empleados que se encuentran recopilados en el AWWA Manual M45 (Fiberglass Pipe Design), obteniéndose muy diversos resultados. Durante estos años, ha surgido una creciente preocupación en los usuarios de este tipo de tuberías dadas las continuas y numerosas averías en todo el ámbito geográfico. Esto ha promovido el desarrollo de la presente investigaicón, que se ha dividido en dos partes y que ha concluido con la determinación de un nuevo mecanismo específico de fractura. La primera parte se centró en la obtención y desarrollo del modelo teórico que hemos venido a denominar como "Teoría de la Caja Mecánicamente Contaminada", y que está basado en la contaminación o separación por un impacto de dos de las tres capas que forman la tubería, la capa intermedia de arena y la capa más interna o "inner layer". La consecuencia es la disminución del canto resistente, la rotura del inner layer y la entrada de fluido a la capa de arena. Para la evaluación de la magnitud de esta separación se ha desarrollado un modelo analítico que ha determinado la existencia de una relación cuadrática que la rige, y que ha sido verificado mediante ensayos de impacto sobre probetas de tuberías, alcanzando ajustes de hasta el 92%. Así, se ha determinado que impactos de muy baja intensidad, del entorno de 90 a 160 Julios en tuberías Filament Winding continuo PN 16-20 (de 800 a 1000mm) pueden comprometer seriamente la integridad estructural de la tubería sin dejar, en un principio, muesca o traza alguna que pueda alertar del problema. Los siguientes pasos en el estudio se dirigieron a determinar qué otros mecanismos, aparte del golpe, podrían contaminar la tubería y a estudiar el consiguiente avance de la fractura a las capas externas. Se trataba además de analizar la aparición en el tubo de unas misteriosas manchas en forma de "piel de leopardo" y de otros fenómenos aparecidos en las averías como que algunas de las deformaciones de la rotura por presión interna son hacia el interior del tubo y no al revés, como habría sido de esperar a priori. Se optó entonces por comenzar la que ha constituido la segunda parte de la investigación. Para ello se recurrió a realizar ensayos hidráulicos en banco de pruebas a alta presión, cuyos resultados fueron sorprendentes al descubrir que en el proceso se producía la hidrólisis de la resina de poliéster no catalizada que fluía hacia el exterior del tubo. Como consecuencia se llevaron a cabo nuevos ensayos físicos y químicos para estudiar la migración del material y la hidrólisis producida en el proceso de fractura. En este estudio, resultó muy relevante el hecho de sobrepasar o no la presión que producía el desagarro entre las capas del tubo. En definitiva, en esta investigación, que ha constado de estudios analíticos y estudios experimentales, químicos y numéricos, se ha determinado un nuevo mecanismo de fractura que explica gran parte de los fallos acontecidos en las tuberías de poliéster reforzado con fibra de vidrio. Como aplicación se exponen recomendaciones para mejorar el comportamiento mecánico de esta tipología y evitar así los sobrecostes millonarios producidos por su reposición. Numerous and continuous failures in fiberglass reinforced polyester pipes of different companies and manufacturing processes of the AWWA Manual M45 (Fiberglass Pipe Design), have prompted the development of this research, that has concluded with a specific mechanism describing pipe fractures. This research was carried out via two independent studies. The first one is the development of the hypothesis that turned into the Mechanically Contaminated Layer Theory. This theory describes the fracture mchanism which explains a significant part of massive failures due to the existence of a sand layer placed near the neutral axis in the core making the composite very sensitive to impacts in fibreglass reinforced polyester pipes. These failures create interface delamination and consequently fluid can leak into supporting sand backfill thereby iniating the fracture process. In order to assess the delimination magnitude, an analytic method is developed and a squared root law between delamination and energy applied proposed. Vertical blunt ram testts on samples extracted from complete pipes have been carried out to verify this theory, reaching a goodness of fit up to 92%. It is concluded that low energy impacts, around 90-160J in 800-1000mm diameter PN 16-20 continuous filament winding pipes, can seriously compromise their structural integraty with no external trace. The next step in the study was to determine what other mechanism, apart from the brittle hit, could contaminate the pipe and to analyse the consequente advance of the fracture to the external layers. Another aim was to analyse two phenomena occurred in real pipe failures. The first one is the appearance on the tube of "leopard fur" stains on some of the analysed failures, and the other phenomenon is the "inverse fracture", in which the deformations of the failure due to internal pressure are towards the inside of the tube and not the other way round, as it would be expected. It was then chosen to follow a new branch of the investigation by hydraulic high-pressure bench tests that study seepage and load transmission. The results were very surprising as it was discovered that in the process, hydrolysis of the non-catalysed polyester resin occured, flowing towards the outer of the pipe, which entailed the development of chemical and physical tests of the exuded material to study material migration and hydrolysis of the fracture process. In this particular study it was relevant to exceed or not the pressure that produced the rip between the layers of the tube. In conclusion, a new breakage mechanism in FRP pies with sand-filled layer has been found, which explains a high part of the failure global cases. The whole failure process is justified by the Mechanically Contaminated Layer Theory, which has been corroborated by means of analytical, numerical and experimental studies. Several recommendations are also provided in order to improve the mechanical behaviour of this typology and avoid the millionaire overruns generated by its massive failures.
Resumo:
El objetivo de este trabajo es conocer las posibles modificaciones que puede producir en el comportamiento de las estructuras de hormigón armado (EHA) el hecho de que sean utilizadas como estructuras termoactivas, ya sea como intercambiadores en contacto con el terreno, o como sistema de distribución de calor utilizando la inercia térmica de los elementos de hormigón del edificio, basándose en el uso de energías renovables. Las EHA termoactivas se caracterizan por la incorporación en su interior de tubos de polietileno por los que circulan fluidos a temperaturas medias, que pueden incidir en el comportamiento mecánico de los elementos estructurales debido a dos efectos fundamentales: el incremento de temperatura que se produce en el interior de la EHA y la perturbación provocada por la incorporación de los tubos de polietileno. Con este fin, se ha realizado una campaña experimental de probetas de hormigón, estudiando los dos efectos por separado, por un lado se ha evaluado el comportamiento de probetas de hormigón tipo H-25 y tipo H-30 sometidas a cuatro temperaturas diferentes: 20ºC, 40ºC, 70ºC y 100ºC, ensayando la resistencia a compresión y la resistencia a anclaje/adherencia mediante ensayo “pull-out”; y, por otro lado, se ha evaluado el comportamiento de probetas de hormigón tipo H-25 y tipo H-30, elaboradas con dos tipos de molde (cilíndrico y cúbico), en las que se ha colocado tubos de polietileno en su interior en distintas posiciones, ensayando su resistencia a compresión. Los resultados de los ensayos han puesto de manifiesto que aunque se produce una disminución en la resistencia a compresión, y a arrancamiento, del hormigón, al ser sometido a aumentos de temperatura, esta disminución de la propiedades mecánicas es inferior al 20% al no superar esta tecnología los 70ºC; y respecto a la variación de la resistencia a compresión de probetas cilíndricas y cúbicas, debidas a la incorporación de los tubos de polietileno, se observa que si la posición de los mismos es paralela a la dirección de la carga tampoco se ven comprometidas las propiedad mecánicas del hormigón en valores superiores al 20%. ABSTRACT The aim of this project is to study the effects of using concrete structures as thermo-active constructions, either as energy foundations or other kind of thermo-active ground structures, or as a thermally activated building structure utilizing its own thermal mass conductivity and storage capacity to heat and cool buildings, based on renewable or “free” energy sources. The pipes, filled with a heat carrier fluid, that are embedded into the building´s concrete elements may bring on two different adverse effects on concrete structures. In one hand, the consequence of thermal variations and, on the other hand, because of the fact that the pipes are inside of the concrete mortar and in direct contact with the reinforcing steel bars. For this reason, different types of specimens and testing procedures have been proposed to discuss the effects of temperature (20º, 40ºC, 70ºC y 100ºC) on the performance of two different hardened concrete: H-25 and H-30, and the effects of having the pipes embedded in different positions inside of specimens made of two types of concrete, H-25 and H-30, and with two kind of cast, cylindrical and cubical. The experimental program includes the use of compressive strength test and also pull-out test, in order to investigate the interfacial adhesion quality and interfacial properties between steel bar and concrete. The results of the mechanical test showed that the increase of temperature in hardened concrete specimens lower than 70ºC, and the introduction of embedded pipes placed in parallel to the load, in cylindrical or cubic specimens, does not jeopardize the mechanical properties of concrete with strength decreases higher than 20%.
Resumo:
Acercarse a las obras de José M. García de Paredes, y mirarlas como un conjunto de ideas que nos indican una manera de pensar y de hacer arquitectura, nos explica un ideario que persiste en el tiempo. Tomando prestado el término “explicar” en el sentido que Stravinski le da en su Poética musical1: desplegar, desarrollar, describir una cosa, descubrir y aclarar su génesis, se comprueban las relaciones que cosas aparentemente dispersas tienen entre si, cómo se originan las obras para saber cómo determinan la arquitectura, una vez que ésta tiene vida propia y uso, pasado el tiempo. El motivo de esta tesis se encuentra en el orden, análisis y estudio de su archivo, realizado a partir del año 1990. García de Paredes, titulado en Madrid, fue arquitecto entre 1950 y 1990 y se inició en la arquitectura en un tiempo tan complejo como el actual. No fue un teórico de la arquitectura, si bien conoció en profundidad su teoría y dejó escritos y reflexiones sobre la manera de abordar el proyecto. Quizás no fue un arquitecto radicalmente innovador y sus obras son silenciosas, aunque muchas encierran planteamientos rotundos que permanecen voluntariamente en penumbra. Sin embargo sus obras son nítidas, tienen el valor de la coherencia y son valiosas por el conocimiento y por los valores que transmiten. Han cumplido su objetivo y ahora son parte de los lugares para los que se construyeron y parte de la vida de las personas para las que se proyectaron. En gran medida, poseen ya la pátina del tiempo. Su obra, no muy extensa, aúna ideas necesarias para abordar la práctica del proyecto y para llegar a ese voluntario resultado final en el que la arquitectura sea, además de una expresión personal, una actividad social capaz de hacer mejor la vida de las personas. Mirar la arquitectura de García de Paredes a través del estudio de todas las cuestiones que intervienen en ella y convertir su conocimiento en un instrumento útil de trabajo en el proyecto, es el objetivo de esta tesis. Así se analizan determinadas obras para exponer temas de antes y de ahora, ideas que son a la vez antiguas y contemporáneas. Este ideario sobre la arquitectura de García de Paredes no pertenece sólo a un tiempo, pues la bella utilidad social de la arquitectura y cómo llegar a ella a través del conocimiento y de la economía intelectual, sigue vigente. Y este objetivo tiene claramente una segunda lectura, pues al poner en valor el ideario de su obra, la presente tesis constituye tanto un homenaje como un agradecimiento al arquitecto. Sintetizar este ideario ha necesitado tanto del tiempo para organizar un archivo como de la práctica de la arquitectura para constatarlo. Durante una década, entre 1981 y 1990, trabajé en el estudio de José M. García de Paredes, con la mirada enfocada hacia los proyectos que entonces se desarrollaban en su estudio. En esos años, la música y las secciones de las salas de concierto llenaban las mesas de dibujo. En 1990, tras su inesperada marcha, me encontré con un legado de documentos que constituyen un fragmento de la arquitectura contemporánea española, que encierran la explicación de proyectos y planteamientos que son respuesta clara a la realidad de su momento. La preparación entonces de la documentación para las tres monografías sobre su obra me llevó a ordenar, clasificar y a documentar los fondos del estudio de manera sistemática y cronológicamente. Los documentos, conservados en archivadores y tubos sin numerar, desvelaban una obra en un momento en el cual el escenario de fondo del debate sobre arquitectura era ético. De manera casi artesanal y próximo de un grupo coherente de arquitectos, algunos vinculados también a las artes plásticas, García de Paredes utiliza los medios materiales a su alcance, interpretando la realidad de una forma personal, alejada de la frialdad del movimiento moderno estricto, con una voluntad de mejorarla y de prescindir de todo aquello que no fuera necesario. Las obras dan respuesta a esa realidad de tal manera que la transforman, como si de un “mágico realismo” se tratara. Estos documentos con olor a antiguo, más que narrar una historia, explican la manera en que se ha hecho esa historia, cómo las biografías y los acontecimientos se entrelazan para llegar al conocido resultado final. Y de un primer análisis, disponiéndolos a la vista de un mismo tiempo, va surgiendo otro interés que no es el de explicar su obra sino el de observar el proceso de trabajo de un arquitecto para desvelar un método de proyecto. Sobre el método de trabajo de un músico, Azorín se pregunta en su artículo “Vida imaginaria de Falla”: “Es fácil ver trabajar a un pintor, no es tan fácil ver enfrascado en su labor a un literato, aunque en las redacciones solamos ver cómo escribe un poeta que hace artículos para un periódico. ¿Pero cómo imaginamos a un músico en su tarea?. ¿Cómo escribe un músico?. ¿Es que siente de pronto un arrebato lírico y un poco desmelenado, los músicos deben llevar el pelo largo, se sienta al piano y comienza a tañer como una inspirada pitonisa?. ¿es que se levanta a media noche y, arrebatado por la inspiración y a la luz de la luna, si la hay, escribe febrilmente esas garrapatitas que vemos en los hilos telegráficos de la música?" Manuel de Falla en una carta le responde: “Nada de eso, mi querido amigo, mi trabajo de compositor no es tan misterioso como usted imagina: podría compararse al de un escritor que fuera a la vez arquitecto”. ¿Y cómo trabaja un arquitecto?. La complejidad del proceso arquitectónico nos presenta sin embargo resultados finales que sólo a través de una observación minuciosa permiten entrever el recorrido desde el pensamiento hasta la obra acabada. El escritor narra lo que ve o imagina y el arquitecto construye y da forma a esa realidad o a esos deseos y para ello debe mirar, escuchar y debe saber hacer. Analizar este proceso nos lleva inexorablemente a desvelar las claves que hacen valiosas determinadas arquitecturas. En junio de 1986 García de Paredes escribe el texto “Tres paisajes con arquitecturas”4. El texto describe tres paisajes culturales diferentes en distintos tiempos. El primero que describe es el Madrid neoclásico y el significado que tiene en este paisaje el Museo del Prado. El segundo paisaje se denomina “Alhambra versus Carlos V” y en él relata un delicado escenario donde se entrelazan distintas cuestiones relativas a la intervención en lugares históricos. En el tercer paisaje “Paisaje con Ruinas” tras describir las hermosas ruinas físicas del pasado concluye con una reflexión: “Hay ruinas y ruinas… Pero quizá no sean estas las verdaderas ruinas de nuestro tiempo. Qué clase de ruina producirá nuestra modesta arquitectura del siglo XX?. Nuestro legado no debería leerse en clave de piedras como las de otras épocas que no disponían de otro lenguaje que el de construir para los tiempos. Sin embargo es posible que surjan otras claves, quizá aún no bien conocidas, que sean para las generaciones futuras de tan clara lectura como la de este tercer Paisaje”. Encontrar esas claves contemporáneas, es el objeto de este paseo por las obras y escritos de García de Paredes. Mirar, suprimido el tiempo, los planos, dibujos, escritos, libros y fotografías del archivo del arquitecto, ordenando y comprendiendo los motivos que propiciaron cada obra, nos lleva a pensar que la arquitectura de cada momento es sólo un desplazamiento de los anteriores. Nada ahora es completamente distinto de lo que era entonces y la arquitectura de antes puede ser interpretada, más allá de aspectos formales, por otras generaciones, desdibujándose el tiempo donde pretendemos ordenarla. Este legado de claves conceptuales nos es útil ahora para conocer lo que permanece en la arquitectura pensando en cuestiones actuales a través de papeles antiguos. El legado de esa “modesta arquitectura” no se debe leer pues en clave de “piedras”, como expresaba García de Paredes. Gran parte de sus obras se construyen con materiales sencillos y la lectura de su valor no es directa. Sin embargo explican en qué momento la arquitectura pasa a ser un hecho capaz de transmitir intenciones ocultas y convertirse en una actividad social en sintonía con la realidad. Desvelar esta colección de ideas para enfocar cuestiones de arquitectura, en el convencimiento de que este ideario es tan válido hoy como entonces, nos acerca a ese utópico método de trabajo del arquitecto. En este ciclo abierto se han seleccionado determinadas obras que permiten plantear mejor las cuestiones que ilustran su razón de ser y así pues se suceden lugares y personas, números y geometrías, música, artes plásticas y arquitecturas. ABSTRACT Looking at the work of José M. García de Paredes as a set of ideas that outline a way of imagining and producing architecture, explains a vision that has persisted in time. Employing the word “explain” in the same sense as Stravinsky in his Poetics of Music: deploying, developing and describing something, discovering and clarifying its origins as a way of observing the relationships between things and the way designs originate in order to understand how they determine the architecture, once it has a life and use of its own after time has passed. This thesis is based on an analysis of the archives of José M. Garcia de Paredes, which began in 1990. After graduating from the Madrid School in 1950 —an equally complex time as today— he continued to practise architecture until 1990. He was not an architectural theorist but he had a deep understanding of theory and left essays and ideas on the way to tackle projects. Although he may not have been a radically innovative architect and his work may seem subdued, much of it embodies categorical approaches, which are deliberately overshadowed. Nevertheless, his work is sharp, consistent and is valuable for the knowledge and values it transmits. It has served its purpose, it now forms part of the places for which it was built and has become part of the lives of the people it was designed for. To a large extent, his buildings already show the patina of time. While not large in number, they bring together the ideas needed to put a project into practice and arrive at an end result in which the architecture is also a personal expression, a social activity that makes life better for people. The discourse takes a new look at the architecture of Garcia de Paredes through an analysis of all the issues involved in order to turn the resulting knowledge into a useful tool for project work. It therefore now, ideas that are old but at the same time contemporary. This vision time. The beautiful social utility of his architecture and the way he arrived at it through knowledge and intellectual economy still remain valid. The synthesis of this vision has required much time to organize the archive and also a professional architectural practice to put it into perspective. The preserved documents reveal a body of work that was designed at a time when ethics shaped the underlying scenario of the Relación de architectural debate. The architect used the material resources at his disposal in an almost craftsman-like way, in the company of a congruent group of architects. He interpreted reality in a personal way, removed from the coldness of the strict Modern Movement, striving to improve it and strip off anything that was unnecessary. His buildings responded to their context in such a way that transformed it, as if they were “magical realism”. Another line of analysis emerged from an initial analysis, with all the documents in view at the same time: not to explain his work but rather to study the design process of an architect in order to discover a method. In 1986, García de Paredes wrote “Three landscapes with architectures”, which describes three cultural landscapes in different times. After describing the beauty of the physical ruins of the past, the third landscape, “Landscape with Ruins”, concludes with this observation: “There are ruins and ruins ... But these might not be the real ruins of our time. What kind of ruin will be produced by our modest 20th century architecture? Our legacy should not be interpreted in the key of mere stones, like those of past eras which had access to no other language than construction for all times. Other keys, perhaps not yet familiar, may well emerge and be as legible for future generations as this third Landscape”. This tour of the work and writings of Garcia de Paredes is aimed at discovering these contemporary keys. The legacy of such keys can now help us to know what endures in architecture; thinking about current issues through the perspective of old papers. Having set aside the time factor, looking at the drawings, essays, books and photographs from the architect’s archives, organising and understanding the reasons that gave rise to each work, I now believe that the architecture of each moment is only previous work that has been shifted. Nothing is completely different now from what it was back then. The architecture of the past can be interpreted by other generations, looking beyond the aspects of form, blurring the time factor when we want to order it. For this purpose I have selected particular works that permit a better enunciation of the issues that illustrate their rationale, hence the succession of places and people, numbers and geometries, music, art and architectures.
Resumo:
Esta tesis doctoral se ha centrado en el estudio de las cargas aerodinámicas no estacionario en romos cuerpos o no aerodinámicos (bluff bodies). Con este objetivo se han identificado y analizado los siguientes puntos: -Caracterización del flujo medido con diferentes tipos de tubos de Pitot y anemómetro de hilo caliente en condiciones de flujo no estacionario inestable generado por un túnel aerodinamico de ráfagas. -Diseño e integración de los montajes experimentales requeridos para medir las cargas de viento internas y externas que actúan sobre los cuerpos romos en condiciones de flujo de viento con ráfagas. -Implementación de modelos matemáticos semi-empíricos basados en flujo potencial y las teorías fenomenológicas pertinentes para simular los resultados experimentales. -En diversan condiciones de flujo con ráfagas, la identificación y el análisis de la influencia de los parámetros obtenida a partir de los modelos teóricos desarrollados. -Se proponen estimaciones empíricas para averiguar los valores adecuados de los parámetros que influyente, mediante el ajuste de los resultados experimentales y los predichos teóricamente. Los montajes experimentales se has reakizado en un tunel aerodinamico de circuito abierto, provisto de baja velocidad, cámara de ensayes cerrada, un nuevo concepto de mecanismo generador de ráfaga sinusoidal, diseñado y construido en el Instituto de Microgravedad "Ignacio Da Riva" de la Universidad Politécnica de Madrid, (IDR / UPM). La principal característica de este túnel aerodynamico es la capacidad de generar un flujo con un perfil de velocidad uniforme y una fluctuación sinusoidal en el tiempo. Se han realizado pruebas experimentales para estudiar el efecto de los flujos no estacionarios en cuerpos romos situados en el suelo. Se han propuesto dos modelos teóricos para diterminar las cargas de presión externas e internas respectivamente. Con el fin de satisfacer la necesidad de la crea ráfagas de viento sinusoidales para comprobar las predicciones de los modelos teóricos, se han obtenido velocidades de hasta 30 m/s y frecuencias ráfaga de hasta 10 Hz. La sección de la cámara de ensayos es de 0,39 m x 0,54 m, dimensiónes adecuadas para llevar a cabo experimentos con modelos de ensayos. Se muestra que en la gama de parámetros explorados los resultados experimentales están en buen acuerdo con las predicciones de los modelos teóricos. Se han realizado pruebas experimentales para estudiar los efectos del flujo no estacionario, las cuales pueden ayudar a aclarar el fenómeno de las cargas de presión externa sobre los cuerpos romos sometidos a ráfagas de viento: y tambien para determinan las cargas de presión interna, que dependen del tamaño de los orificios de ventilación de la construcción. Por último, se ha analizado la contribución de los términos provenientes del flujo no estacionario, y se han caracterizado o los saltos de presión debido a la pérdida no estacionario de presión a través de los orificios de ventilación. ABSTRACT This Doctoral dissertation has been focused to study the unsteady aerodynamic loads on bluff bodies. To this aim the following points have been identified and analyzed: -Characterization of the flow measured with different types of Pitot tubes and hot wire anemometer at unsteady flow conditions generated by a gust wind tunnel. -Design and integrating of the experimental setups required to measure the internal and external wind loads acting on bluff bodies at gusty wind flow conditions. -Implementation of semi-empirical mathematical models based on potential flow and relevant phenomenological theories to simulate the experimental results.-At various gusty flow conditions, extracting and analyzing the influence of parameters obtained from the developed theoretical models. -Empirical estimations are proposed to find out suitable values of the influencing parameters, by fitting the experimental and theoretically predicted results. The experimental setups are performed in an open circuit, closed test section, low speed wind tunnel, with a new sinusoidal gust generator mechanism concept, designed and built at the Instituto de Microgravedad “Ignacio Da Riva” of the Universidad Politécnica de Madrid, (IDR/UPM). The main characteristic of this wind tunnel is the ability to generate a flow with a uniform velocity profile and a sinusoidal time fluctuation of the speed. Experimental tests have been devoted to study the effect of unsteady flows on bluff bodies lying on the ground. Two theoretical models have been proposed to measure the external and internal pressure loads respectively. In order to meet the need of creating sinusoidal wind gusts to check the theoretical model predictions, the gust wind tunnel maximum flow speed and, gust frequency in the test section have been limited to 30 m/s and 10 Hz, respectively have been obtained. The test section is 0.39 m × 0.54 m, which is suitable to perform experiments with testing models. It is shown that, in the range of parameters explored, the experimental results are in good agreement with the theoretical model predictions. Experimental tests have been performed to study the unsteady flow effects, which can help in clarifying the phenomenon of the external pressure loads on bluff bodies under gusty winds: and also to study internal pressure loads, which depend on the size of the venting holes of the building. Finally, the contribution of the unsteady flow terms in the theoretical model has been analyzed, and the pressure jumps due to the unsteady pressure losses through the venting holes have been characterized.
Resumo:
El Stade Velódrome, uno de los Estadios de fútbol más importantes de Francia se prepara para la celebración de la Eurocopa de 2016 en el país vecino. Evento deportivo que supone un megaescaparate internacional y un buen momento para modernizar las instalaciones. La remodelación del terreno de juego del Olympique de Marsella, incluye una ampliación de las gradas hasta los 67.500 asientos, nuevos aparcamientos, un centro comercial y una cubierta que cubre completamente las tribunas. Se trata de una cubierta calculada y ejecutada por las empresas españolas, FHECOR Ingenieros Consultores y el taller metálico Horta-Coslada. Con planta ovalada de 258x251 metros y trabajando por forma, aprovecha sus 6.000 toneladas de tubos circulares de acero galvanizado en caliente para soportar las cargas y transmitirlas a cimentación sin reducir la visibilidad de los espectadores y de manera totalmente exenta del estadio existente.
Resumo:
La informática teórica es una disciplina básica ya que la mayoría de los avances en informática se sustentan en un sólido resultado de esa materia. En los últimos a~nos debido tanto al incremento de la potencia de los ordenadores, como a la cercanía del límite físico en la miniaturización de los componentes electrónicos, resurge el interés por modelos formales de computación alternativos a la arquitectura clásica de von Neumann. Muchos de estos modelos se inspiran en la forma en la que la naturaleza resuelve eficientemente problemas muy complejos. La mayoría son computacionalmente completos e intrínsecamente paralelos. Por este motivo se les está llegando a considerar como nuevos paradigmas de computación (computación natural). Se dispone, por tanto, de un abanico de arquitecturas abstractas tan potentes como los computadores convencionales y, a veces, más eficientes: alguna de ellas mejora el rendimiento, al menos temporal, de problemas NPcompletos proporcionando costes no exponenciales. La representación formal de las redes de procesadores evolutivos requiere de construcciones, tanto independientes, como dependientes del contexto, dicho de otro modo, en general una representación formal completa de un NEP implica restricciones, tanto sintácticas, como semánticas, es decir, que muchas representaciones aparentemente (sintácticamente) correctas de casos particulares de estos dispositivos no tendrían sentido porque podrían no cumplir otras restricciones semánticas. La aplicación de evolución gramatical semántica a los NEPs pasa por la elección de un subconjunto de ellos entre los que buscar los que solucionen un problema concreto. En este trabajo se ha realizado un estudio sobre un modelo inspirado en la biología celular denominado redes de procesadores evolutivos [55, 53], esto es, redes cuyos nodos son procesadores muy simples capaces de realizar únicamente un tipo de mutación puntual (inserción, borrado o sustitución de un símbolo). Estos nodos están asociados con un filtro que está definido por alguna condición de contexto aleatorio o de pertenencia. Las redes están formadas a lo sumo de seis nodos y, teniendo los filtros definidos por una pertenencia a lenguajes regulares, son capaces de generar todos los lenguajes enumerables recursivos independientemente del grafo subyacente. Este resultado no es sorprendente ya que semejantes resultados han sido documentados en la literatura. Si se consideran redes con nodos y filtros definidos por contextos aleatorios {que parecen estar más cerca a las implementaciones biológicas{ entonces se pueden generar lenguajes más complejos como los lenguajes no independientes del contexto. Sin embargo, estos mecanismos tan simples son capaces de resolver problemas complejos en tiempo polinomial. Se ha presentado una solución lineal para un problema NP-completo, el problema de los 3-colores. Como primer aporte significativo se ha propuesto una nueva dinámica de las redes de procesadores evolutivos con un comportamiento no determinista y masivamente paralelo [55], y por tanto todo el trabajo de investigación en el área de la redes de procesadores se puede trasladar a las redes masivamente paralelas. Por ejemplo, las redes masivamente paralelas se pueden modificar de acuerdo a determinadas reglas para mover los filtros hacia las conexiones. Cada conexión se ve como un canal bidireccional de manera que los filtros de entrada y salida coinciden. A pesar de esto, estas redes son computacionalmente completas. Se pueden también implementar otro tipo de reglas para extender este modelo computacional. Se reemplazan las mutaciones puntuales asociadas a cada nodo por la operación de splicing. Este nuevo tipo de procesador se denomina procesador splicing. Este modelo computacional de Red de procesadores con splicing ANSP es semejante en cierto modo a los sistemas distribuidos en tubos de ensayo basados en splicing. Además, se ha definido un nuevo modelo [56] {Redes de procesadores evolutivos con filtros en las conexiones{ , en el cual los procesadores tan solo tienen reglas y los filtros se han trasladado a las conexiones. Dicho modelo es equivalente, bajo determinadas circunstancias, a las redes de procesadores evolutivos clásicas. Sin dichas restricciones el modelo propuesto es un superconjunto de los NEPs clásicos. La principal ventaja de mover los filtros a las conexiones radica en la simplicidad de la modelización. Otras aportaciones de este trabajo ha sido el dise~no de un simulador en Java [54, 52] para las redes de procesadores evolutivos propuestas en esta Tesis. Sobre el término "procesador evolutivo" empleado en esta Tesis, el proceso computacional descrito aquí no es exactamente un proceso evolutivo en el sentido Darwiniano. Pero las operaciones de reescritura que se han considerado pueden interpretarse como mutaciones y los procesos de filtrado se podrían ver como procesos de selección. Además, este trabajo no abarca la posible implementación biológica de estas redes, a pesar de ser de gran importancia. A lo largo de esta tesis se ha tomado como definición de la medida de complejidad para los ANSP, una que denotaremos como tama~no (considerando tama~no como el número de nodos del grafo subyacente). Se ha mostrado que cualquier lenguaje enumerable recursivo L puede ser aceptado por un ANSP en el cual el número de procesadores está linealmente acotado por la cardinalidad del alfabeto de la cinta de una máquina de Turing que reconoce dicho lenguaje L. Siguiendo el concepto de ANSP universales introducido por Manea [65], se ha demostrado que un ANSP con una estructura de grafo fija puede aceptar cualquier lenguaje enumerable recursivo. Un ANSP se puede considerar como un ente capaz de resolver problemas, además de tener otra propiedad relevante desde el punto de vista práctico: Se puede definir un ANSP universal como una subred, donde solo una cantidad limitada de parámetros es dependiente del lenguaje. La anterior característica se puede interpretar como un método para resolver cualquier problema NP en tiempo polinomial empleando un ANSP de tama~no constante, concretamente treinta y uno. Esto significa que la solución de cualquier problema NP es uniforme en el sentido de que la red, exceptuando la subred universal, se puede ver como un programa; adaptándolo a la instancia del problema a resolver, se escogerín los filtros y las reglas que no pertenecen a la subred universal. Un problema interesante desde nuestro punto de vista es el que hace referencia a como elegir el tama~no optimo de esta red.---ABSTRACT---This thesis deals with the recent research works in the area of Natural Computing {bio-inspired models{, more precisely Networks of Evolutionary Processors first developed by Victor Mitrana and they are based on P Systems whose father is Georghe Paun. In these models, they are a set of processors connected in an underlying undirected graph, such processors have an object multiset (strings) and a set of rules, named evolution rules, that transform objects inside processors[55, 53],. These objects can be sent/received using graph connections provided they accomplish constraints defined at input and output filters processors have. This symbolic model, non deterministic one (processors are not synchronized) and massive parallel one[55] (all rules can be applied in one computational step) has some important properties regarding solution of NP-problems in lineal time and of course, lineal resources. There are a great number of variants such as hybrid networks, splicing processors, etc. that provide the model a computational power equivalent to Turing machines. The origin of networks of evolutionary processors (NEP for short) is a basic architecture for parallel and distributed symbolic processing, related to the Connection Machine as well as the Logic Flow paradigm, which consists of several processors, each of them being placed in a node of a virtual complete graph, which are able to handle data associated with the respective node. All the nodes send simultaneously their data and the receiving nodes handle also simultaneously all the arriving messages, according to some strategies. In a series of papers one considers that each node may be viewed as a cell having genetic information encoded in DNA sequences which may evolve by local evolutionary events, that is point mutations. Each node is specialized just for one of these evolutionary operations. Furthermore, the data in each node is organized in the form of multisets of words (each word appears in an arbitrarily large number of copies), and all the copies are processed in parallel such that all the possible events that can take place do actually take place. Obviously, the computational process just described is not exactly an evolutionary process in the Darwinian sense. But the rewriting operations we have considered might be interpreted as mutations and the filtering process might be viewed as a selection process. Recombination is missing but it was asserted that evolutionary and functional relationships between genes can be captured by taking only local mutations into consideration. It is clear that filters associated with each node allow a strong control of the computation. Indeed, every node has an input and output filter; two nodes can exchange data if it passes the output filter of the sender and the input filter of the receiver. Moreover, if some data is sent out by some node and not able to enter any node, then it is lost. In this paper we simplify the ANSP model considered in by moving the filters from the nodes to the edges. Each edge is viewed as a two-way channel such that the input and output filters coincide. Clearly, the possibility of controlling the computation in such networks seems to be diminished. For instance, there is no possibility to loose data during the communication steps. In spite of this and of the fact that splicing is not a powerful operation (remember that splicing systems generates only regular languages) we prove here that these devices are computationally complete. As a consequence, we propose characterizations of two complexity classes, namely NP and PSPACE, in terms of accepting networks of restricted splicing processors with filtered connections. We proposed a uniform linear time solution to SAT based on ANSPFCs with linearly bounded resources. This solution should be understood correctly: we do not solve SAT in linear time and space. Since any word and auxiliary word appears in an arbitrarily large number of copies, one can generate in linear time, by parallelism and communication, an exponential number of words each of them having an exponential number of copies. However, this does not seem to be a major drawback since by PCR (Polymerase Chain Reaction) one can generate an exponential number of identical DNA molecules in a linear number of reactions. It is worth mentioning that the ANSPFC constructed above remains unchanged for any instance with the same number of variables. Therefore, the solution is uniform in the sense that the network, excepting the input and output nodes, may be viewed as a program according to the number of variables, we choose the filters, the splicing words and the rules, then we assign all possible values to the variables, and compute the formula.We proved that ANSP are computationally complete. Do the ANSPFC remain still computationally complete? If this is not the case, what other problems can be eficiently solved by these ANSPFCs? Moreover, the complexity class NP is exactly the class of all languages decided by ANSP in polynomial time. Can NP be characterized in a similar way with ANSPFCs?
Resumo:
Este trabajo analiza distintas inestabilidades en estructuras formadas por distintos materiales. En particular, se capturan y se modelan las inestabilidades usando el método de Riks. Inicialmente, se analiza la bifurcación en depósitos cilíndricos formados por material anisótropo sometidos a carga axial y presión interna. El análisis de bifurcación y post-bifurcación asociados con cilindros de pared gruesa se formula para un material incompresible reforzado con dos fibras que son mecánicamente equivalentes y están dispuestas simétricamente. Consideramos dos casos en la naturaleza de la anisotropía: (i) Fibras refuerzo que tienen una influencia particular sobre la respuesta a cortante del material y (ii) Fibras refuerzo que influyen sólo si la fibra cambia de longitud con la deformación. Se analiza la propagación de las inestabilidades. En concreto, se diferencia en el abultamiento (bulging) entre la propagación axial y la propagación radial de la inestabilidad. Distintos modelos sufren una u otra propagación. Por último, distintas inestabilidades asociadas al mecanismo de ablandamiento del material (material softening) en contraposición al de endurecimiento (hardening) en una estructura (viga) de a: hormigón y b: hormigón reforzado son modeladas utilizando una metodología paralela a la desarrollada en el análisis de inestabilidades en tubos sometidos a presión interna. This present work deals with the instability of structures made of various materials. It captures and models different types of instabilities using numerical analysis. Firstly, we consider bifurcation for anisotropic cylindrical shells subject to axial loading and internal pressure. Analysis of bifurcation and post bifurcation of inflated hyperelastic thick-walled cylinder is formulated using a numerical procedure based on the modified Riks method for an incompressible material with two preferred directions which are mechanically equivalent and are symmetrically disposed. Secondly, bulging/necking motion in doubly fiber-reinforced incompressible nonlinearly elastic cylindrical shells is captured and we consider two cases for the nature of the anisotropy: (i) reinforcing models that have a particular influence on the shear response of the material and (ii) reinforcing models that depend only on the stretch in the fiber direction. The different instability motions are considered. Axial propagation of the bulging instability mode in thin-walled cylinders under inflation is analyzed. We present the analytical solution for this particular motion as well as for radial expansion during bulging evolution. For illustration, cylinders that are made of either isotropic incompressible non-linearly elastic materials or doubly fiber reinforced incompressible non-linearly elastic materials are considered. Finally, strain-softening constitutive models are considered to analyze two concrete structures: a reinforced concrete beam and an unreinforced notch beam. The bifurcation point is captured using the Riks method used previously to analyze bifurcation of a pressurized cylinder.
Resumo:
En este proyecto se ha realizado el dimensionamiento de los equipos básicos de una planta de licuación de gas natural cuya localización es Texas, EEUU. La capacidad de la planta es de 1 MTPA y funciona mediante un proceso de licuefacción de licencia Prico. Su objetivo fundamental es servir de apoyo en las puntas de consumo de gas natural (el cual varía considerablemente según la época del año) mediante reinyección del producto en los gaseoductos en los momentos de mayor demanda o incluso mediante su transporte en camiones cisterna. El proyecto ha comprendido el análisis del proceso Prico con su diagrama de flujo, el dimensionamiento de los intercambiadores de calor (carcasa y tubos y plate-fin), selección de los equipos rotativos, simulación del proceso y dimensionamiento de tuberías, así como un pequeño estudio económico. Abstract In this project, sizing of main equipment of a natural gas liquefaction plant has been developed. The plant is located in Texas, EEUU. Plant capacity is 1 MTPA and is designed to produce LNG by using a Prico liquefaction process. The main objective of the designed plant is to support the peaks of consumption of natural gas (which varies considerably along the year) by liquefying, storing and reinjecting the natural gas in the pipelines or even using tanker trucks to take LNG to consumers. The project includes the analysis of the Prico process flow diagram, sizing of the heat exchangers (shell & tube and plate-fin), selection of rotatory equipment, process simulation and pipe sizing, and a viability analysis.
Resumo:
El empleo de los micropilotes en la ingeniería civil ha revolucionado las técnicas de estabilización de terraplenes a media ladera, ya que aunque los pilotes pueden ser la opción más económica, el uso de micropilotes permite llegar a sitios inaccesibles con menor coste de movimientos de tierras, realización de plataformas de trabajo de dimensiones reducidas, maquinaria necesaria es mucho más pequeña, liviana y versátil en su uso, incluyendo la posibilidad de situar la fabricación de morteros o lechadas a distancias de varias decenas de metros del elemento a ejecutar. Sin embargo, realizando una revisión de la documentación técnica que se tiene en el ámbito ingenieril, se comprobó que los sistemas de diseño de algunos casos (micropilotes en terraplenes a media ladera, micropilotes en pantallas verticales, micropilotes como “paraguas” en túneles, etc.) eran bastante deficientes o poco desarrollados. Premisa que permite concluir que el constructor ha ido por delante (como suele ocurrir en ingeniería geotécnica) del cálculo o de su análisis teórico. Del mismo modo se determinó que en su mayoría los micropilotes se utilizan en labores de recalce o como nueva solución de cimentación en condiciones de difícil acceso, casos en los que el diseño de los micropilotes viene definido por cargas axiales, de compresión o de tracción, consideraciones que se contemplan en reglamentaciones como la “Guía para el proyecto y la ejecución de micropilotes en obras de carretera” del Ministerio de Fomento. En los micropilotes utilizados para estabilizar terraplenes a media ladera y micropilotes actuando como muros pantalla, en los que éstos trabajan a esfuerzo cortante y flexión, no se dispone de sistemas de análisis fiables o no se introduce adecuadamente el problema de interacción terreno-micropilote. Además en muchos casos, los parámetros geotécnicos que se utilizan no tienen una base técnico-teórica adecuada por lo que los diseños pueden quedar excesivamente del lado de la seguridad, en la mayoría de los casos, o todo lo contrario. Uno de los objetivos principales de esta investigación es estudiar el comportamiento de los micropilotes que están sometidos a esfuerzos de flexión y cortante, además de otros objetivos de gran importancia que se describen en el apartado correspondiente de esta tesis. Cabe indicar que en este estudio no se ha incluido el caso de micropilotes quasi-horizontales trabajando a flexion (como los “paraguas” en túneles), por considerarse que estos tienen un comportamiento y un cálculo diferente, que está fuera del alcance de esta investigación. Se ha profundizado en el estudio del empleo de micropilotes en taludes, presentando casos reales de obras ejecutadas, datos estadísticos, problemas de diseño y ejecución, métodos de cálculo simplificados y modelación teórica en cada caso, efectuada mediante el empleo de elementos finitos con el Código Plaxis 2D. Para llevar a cabo los objetivos que se buscan con esta investigación, se ha iniciado con el desarrollo del “Estado del Arte” que ha permitido establecer tipología, aplicaciones, características y cálculo de los micropilotes que se emplean habitualmente. Seguidamente y a efectos de estudiar el problema dentro de un marco geotécnico real, se ha seleccionado una zona española de actuación, siendo ésta Andalucía, en la que se ha utilizado de manera muy importante la técnica de micropilotes sobre todo en problemas de estabilidad de terraplenes a media ladera. A partir de ahí, se ha realizado un estudio de las propiedades geotécnicas de los materiales (principalmente suelos y rocas muy blandas) que están presentes en esta zona geográfica, estudio que ha sido principalmente bibliográfico o a partir de la experiencia en la zona del Director de esta tesis. Del análisis realizado se han establecido ordenes de magnitud de los parámetros geotécnicos, principalmente la cohesión y el ángulo de rozamiento interno (además del módulo de deformación aparente o de un módulo de reacción lateral equivalente) para los diversos terrenos andaluces. Con el objeto de conocer el efecto de la ejecución de un micropilote en el terreno (volumen medio real del micropilote, una vez ejecutado; efecto de la presión aplicada en las propiedades del suelo circundante, etc.) se ha realizado una encuesta entre diversas empresas españolas especializadas en la técnica de los micropilotes, a efectos de controlar los volúmenes de inyección y las presiones aplicadas, en función de la deformabilidad del terreno circundante a dichos micropilotes, con lo que se ha logrado definir una rigidez a flexión equivalente de los mismos y la definición y características de una corona de terreno “mejorado” lograda mediante la introducción de la lechada y el efecto de la presión alrededor del micropilote. Con las premisas anteriores y a partir de los parámetros geotécnicos determinados para los terrenos andaluces, se ha procedido a estudiar la estabilidad de terraplenes apoyados sobre taludes a media ladera, mediante el uso de elementos finitos con el Código Plaxis 2D. En el capítulo 5. “Simulación del comportamiento de micropilotes estabilizando terraplenes”, se han desarrollado diversas simulaciones. Para empezar se simplificó el problema simulando casos similares a algunos reales en los que se conocía que los terraplenes habían llegado hasta su situación límite (de los que se disponía información de movimientos medidos con inclinómetros), a partir de ahí se inició la simulación de la inestabilidad para establecer el valor de los parámetros de resistencia al corte del terreno (mediante un análisis retrospectivo – back-análisis) comprobando a su vez que estos valores eran similares a los deducidos del estudio bibliográfico. Seguidamente se han introducido los micropilotes en el borde de la carretera y se ha analizado el comportamiento de éstos y del talud del terraplén (una vez construidos los micropilotes), con el objeto de establecer las bases para su diseño. De este modo y adoptando los distintos parámetros geotécnicos establecidos para los terrenos andaluces, se simularon tres casos reales (en Granada, Málaga y Ceuta), comparando los resultados de dichas simulaciones numéricas con los resultados de medidas reales de campo (desplazamientos del terreno, medidos con inclinómetros), obteniéndose una reproducción bastante acorde a los movimientos registrados. Con las primeras simulaciones se concluye que al instalar los micropilotes la zona más insegura de la ladera es la de aguas abajo. La superficie de rotura ya no afecta a la calzada que protegen los micropilotes. De ahí que se deduzca que esta solución sea válida y se haya aplicado masivamente en Andalucía. En esas condiciones, podría decirse que no se está simulando adecuadamente el trabajo de flexión de los micropilotes (en la superficie de rotura, ya que no les corta), aunque se utilicen elementos viga. Por esta razón se ha realizado otra simulación, basada en las siguientes hipótesis: − Se desprecia totalmente la masa potencialmente deslizante, es decir, la que está por delante de la fila exterior de micros. − La estratigrafía del terreno es similar a la considerada en las primeras simulaciones. − La barrera de micropilotes está constituida por dos elementos inclinados (uno hacia dentro del terraplén y otro hacia fuera), con inclinación 1(H):3(V). − Se puede introducir la rigidez del encepado. − Los micros están separados 0,556 m ó 1,00 m dentro de la misma alineación. − El empotramiento de los micropilotes en el sustrato resistente puede ser entre 1,5 y 7,0 m. Al “anular” el terreno que está por delante de los micropilotes, a lo largo del talud, estos elementos empiezan claramente a trabajar, pudiendo deducirse los esfuerzos de cortante y de flexión que puedan actuar sobre ellos (cota superior pero prácticamente muy cerca de la solución real). En esta nueva modelación se ha considerado tanto la rigidez equivalente (coeficiente ϴ) como la corona de terreno tratado concéntrico al micropilote. De acuerdo a esto último, y gracias a la comparación de estas modelaciones con valores reales de movimientos en laderas instrumentadas con problemas de estabilidad, se ha verificado que existe una similitud bastante importante entre los valores teóricos obtenidos y los medidos en campo, en relación al comportamiento de los micropilotes ejecutados en terraplenes a media ladera. Finalmente para completar el análisis de los micropilotes trabajando a flexión, se ha estudiado el caso de micropilotes dispuestos verticalmente, trabajando como pantallas discontinuas provistas de anclajes, aplicado a un caso real en la ciudad de Granada, en la obra “Hospital de Nuestra Señora de la Salud”. Para su análisis se utilizó el código numérico CYPE, basado en que la reacción del terreno se simula con muelles de rigidez Kh o “módulo de balasto” horizontal, introduciendo en la modelación como variables: a) Las diferentes medidas obtenidas en campo; b) El espesor de terreno cuaternario, que por lo que se pudo determinar, era variable, c) La rigidez y tensión inicial de los anclajes. d) La rigidez del terreno a través de valores relativos de Kh, recopilados en el estudio de los suelos de Andalucía, concretamente en la zona de Granada. Dicha pantalla se instrumentó con 4 inclinómetros (introducidos en los tubos de armadura de cuatro micropilotes), a efectos de controlar los desplazamientos horizontales del muro de contención durante las excavaciones pertinentes, a efectos de comprobar la seguridad del conjunto. A partir del modelo de cálculo desarrollado, se ha comprobado que el valor de Kh pierde importancia debido al gran número de niveles de anclajes, en lo concerniente a las deformaciones horizontales de la pantalla. Por otro lado, los momentos flectores son bastante sensibles a la distancia entre anclajes, al valor de la tensión inicial de los mismos y al valor de Kh. Dicho modelo también ha permitido reproducir de manera fiable los valores de desplazamientos medidos en campo y deducir los parámetros de deformabilidad del terreno, Kh, con valores del orden de la mitad de los medidos en el Metro Ligero de Granada, pero visiblemente superiores a los deducibles de ábacos que permiten obtener Kh para suelos granulares con poca cohesión (gravas y cuaternario superior de Sevilla) como es el caso del ábaco de Arozamena, debido, a nuestro juicio, a la cementación de los materiales presentes en Granada. En definitiva, de las anteriores deducciones se podría pensar en la optimización del diseño de los micropilotes en las obras que se prevean ejecutar en Granada, con similares características al caso de la pantalla vertical arriostrada mediante varios niveles de anclajes y en las que los materiales de emplazamiento tengan un comportamiento geotécnico similar a los estudiados, con el consiguiente ahorro económico. Con todo ello, se considera que se ha hecho una importante aportación para el diseño de futuras obras de micropilotes, trabajando a flexión y cortante, en obras de estabilización de laderas o de excavaciones. Using micropiles in civil engineering has transformed the techniques of stabilization of embankments on the natural or artificial slopes, because although the piles may be the cheapest option, the use of micropiles can reach inaccessible places with lower cost of earthworks, carrying out small work platforms. Machinery used is smaller, lightweight and versatile, including the possibility of manufacturing mortars or cement grouts over distances of several tens of meters of the element to build. However, making a review of the technical documentation available in the engineering field, it was found that systems designed in some cases (micropiles in embankments on the natural slopes, micropiles in vertical cut-off walls, micropiles like "umbrella" in tunnels, etc.) were quite poor or underdeveloped. Premise that concludes the builder has gone ahead (as usually happen in geotechnical engineering) of calculation or theoretical analysis. In the same way it was determined that most of the micropiles are used in underpinning works or as a new foundation solution in conditions of difficult access, in which case the design of micropiles is defined by axial, compressive or tensile loads, considered in regulations as the " Handbook for the design and execution of micropiles in road construction" of the Ministry of Development. The micropiles used to stabilize embankments on the slopes and micropiles act as retaining walls, where they work under shear stress and bending moment, there are not neither reliable systems analysis nor the problem of soil-micropile interaction are properly introduced. Moreover, in many cases, the geotechnical parameters used do not have a proper technical and theoretical basis for what designs may be excessively safe, or the opposite, in most cases. One of the main objectives of this research is to study the behavior of micro piles which are subjected to bending moment and shear stress, as well as other important objectives described in the pertinent section of this thesis. It should be noted that this study has not included the case of quasi-horizontal micropiles working bending moment (as the "umbrella" in tunnels), because it is considered they have a different behavior and calculation, which is outside the scope of this research. It has gone in depth in the study of using micropiles on slopes, presenting real cases of works made, statistics, problems of design and implementation, simplified calculation methods and theoretical modeling in each case, carried out by using FEM (Finite Element Method) Code Plaxis 2D. To accomplish the objectives of this research, It has been started with the development of the "state of the art" which stipulate types, applications, characteristics and calculation of micropiles that are commonly used. In order to study the problem in a real geotechnical field, it has been selected a Spanish zone of action, this being Andalusia, in which it has been used in a very important way, the technique of micropiles especially in embankments stability on natural slopes. From there, it has made a study of the geotechnical properties of the materials (mainly very soft soils and rocks) that are found in this geographical area, which has been mainly a bibliographic study or from the experience in the area of the Director of this thesis. It has been set orders of magnitude of the geotechnical parameters from analyzing made, especially the cohesion and angle of internal friction (also apparent deformation module or a side reaction module equivalent) for various typical Andalusian ground. In order to determine the effect of the implementation of a micropile on the ground (real average volume of micropile once carried out, effect of the pressure applied on the properties of the surrounding soil, etc.) it has conducted a survey among various skilled companies in the technique of micropiles, in order to control injection volumes and pressures applied, depending on the deformability of surrounding terrain such micropiles, whereby it has been possible to define a bending stiffness and the definition and characteristics of a crown land "improved" achieved by introducing the slurry and the effect of the pressure around the micropile. With the previous premises and from the geotechnical parameters determined for the Andalusian terrain, we proceeded to study the stability of embankments resting on batters on the slope, using FEM Code Plaxis 2D. In the fifth chapter "Simulation of the behavior of micropiles stabilizing embankments", there were several different numerical simulations. To begin the problem was simplified simulating similar to some real in which it was known that the embankments had reached their limit situation (for which information of movements measured with inclinometers were available), from there the simulation of instability is initiated to set the value of the shear strength parameters of the ground (by a retrospective analysis or back-analysis) checking these values were similar to those deduced from the bibliographical study Then micropiles have been introduced along the roadside and its behavior was analyzed as well as the slope of embankment (once micropiles were built ), in order to establish the basis for its design. In this way and taking the different geotechnical parameters for the Andalusian terrain, three real cases (in Granada, Malaga and Ceuta) were simulated by comparing the results of these numerical simulations with the results of real field measurements (ground displacements measured with inclinometers), getting quite consistent information according to registered movements. After the first simulations it has been concluded that after installing the micropiles the most insecure area of the natural slope is the downstream. The failure surface no longer affects the road that protects micropiles. Hence it is inferred that this solution is acceptable and it has been massively applied in Andalusia. Under these conditions, one could say that it is not working properly simulating the bending moment of micropiles (on the failure surface, and that does not cut them), although beam elements are used. Therefore another simulation was performed based on the following hypotheses: − The potentially sliding mass is totally neglected, that is, which is ahead of the outer row of micropiles. − Stratigraphy field is similar to the one considered in the first simulations. − Micropiles barrier is constituted by two inclined elements (one inward and one fill out) with inclination 1 (H): 3 (V). − You can enter the stiffness of the pile cap. − The microlies lines are separated 0.556 m or 1.00 m in the same alignment. − The embedding of the micropiles in the tough substrate can be between 1.5 and 7.0 m. To "annul" the ground that is in front of the micro piles, along the slope, these elements clearly start working, efforts can be inferred shear stress and bending moment which may affect them (upper bound but pretty close to the real) solution. In this new modeling it has been considered both equivalent stiffness coefficient (θ) as the treated soil crown concentric to the micropile. According to the latter, and by comparing these values with real modeling movements on field slopes instrumented with stability problems, it was verified that there is quite a significant similarity between the obtained theoretical values and the measured field in relation to the behavior of micropiles executed in embankments along the natural slope. Finally to complete the analysis of micropiles working in bending conditions, we have studied the case of micropiles arranged vertically, working as discontinued cut-off walls including anchors, applied to a real case in the city of Granada, in the play "Hospital of Our Lady of the Health ". CYPE numeric code, based on the reaction of the ground is simulated spring stiffness Kh or "subgrade" horizontal, introduced in modeling was used as variables for analysis: a) The different measurements obtained in field; b) The thickness of quaternary ground, so that could be determined, was variable, c) The stiffness and the prestress of the anchors. d) The stiffness of the ground through relative values of Kh, collected in the study of soils in Andalusia, particularly in the area of Granada. (previously study of the Andalusia soils) This cut-off wall was implemented with 4 inclinometers (introduced in armor tubes four micropiles) in order to control the horizontal displacements of the retaining wall during the relevant excavations, in order to ensure the safety of the whole. From the developed model calculation, it was found that the value of Kh becomes less important because a large number of anchors levels, with regard to the horizontal deformation of the cut-off wall. On the other hand, the bending moments are quite sensitive to the distance between anchors, the initial voltage value thereof and the value of Kh. This model has also been reproduced reliably displacement values measured in the field and deduce parameters terrain deformability, Kh, with values around half the measured Light Rail in Granada, but visibly higher than deductible of abacuses which can obtain Kh for granular soils with low cohesion (upper Quaternary gravels and Sevilla) such as Abacus Arozamena, because, in our view, to cementing materials in Granada. In short, previous deductions you might think on optimizing the design of micropiles in the works that are expected to perform in Granada, with similar characteristics to the case of the vertical cut-off wall braced through several levels of anchors and in which materials location have a geotechnical behavior similar to those studied, with the consequent economic savings. With all this, it is considered that a significant contribution have been made for the design of future works of micropiles, bending moment and shear stress working in slope stabilization works or excavations.
Resumo:
El ensamblado de nanotubos de carbono (CNT) como una fibra macroscópica en la cual están orientados preferentemente paralelos entre sí y al eje de la fibra, ha dado como resultado un nuevo tipo de fibra de altas prestaciones derivadas de la explotación eficiente de las propiedades axiales de los CNTs, y que tiene un gran número de aplicaciones potenciales. Fibras continuas de CNTs se produjeron en el Instituto IMDEA Materiales mediante el proceso de hilado directo durante la reacción de síntesis por deposición química de vapores. Uno de los objetivos de esta tesis es el estudio de la estructura de estas fibras mediante técnicas del estado del arte de difracción de rayos X de sincrotrón y la elaboración de un modelo estructural de dicho material. Mediciones texturales de adsorción de gases, análisis de micrografías de electrones y dispersión de rayos X de ángulo alto y bajo (WAXS/SAXS) indican que el material tiene una estructura mesoporosa con una distribución de tamaño de poros ancha derivada del amplio rango de separaciones entre manojos de CNTs, así como una superficie específica de 170m2/g. Los valores de dimensión fractal obtenidos mediante SAXS y análisis Barrett-Joyner-Halenda (BJH) de mediciones texturales coinciden en 2.4 y 2.5, respectivamente, resaltando el carácter de red de la estructura de dichas fibras. La estructura mesoporosa y tipo hilo de las fibra de CNT es accesible a la infiltración de moléculas externas (líquidos o polímeros). En este trabajo se estudian los cambios en la estructura multiescala de las fibras de CNTs al interactuar con líquidos y polímeros. Los efectos de la densificación en la estructura de fibras secas de CNT son estudiados mediante WAXS/SAXS. El tratamiento de densificación junta los manojos de la fibra (los poros disminuyen de tamaño), resultando en un incremento de la densidad de la fibra. Sin embargo, los dominios estructurales correspondientes a la transferencia de esfuerzo mecánica y carga eléctrica en los nanotubos no son afectados durante este proceso de densificación; como consecuencia no se produce un efecto sustancial en las propiedades mecánicas y eléctricas. Mediciones de SAXS and fibra de CNT antes y después de infiltración de líquidos confirman la penetración de una gran cantidad de líquidos que llena los poros internos de la fibra pero no se intercalan entre capas de nanotubos adyacentes. La infiltración de cadenas poliméricas de bajo peso molecular tiende a expandir los manojos en la fibra e incrementar el ángulo de apertura de los poros. Los resultados de SAXS indican que la estructura interna de la fibra en términos de la organización de las capas de tubos y su orientación no es afectada cuando las muestras consisten en fibras infiltradas con polímeros de alto peso molecular. La cristalización de varios polímeros semicristalinos es acelerada por la presencia de fibras de CNTs alineados y produce el crecimiento de una capa transcristalina normal a la superficie de la fibra. Esto es observado directamente mediante microscopía óptica polarizada, y detectado mediante calorimetría DSC. Las lamelas en la capa transcristalina tienen orientación de la cadena polimérica paralela a la fibra y por lo tanto a los nanotubos, de acuerdo con los patrones de WAXS. Esta orientación preferencial se sugiere como parte de la fuerza impulsora en la nucleación. La nucleación del dominio cristalino polimérico en la superficie de los CNT no es epitaxial. Ocurre sin haber correspondencia entre las estructuras cristalinas del polímero y los nanotubos. Estas observaciones contribuyen a la compresión del fenómeno de nucleación en CNTs y otros nanocarbonos, y sientan las bases para el desarrollo de composites poliméricos de gran escala basados en fibra larga de CNTs alineados. ABSTRACT The assembly of carbon nanotubes into a macroscopic fibre material where they are preferentially aligned parallel to each other and to the fibre axis has resulted in a new class of high-performance fibres, which efficiently exploits the axial properties of the building blocks and has numerous applications. Long, continuous CNT fibres were produced in IMDEA Materials Institute by direct fibre spinning from a chemical vapour deposition reaction. These fibres have a complex hierarchical structure covering multiple length scales. One objective of this thesis is to reveal this structure by means of state-of-the-art techniques such as synchrotron X-ray diffraction, and to build a model to link the fibre structural elements. Texture and gas absorption measurements, using electron microscopy, wide angle and small angle X-ray scattering (WAXS/SAXS), and pore size distribution analysis by Barrett-Joyner-Halenda (BJH), indicate that the material has a mesoporous structure with a wide pore size distribution arising from the range of fibre bundle separation, and a high surface area _170m2/g. Fractal dimension values of 2.4_2.5 obtained from the SAXS and BJH measurements highlight the network structure of the fibre. Mesoporous and yarn-like structure of CNT fibres make them accessible to the infiltration of foreign molecules (liquid or polymer). This work studies multiscale structural changes when CNT fibres interact with liquids and polymers. The effects of densification on the structure of dry CNT fibres were measured by WAXS/SAXS. The densification treatment brings the fibre bundles closer (pores become smaller), leading to an increase in fibre density. However, structural domains made of the load and charge carrying nanotubes are not affected; consequently, it has no substantial effect on mechanical and electrical properties. SAXS measurements on the CNT fibres before and after liquid infiltration imply that most liquids are able to fill the internal pores but not to intercalate between nanotubes. Successful infiltration of low molecular weight polymer chains tends to expand the fibre bundles and increases the pore-opening angle. SAXS results indicate that the inner structure of the fibre, in terms of the nanotube layer arrangement and the fibre alignment, are not largely affected when infiltrated with polymers of relatively high molecular weight. The crystallisation of a variety of semicrystalline polymers is accelerated by the presence of aligned fibres of CNTs and results in the growth of a transcrystalline layer perpendicular to the fibre surface. This can be observed directly under polarised optical microscope, and detected by the exothermic peaks during differential scanning calorimetry. The discussion on the driving forces for the enhanced nucleation points out the preferential chain orientation of polymer lamella with the chain axis parallel to the fibre and thus to the nanotubes, which is confirmed by two-dimensional WAXS patterns. A non-epitaxial polymer crystal growth habit at the CNT-polymer interface is proposed, which is independent of lattice matching between the polymer and nanotubes. These findings contribute to the discussion on polymer nucleation on CNTs and other nanocarbons, and their implication for the development of large polymer composites based on long and aligned fibres of CNTs.
Resumo:
En el proceso de cálculo de redes de tuberías se maneja un conjunto de variables con unas características muy peculiares, ya que son discretas y estandarizadas. Por lo tanto su evolución se produce por escalones (la presión nominal, el diámetro y el costo de los tubos). Por otro lado la presión de diseño de la red es una función directa de la presión de cabecera. En el proceso de optimización mediante programación dinámica la presión de cabecera se va reduciendo gradualmente en cada secuencia del proceso, haciendo que evolucione a la par la presión de diseño, lo que genera a su vez saltos discriminados en la presión nominal de los tramos, y con ello en su costo y en su gradiente de cambio. En esta tesis doctoral se analiza si estos cambios discriminados que se producen en el gradiente de cambio de algunos tramos en el curso de una secuencia, ocasionados por la evolución de la presión de cabecera de la red, generan interferencias que alteran el proceso secuencial de la programación dinámica. La modificación del gradiente de cambio durante el transcurso de una secuencia se conoce con el nombre de mutación, la cual puede ser activa cuando involucra a un tramo optimo modificando las condiciones de la transacción o pasiva si no crea afección alguna. En el análisis realizado se distingue entre la mutación del gradiente de cambio de los tramos óptimos (que puede generarse exclusivamente en el conjunto de los trayectos que los albergan), y entre los efectos que el cambio de timbraje produce en el resto de los tramos de la red (incluso los situados aguas abajo de los nudos con holgura de presión nula) sobre el mecanismo iterativo, estudiando la compatibilidad de este fenómeno con el principio de óptimo de Bellman. En el proceso de investigación llevado a cabo se destaca la fortaleza que da al proceso secuencial del método Granados el hecho de que el gradiente de cambio siempre sea creciente en el avance hacia el óptimo, es decir que el costo marginal de la reducción de las pérdidas de carga de la red que se consigue en una iteración siempre sea más caro que el de la iteración precedente. Asimismo, en el estudio realizado se revisan los condicionantes impuestos al proceso de optimización, incluyendo algunos que hasta ahora no se han tenido en cuenta en los estudios de investigación, pero que están totalmente integrados en la ingeniería práctica, como es la disposición telescópica de las redes (reordenación de los diámetros de mayor a menor de cabeza a cola de la red), y la disposición de un único diámetro por tramo, en lugar de que estén compartidos por dos diámetros contiguos (con sus salvedades en caso de tramos de gran longitud, o en otras situaciones muy específicas). Finalmente se incluye un capítulo con las conclusiones, aportaciones y recomendaciones, las cuales se consideran de gran utilidad para la ingeniería práctica, entre las que se destaca la perfección del método secuencial, la escasa transcendencia de las mutaciones del gradiente de cambio y la forma en que pueden obviarse, la inocuidad de las mutaciones pasivas y el cumplimiento del principio de Bellman en todo el proceso de optimización. The sizing process of a water distribution network is based on several variables, being some of them special, as they are discrete and their values are standardized: pipe pressure rating, pipe diameter and pipe cost. On another note, the sizing process is directly related with the pressure at the network head. Given that during the optimization by means of the Granados’ Method (based on dynamic programming) the pressure at the network head is being gradually reduced, a jump from one pipe pressure rating to another may arise during the sequential process, leading to changes on the pipe cost and on the gradient change (unitary cost for reducing the head losses). This chain of changes may, in turn, affect the sequential process diverting it from an optimal policies path. This thesis analyses how the abovementioned alterations could influence the results of the dynamic programming algorithm, that is to say the compatibility with the Bellman’s Principle of Optimality, which states that the sequence has to follow a route of optimal policies, and that past decisions should not influence the remaining ones. The modification of the gradient change is known as mutation. Mutations are active when they affect the optimal link (the one which was selected to be changed during iteration) or passive when they do not alter the selection of the optimal link. The thesis analysed the potential mutations processes along the network, both on the optimal paths and also on the rest of the network, and its influence on the final results. Moreover, the investigation analysed the practical restrictions of the sizing process that are fully integrated in the applied engineering, but not always taken into account by the optimization tools. As the telescopic distribution of the diameters (i.e. larger diameters are placed at the network head) and the use of a unique diameter per link (with the exception of very large links, where two consecutive diameters may be placed). Conclusions regarding robustness of the dynamic programming algorithm are given. The sequence of the Granados Method is quite robust and it has been shown capable to auto-correct the mutations that could arise during the optimization process, and to achieve an optimal distribution even when the Bellman’s Principle of Optimality is not fully accomplished. The fact that the gradient change is always increasing during the optimization (that is to say, the marginal cost of reducing head losses is always increasing), provides robustness to the algorithm, as looping are avoided in the optimization sequence. Additionally, insight into the causes of the mutation process is provided and practical rules to avoid it are given, improving the current definition and utilization of the Granados’ Method.