769 resultados para endless rolling
Resumo:
Se evaluó la dinámica de contaminación biológica en una microcuenca con uso ganadero de la Pampa Ondulada de Argentina, mediante el coeficiente de partición bacteriano (BactKdQ) del modelo SWAT (Soil and Water Assessment Tool). Se simularon escenarios de contaminación para dos cargas ganaderas (0,5 y 1 equivalente vaca por ha), utilizando dos valores de BactKdQ: el propuesto por el SWAT (175 m3 Mg-1) y uno real medido in situ (10 m3 Mg-1). Para el escenario real se corroboró la íntima relación entre los eventos de precipitaciones - escurrimientos y la contaminación biológica de los cursos de agua. Los valores reales de BactKdQ, aún siendo bajos, incidieron de forma significativa en la dinámica de transporte de coliformes fecales. Por ende, es de interés la inclusión de parámetros como el BactKdQ medidos localmente y no de aquellos que el modelo SWAT incluye por defecto. Además, se pudo observar una importante concentración de coliformes fecales en la microcuenca, señalándola como un ambiente de alto riesgo de contaminación biológica, ya que para esta aplicación del SWAT todos los niveles guías fueron sobrepasados. Este trabajo destaca la relevancia de la utilización de modelos computacionales como soporte de decisiones productivas y ambientales.
Resumo:
The vegetation of a small fjord and its adjacent open shore was documented by subaquatic video. The distribution of individual species of macroalgae and the composition of assemblages were compared with gradients of light availability, hydrography, slope inclination, substratum, and exposition to turbulence and ice. The sublittoral fringe is usually abraded by winterly ice floes and devoid of large, perennial algae. Below this zone, the upper sublittoral is dominated by Desmarestia menziesii on steep rock faces, where water movements become irregular, or by Ascoseira mirabilis and Palmaria decipiens on weakly inclined slopes with steady rolling water movements. In the central sublittoral above 15 m, where turbulence is still active, Desmarestia anceps is outcompeting all other species on solid substratum, However, the species is not able to persist on loose material under these conditions. Instead, Himantothallus grandifolius may occur. Deeper, where turbulence usually is negligible, Desmarestia anceps also covers loose material. The change of dominance to Himantothallus grandifolius in the deep sublittoral cannot completely be explained at present. Himantothallus grandifolius also prevails in a mixed assemblage under the influence of grounding icebergs. Most of the smaller algae are opportunists with different degrees of tolerance for turbulence, but some apparently need more stable microhabitats and thus are dependent from continuing suppression of competitive large phaeophytes.
Resumo:
Hablar del lenguaje poético que se muestra en los fragmentos de Empédocles, nos ubica en un análisis poco acostumbrado de su épica cosmológico-catártica, es decir de los hexámetros atribuidos controvertidamente a los poemas filosóficos perì phúseos y katharmoí (transliterado). No entraremos aquí en las interminables disputas en torno a tales atribuciones, sino que nos limitaremos a relevar el decir de Empédocles en el nivel semántico y retórico de su textualidad, centrándonos en sus procedimientos específicamente poéticos. El lenguaje poético es el eje de este trabajo porque sus procedimientos específicos son observables y clasificables cuantitativamente, prestándose así como base de datos que permite proceder a las apreciaciones cualitativas de manera rigurosa. Se pretende resumir una investigación sobre la poética que se manifiesta en el uso de metáforas, metonimias, aliteraciones, símiles, repeticiones y otros procedimientos poéticos; partiendo fundamentalmente del modelo de referencialidad tradicional inherente al hexámetro utilizado por Empédocles. El objetivo es comprender las estrategias compositivas y perceptivas que presenta esta épica de alcances filosóficos, con las tradiciones que refuncionaliza y las perspectivas que inaugura.
Resumo:
Hablar del lenguaje poético que se muestra en los fragmentos de Empédocles, nos ubica en un análisis poco acostumbrado de su épica cosmológico-catártica, es decir de los hexámetros atribuidos controvertidamente a los poemas filosóficos perì phúseos y katharmoí (transliterado). No entraremos aquí en las interminables disputas en torno a tales atribuciones, sino que nos limitaremos a relevar el decir de Empédocles en el nivel semántico y retórico de su textualidad, centrándonos en sus procedimientos específicamente poéticos. El lenguaje poético es el eje de este trabajo porque sus procedimientos específicos son observables y clasificables cuantitativamente, prestándose así como base de datos que permite proceder a las apreciaciones cualitativas de manera rigurosa. Se pretende resumir una investigación sobre la poética que se manifiesta en el uso de metáforas, metonimias, aliteraciones, símiles, repeticiones y otros procedimientos poéticos; partiendo fundamentalmente del modelo de referencialidad tradicional inherente al hexámetro utilizado por Empédocles. El objetivo es comprender las estrategias compositivas y perceptivas que presenta esta épica de alcances filosóficos, con las tradiciones que refuncionaliza y las perspectivas que inaugura.
Resumo:
Hablar del lenguaje poético que se muestra en los fragmentos de Empédocles, nos ubica en un análisis poco acostumbrado de su épica cosmológico-catártica, es decir de los hexámetros atribuidos controvertidamente a los poemas filosóficos perì phúseos y katharmoí (transliterado). No entraremos aquí en las interminables disputas en torno a tales atribuciones, sino que nos limitaremos a relevar el decir de Empédocles en el nivel semántico y retórico de su textualidad, centrándonos en sus procedimientos específicamente poéticos. El lenguaje poético es el eje de este trabajo porque sus procedimientos específicos son observables y clasificables cuantitativamente, prestándose así como base de datos que permite proceder a las apreciaciones cualitativas de manera rigurosa. Se pretende resumir una investigación sobre la poética que se manifiesta en el uso de metáforas, metonimias, aliteraciones, símiles, repeticiones y otros procedimientos poéticos; partiendo fundamentalmente del modelo de referencialidad tradicional inherente al hexámetro utilizado por Empédocles. El objetivo es comprender las estrategias compositivas y perceptivas que presenta esta épica de alcances filosóficos, con las tradiciones que refuncionaliza y las perspectivas que inaugura.
Resumo:
Sloshing describes the movement of liquids inside partially filled tanks, generating dynamic loads on the tank structure. The resulting impact pressures are of great importance in assessing structural strength, and their correct evaluation still represents a challenge for the designer due to the high level of nonlinearities involved, with complex free surface deformations, violent impact phenomena and influence of air trapping. In the present paper, a set of two-dimensional cases, for which experimental results are available, is considered to assess the merits and shortcomings of different numerical methods for sloshing evaluation, namely two commercial RANS solvers (FLOW-3D and LS-DYNA), and two academic software (Smoothed Particle Hydrodynamics and RANS). Impact pressures at various critical locations and global moment induced by water motion in a partially filled rectangular tank, subject to a simple harmonic rolling motion, are evaluated and predictions are compared with experimental measurements. 2012 Copyright Taylor and Francis Group, LLC.
Resumo:
The aim of this contribution is to present a theoretical approach and two experimental campaigns (on wind tunnel and on the track) concerning the research work about the ballast train-induced-wind erosion (BTIWE) phenomenon. When a high speed train overpasses the critical speed, it produces a wind speed close to the track large enough to start the motion of the ballast elements, eventually leading to the rolling of the stones (Kwon and Park, 2006) and, if these stones get enough energy, they can jump and then initiate a saltation-like chain reaction, as found in the saltation processes of soil eolian erosion (Bagnold, 1941). The expelled stones can reach a height which is larger than the lowest parts of the train, striking them (and the track surroundings) producing considerable damage that should be avoided. There is not much published work about this phenomenon, in spite of the great interest that exists due to its relevant applications in increasing the maximum operative train speed. Particularly, the initiation of flight of ballast due to the pass of a high speed train has been studied by Kwon and Park (2006) by performing field and wind tunnel experiments.
Resumo:
El interés cada vez mayor por las redes de sensores inalámbricos pueden ser entendido simplemente pensando en lo que esencialmente son: un gran número de pequeños nodos sensores autoalimentados que recogen información o detectan eventos especiales y se comunican de manera inalámbrica, con el objetivo final de entregar sus datos procesados a una estación base. Los nodos sensores están densamente desplegados dentro del área de interés, se pueden desplegar al azar y tienen capacidad de cooperación. Por lo general, estos dispositivos son pequeños y de bajo costo, de modo que pueden ser producidos y desplegados en gran numero aunque sus recursos en términos de energía, memoria, velocidad de cálculo y ancho de banda están enormemente limitados. Detección, tratamiento y comunicación son tres elementos clave cuya combinación en un pequeño dispositivo permite lograr un gran número de aplicaciones. Las redes de sensores proporcionan oportunidades sin fin, pero al mismo tiempo plantean retos formidables, tales como lograr el máximo rendimiento de una energía que es escasa y por lo general un recurso no renovable. Sin embargo, los recientes avances en la integración a gran escala, integrado de hardware de computación, comunicaciones, y en general, la convergencia de la informática y las comunicaciones, están haciendo de esta tecnología emergente una realidad. Del mismo modo, los avances en la nanotecnología están empezando a hacer que todo gire entorno a las redes de pequeños sensores y actuadores distribuidos. Hay diferentes tipos de sensores tales como sensores de presión, acelerómetros, cámaras, sensores térmicos o un simple micrófono. Supervisan las condiciones presentes en diferentes lugares tales como la temperatura, humedad, el movimiento, la luminosidad, presión, composición del suelo, los niveles de ruido, la presencia o ausencia de ciertos tipos de objetos, los niveles de tensión mecánica sobre objetos adheridos y las características momentáneas tales como la velocidad , la dirección y el tamaño de un objeto, etc. Se comprobara el estado de las Redes Inalámbricas de Sensores y se revisaran los protocolos más famosos. Así mismo, se examinara la identificación por radiofrecuencia (RFID) ya que se está convirtiendo en algo actual y su presencia importante. La RFID tiene un papel crucial que desempeñar en el futuro en el mundo de los negocios y los individuos por igual. El impacto mundial que ha tenido la identificación sin cables está ejerciendo fuertes presiones en la tecnología RFID, los servicios de investigación y desarrollo, desarrollo de normas, el cumplimiento de la seguridad y la privacidad y muchos más. Su potencial económico se ha demostrado en algunos países mientras que otros están simplemente en etapas de planificación o en etapas piloto, pero aun tiene que afianzarse o desarrollarse a través de la modernización de los modelos de negocio y aplicaciones para poder tener un mayor impacto en la sociedad. Las posibles aplicaciones de redes de sensores son de interés para la mayoría de campos. La monitorización ambiental, la guerra, la educación infantil, la vigilancia, la micro-cirugía y la agricultura son solo unos pocos ejemplos de los muchísimos campos en los que tienen cabida las redes mencionadas anteriormente. Estados Unidos de América es probablemente el país que más ha investigado en esta área por lo que veremos muchas soluciones propuestas provenientes de ese país. Universidades como Berkeley, UCLA (Universidad de California, Los Ángeles) Harvard y empresas como Intel lideran dichas investigaciones. Pero no solo EE.UU. usa e investiga las redes de sensores inalámbricos. La Universidad de Southampton, por ejemplo, está desarrollando una tecnología para monitorear el comportamiento de los glaciares mediante redes de sensores que contribuyen a la investigación fundamental en glaciología y de las redes de sensores inalámbricos. Así mismo, Coalesenses GmbH (Alemania) y Zurich ETH están trabajando en diversas aplicaciones para redes de sensores inalámbricos en numerosas áreas. Una solución española será la elegida para ser examinada más a fondo por ser innovadora, adaptable y polivalente. Este estudio del sensor se ha centrado principalmente en aplicaciones de tráfico, pero no se puede olvidar la lista de más de 50 aplicaciones diferentes que ha sido publicada por la firma creadora de este sensor específico. En la actualidad hay muchas tecnologías de vigilancia de vehículos, incluidos los sensores de bucle, cámaras de video, sensores de imagen, sensores infrarrojos, radares de microondas, GPS, etc. El rendimiento es aceptable, pero no suficiente, debido a su limitada cobertura y caros costos de implementación y mantenimiento, especialmente este ultimo. Tienen defectos tales como: línea de visión, baja exactitud, dependen mucho del ambiente y del clima, no se puede realizar trabajos de mantenimiento sin interrumpir las mediciones, la noche puede condicionar muchos de ellos, tienen altos costos de instalación y mantenimiento, etc. Por consiguiente, en las aplicaciones reales de circulación, los datos recibidos son insuficientes o malos en términos de tiempo real debido al escaso número de detectores y su costo. Con el aumento de vehículos en las redes viales urbanas las tecnologías de detección de vehículos se enfrentan a nuevas exigencias. Las redes de sensores inalámbricos son actualmente una de las tecnologías más avanzadas y una revolución en la detección de información remota y en las aplicaciones de recogida. Las perspectivas de aplicación en el sistema inteligente de transporte son muy amplias. Con este fin se ha desarrollado un programa de localización de objetivos y recuento utilizando una red de sensores binarios. Esto permite que el sensor necesite mucha menos energía durante la transmisión de información y que los dispositivos sean más independientes con el fin de tener un mejor control de tráfico. La aplicación se centra en la eficacia de la colaboración de los sensores en el seguimiento más que en los protocolos de comunicación utilizados por los nodos sensores. Las operaciones de salida y retorno en las vacaciones son un buen ejemplo de por qué es necesario llevar la cuenta de los coches en las carreteras. Para ello se ha desarrollado una simulación en Matlab con el objetivo localizar objetivos y contarlos con una red de sensores binarios. Dicho programa se podría implementar en el sensor que Libelium, la empresa creadora del sensor que se examinara concienzudamente, ha desarrollado. Esto permitiría que el aparato necesitase mucha menos energía durante la transmisión de información y los dispositivos sean más independientes. Los prometedores resultados obtenidos indican que los sensores de proximidad binarios pueden formar la base de una arquitectura robusta para la vigilancia de áreas amplias y para el seguimiento de objetivos. Cuando el movimiento de dichos objetivos es suficientemente suave, no tiene cambios bruscos de trayectoria, el algoritmo ClusterTrack proporciona un rendimiento excelente en términos de identificación y seguimiento de trayectorias los objetos designados como blancos. Este algoritmo podría, por supuesto, ser utilizado para numerosas aplicaciones y se podría seguir esta línea de trabajo para futuras investigaciones. No es sorprendente que las redes de sensores de binarios de proximidad hayan atraído mucha atención últimamente ya que, a pesar de la información mínima de un sensor de proximidad binario proporciona, las redes de este tipo pueden realizar un seguimiento de todo tipo de objetivos con la precisión suficiente. Abstract The increasing interest in wireless sensor networks can be promptly understood simply by thinking about what they essentially are: a large number of small sensing self-powered nodes which gather information or detect special events and communicate in a wireless fashion, with the end goal of handing their processed data to a base station. The sensor nodes are densely deployed inside the phenomenon, they deploy random and have cooperative capabilities. Usually these devices are small and inexpensive, so that they can be produced and deployed in large numbers, and so their resources in terms of energy, memory, computational speed and bandwidth are severely constrained. Sensing, processing and communication are three key elements whose combination in one tiny device gives rise to a vast number of applications. Sensor networks provide endless opportunities, but at the same time pose formidable challenges, such as the fact that energy is a scarce and usually non-renewable resource. However, recent advances in low power Very Large Scale Integration, embedded computing, communication hardware, and in general, the convergence of computing and communications, are making this emerging technology a reality. Likewise, advances in nanotechnology and Micro Electro-Mechanical Systems are pushing toward networks of tiny distributed sensors and actuators. There are different sensors such as pressure, accelerometer, camera, thermal, and microphone. They monitor conditions at different locations, such as temperature, humidity, vehicular movement, lightning condition, pressure, soil makeup, noise levels, the presence or absence of certain kinds of objects, mechanical stress levels on attached objects, the current characteristics such as speed, direction and size of an object, etc. The state of Wireless Sensor Networks will be checked and the most famous protocols reviewed. As Radio Frequency Identification (RFID) is becoming extremely present and important nowadays, it will be examined as well. RFID has a crucial role to play in business and for individuals alike going forward. The impact of ‘wireless’ identification is exerting strong pressures in RFID technology and services research and development, standards development, security compliance and privacy, and many more. The economic value is proven in some countries while others are just on the verge of planning or in pilot stages, but the wider spread of usage has yet to take hold or unfold through the modernisation of business models and applications. Possible applications of sensor networks are of interest to the most diverse fields. Environmental monitoring, warfare, child education, surveillance, micro-surgery, and agriculture are only a few examples. Some real hardware applications in the United States of America will be checked as it is probably the country that has investigated most in this area. Universities like Berkeley, UCLA (University of California, Los Angeles) Harvard and enterprises such as Intel are leading those investigations. But not just USA has been using and investigating wireless sensor networks. University of Southampton e.g. is to develop technology to monitor glacier behaviour using sensor networks contributing to fundamental research in glaciology and wireless sensor networks. Coalesenses GmbH (Germany) and ETH Zurich are working in applying wireless sensor networks in many different areas too. A Spanish solution will be the one examined more thoroughly for being innovative, adaptable and multipurpose. This study of the sensor has been focused mainly to traffic applications but it cannot be forgotten the more than 50 different application compilation that has been published by this specific sensor’s firm. Currently there are many vehicle surveillance technologies including loop sensors, video cameras, image sensors, infrared sensors, microwave radar, GPS, etc. The performance is acceptable but not sufficient because of their limited coverage and expensive costs of implementation and maintenance, specially the last one. They have defects such as: line-ofsight, low exactness, depending on environment and weather, cannot perform no-stop work whether daytime or night, high costs for installation and maintenance, etc. Consequently, in actual traffic applications the received data is insufficient or bad in terms of real-time owed to detector quantity and cost. With the increase of vehicle in urban road networks, the vehicle detection technologies are confronted with new requirements. Wireless sensor network is the state of the art technology and a revolution in remote information sensing and collection applications. It has broad prospect of application in intelligent transportation system. An application for target tracking and counting using a network of binary sensors has been developed. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices in order to have a better traffic control. The application is focused on the efficacy of collaborative tracking rather than on the communication protocols used by the sensor nodes. Holiday crowds are a good case in which it is necessary to keep count of the cars on the roads. To this end a Matlab simulation has been produced for target tracking and counting using a network of binary sensors that e.g. could be implemented in Libelium’s solution. Libelium is the enterprise that has developed the sensor that will be deeply examined. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices. The promising results obtained indicate that binary proximity sensors can form the basis for a robust architecture for wide area surveillance and tracking. When the target paths are smooth enough ClusterTrack particle filter algorithm gives excellent performance in terms of identifying and tracking different target trajectories. This algorithm could, of course, be used for different applications and that could be done in future researches. It is not surprising that binary proximity sensor networks have attracted a lot of attention lately. Despite the minimal information a binary proximity sensor provides, networks of these sensing modalities can track all kinds of different targets classes accurate enough.
Resumo:
La durabilidad de las estructuras de hormigón armado no es ilimitada, en especial en determinados ambientes. El ingreso de agentes agresivos en el hormigón, fundamentalmente dióxido de carbono e iones cloruros, rebasando el espesor del recubrimiento y alcanzando las armaduras, reducen el alto pH del hormigón hasta alcanzar un umbral crítico, por debajo del cual, el acero queda despasivado. Posteriormente, si existe el suficiente aporte de humedad y oxígeno, el acero se corroe, lo que supone drásticas reducciones de la vida de servicio de estas estructuras y su inevitable reparación. La utilización de armaduras de acero inoxidable es una alternativa que está recibiendo cada vez más consideración. Su resistencia a la corrosión en los ambientes más agresivos, incluso con ataque de cloruros, lo convierte en el material idóneo para prolongar de forma muy considerable la vida útil de la estructura. En este trabajo se ha evaluado el comportamiento mecánico y estructural, y de resistencia a la corrosión, de un nuevo acero inoxidable dúplex de bajo contenido en níquel, el EN 1.4482 (AISI 2001), y se ha comparado con el inoxidable austenítico más utilizado, el EN 1.4301 (AISI 304), con el dúplex EN 1.4362 (AISI 2304) y con el tradicional acero al carbono B-500-SD. El estudio mecánico y estructural se ha realizado en tres niveles diferentes: a nivel de barra, estudiando las propiedades mecánicas y de ductilidad de los cuatro aceros citados; a nivel de sección, estudiando su comportamiento a flexión con diferentes cuantías de armado por medio de los diagramas momento-curvatura; y a nivel de pieza, ensayando una serie de vigas armadas con diferentes aceros y cuantías, y comprobando su comportamiento a desplazamiento y resistencia por medio de los diagramas carga-desplazamiento. El estudio de resistencia a la corrosión se ha realizado embebiendo barras corrugadas, de los tres aceros inoxidables mencionados, en probetas de mortero contaminadas con diferentes cantidades de cloruros, y realizando mediciones electroquímicas durante un periodo de al menos un año. Se han preparado probetas de mortero para dos comparativas diferentes. La primera, manteniendo las probetas en un desecador con el 95 % de humedad relativa durante todo el periodo de mediciones. La segunda, sumergiendo parcialmente las probetas en una solución tampón para carbonatar el mortero. Los resultados de los ensayos mecánicos han demostrado dos aspectos diferentes. Uno, que las armaduras de acero inoxidable tienen un comportamiento muy similar a las de acero al carbono en lo referente a las resistencias alcanzadas, en el límite elástico y en rotura, pero distinto en cuanto al módulo de deformación longitudinal, cuyo valor es claramente inferior al del acero al carbono, por lo que su utilización en las estructuras de hormigón necesita tener en cuenta ese dato en los análisis lineales de cálculo. El segundo aspecto es que las armaduras de acero inoxidable laminadas en caliente presentan una ductilidad muy superior a las de acero al carbono, por lo que ofrecen una mayor seguridad frente a su rotura o al colapso de la estructura, lo que se debe tener en cuenta en el análisis de cálculo plástico. En cambio, las armaduras de acero inoxidable laminadas en frío sólo cumplen con los límites mínimos de ductilidad establecidos en la instrucción EHE-08 para los aceros soldables, y no para los aceros con características especiales de ductilidad. El estudio a nivel de sección refleja la paradoja de obtener secciones menos dúctiles con las armaduras de acero inoxidable laminadas en caliente que con las armaduras de acero al carbono. Para subsanarlo, se definen los conceptos de curvatura última de rotura y ductilidad de la sección en rotura, que tienen en cuenta las altas deformaciones alcanzadas por las armaduras de acero inoxidable. Los resultados a nivel de pieza permiten identificar el comportamiento estructural del hormigón armado con barras corrugadas de acero inoxidable y compararlo con el de las estructuras de hormigón armado convencionales, verificando los resultados experimentales con los teóricos obtenidos con la formulación recogida en la instrucción EHE- 08. Los ensayos de resistencia a la corrosión por cloruros demuestran, durante el primer año y medio de vida de las probetas, un comportamiento muy similar entre el nuevo acero inoxidable dúplex bajo en níquel y el austenítico y el dúplex utilizados para la comparación, incluso para las probetas carbonatadas. Por último, se añade una comparativa económica, realizada sobre dos edificaciones tipo, para cuantificar el sobrecoste que supone la utilización de armaduras de acero inoxidable respecto a las de acero al carbono. El alto coste inicial de las armaduras de acero inoxidable se ve compensado en el coste final de la estructura de muy diferentes formas, principalmente dependiendo del grado de acero elegido y de si se emplean en el total de la estructura o solamente en los elementos más expuestos. The durability of the concrete structures is limited, especially in certain environments. The attack of aggressive agents in the concrete, mainly carbon dioxide and chloride ions, penetrating the thickness of concrete cover and reaching the reinforcements, reduce the high pH of concrete to the point of reaching a critical threshold, under which, the steel despasivates. Therefore, if there is enough humidity and oxygen, the steel corroes, causing drastic reductions in the service life of these structures and its inevitable repair. Despite the high initial cost compared to carbon steel, the usage of stainless steel reinforcements is an alternative with a major consideration nowadays. Its resistance to corrosion in the most aggressive atmospheres, including chlorides attack, makes the stainless steel a suitable material to extend considerably its lifetime. In this study, it’s been evaluated the mechanical and structural behaviour, and the corrosion resistance, of a new low-nickel duplex stainless steel EN 1.4482 (AISI 2001), and it has been compared with the most widely used austenitic type EN 1.4301 (AISI 304), with duplex steel EN 1.4362 (AISI 2304) and with the traditional carbon steel B-500-SD. The mechanical and structural study has been carried out in three different levels: bar level, studying mechanical properties and ductility of the four steels; section level, studying its behaviour when blending with different amounts of reinforcement through the moment-curvature diagrams; and structural element level, testing a series of reinforced beams with different steels and amounts, and checking its sag and resistance through the load-deflection diagrams. The corrosion resistance study was performed by embedding ribbed bars, using the three stainless steel listed, on mortar specimens contaminated with different amounts of chlorides, and taking electrochemical measurements over a period of at least one year. Mortar specimens have been prepared for two different comparisons. The first, keeping the specimens at 95% of relative humidity during the measurement period. The second, immersing the specimens partially in a carbonate buffer solution. The results of those tests have proved two different aspects. Firstly, that stainless steel reinforcements show a very similar behaviour to carbon steel, according to the reached levels of mechanical resistance, yield stress and steel strength, but a different behaviour in Young’s modulus, which value is clearly lower than the carbon steel. Therefore, when using in concrete structures it is need to consider on that point the existing calculus of linear analysis. The second aspect is that stainless steel reinforcement manufactured by hot-rolling process show a very higher ductility than carbon steel, offering a better security on cracks or structure collapse, which it has to be taken into account on plastic calculus analysis. However, the stainless steel reinfor9 cement cold-rolled bars only meet the minimum thresholds of ductility established by EHE-08 for welded steel, and not for steels with special ductility. The results at the section level reflect the paradox of getting less ductile sections with hot rolled stainless steel reinforcement than with carbon steel reinforcements. To overcome that, the concepts of last break curvature and break ductility section have been defined, which take into account the high deformation value achieved by stainless steel reinforcements. The results at the structural element level allow to identify the structural behaviour of reinforced concrete with stainless steel reinforcements and compared with that of conventional steel reinforcement, contrasting the experimental with the theoretical results obtained from the formulation contained in the instruction EHE-08. Tests on resistance of chloride corrosion show during the first year and a half of specimens life, a similar behaviour between the new low nickel duplex stainless steel and austenitic and duplex used for comparison, even for carbonated specimens. Finally, it has been included an economic comparison on two differents building types, to quantify the additional cost involved on the use of stainless steel reinforcement compared to that of carbon steel. The high initial cost of stainless steel reinforcements is offset in the final cost of the structure in many different ways, mainly depending on the chosen steel grade and whether the reinforcement is used in the total structure or only in risky structural elements.
Resumo:
An AZ31 rolled sheet alloy has been tested at dynamic strain rates View the MathML source at 250 °C up to various intermediate strains before failure in order to investigate the predominant deformation and restoration mechanisms. In particular, tests have been carried out in compression along the rolling direction (RD), in tension along the RD and in compression along the normal direction (ND). It has been found that dynamic recrystallization (DRX) takes place despite the limited diffusion taking place under the high strain rates investigated. The DRX mechanisms and kinetics depend on the operative deformation mechanisms and thus vary for different loading modes (tension, compression) as well as for different relative orientations between the loading axis and the c-axes of the grains. In particular, DRX is enhanced by the operation of 〈c + a〉 slip, since cross-slip and climb take place more readily than for other slip systems, and thus the formation of high angle boundaries is easier. DRX is also clearly promoted by twinning.
Resumo:
La presente tesis aborda el estudio sobre los llamados mat buildings, que surgen entre los años cincuenta y sesenta del pasado siglo. Los mat buildings, también llamados “edificios esteras” o “edificios alfombras”, nacen en gran parte como consecuencia de los desacuerdos e insatisfacciones de los CIAM con el reduccionismo funcionalista y los principios de compartimentación funcional. Estos nuevos modelos remplazan el modelo de ciudad entendido como una colección de edificios individuales por una concepción de un patrón urbano. No es la suma de la longitud, la altura y el ancho sino más bien una densa alfombra bi-dimensional, con una configuración de formas que ofrece al mismo tiempo un orden repetitivo y una infinita diversidad de secuencias con infinitas posibilidades de adaptación donde el hombre vive y se desplaza. Estas características que irán apareciendo en la obras de muchos de los arquitectos que forman parte del grupo Team X son los que Alison Smithson empieza a revelar en su artículo, con la ambición de manifestar una nueva sensibilidad y una nueva forma de entender y ver la arquitectura. Los mat buildings y los cluster serán los códigos utilizados por diferentes miembros del Team X para pensar una arquitectura y un urbanismo alternativo al propuesto por los CIAM. Mediante ellos encuentran el camino para una nueva estética de la conexión con un desplazamiento desde una concepción determinista de la forma arquitectónica (una forma cerrada y en general definida a priori) hacia una actitud más libre, más abierta, fundamentada no tanto en la entereza de la forma global sino en cuanto a la intensidad de sus redes internas y de sus diferentes niveles de asociación. La tesis tiene como propósito final cuestionar si esta tipología de edificios, cuyo principio de base es siempre una matriz geométrica abierta (trama, retícula, malla), con crecimiento ilimitado, puede redefinir la frontera entre ciudad y edificio y, por tanto, entre público y privado, individual y colectivo, estructural e infraestructural, permanente y variable. Por ello, se presenta un estudio histórico y crítico en profundidad sobre los mat buildings, analizando detenidamente y por orden cronológico cinco de sus obras más paradigmáticas: el Orfanato en Ámsterdam de Aldo Van Eyck, la Universidad Libre en Berlín de Candilis, Josic y Woods, el Hospital de Venecia de Le Corbusier y Guillermo Jullián de la Fuente, el edificio administrativo de la Centraal Beheer en Apeldoorn de Herman Hertzberger, y por último el MUSAC en León, realizado por Mansilla y Tuñon. Las cuatro primeras obras pertenecen al periodo Team X y son precursoras de muchos otros proyectos que aparecerán a posteriori. La última obra analizada, el MUSAC, es estudiada conjuntamente con algunas obras del arquitecto japonés Sou Fujimoto y otros casos contemporáneos con la intención de manifestar cómo arquitectos de horizontes muy diferentes vuelven a recurrir a estos modelos de crecimientos ilimitados. Mediante el estudio de varios ejemplos contemporáneos se examinan las repercusiones, transformaciones y evoluciones que estos modelos han tenido. La exploración contrastada permite apreciar adecuadamente la pertinencia de estos modelos y los cambios de modalidades y de procesos que advienen con la aparición en el panorama contemporáneo de la noción de campo y los cambios de paradigma que conlleva. Estos nuevos modelos abren nuevos procesos y forma de abordar la arquitectura basada en las relaciones, flujos, movimientos y asociaciones que son caracterizados por diferentes patrones que vienen a alimentar todo el proceso del proyecto arquitectónico. El estudio de estos nuevos modelos nos indica las cualidades que puede ofrecer la revisión de estos métodos para empezar a tratar nuevas cuestiones que hoy en día parecen ser, permanentemente, parte de la condición urbana. XII ABSTRACT This thesis deals with the study of the so-called mat buildings which emerged between the fifties and sixties of the last century. Mat, or carpet, buildings appeared largely as a result of the CIAM’s disagreement and dissatisfaction with functionalist reductionism and the principles of functional compartmentalisation. These new models replaced the model of the city, seen as a collection of individual buildings, with the concept of an urban pattern. It is not the sum of the length, height and width but rather a dense, two- dimensional mat with a configuration of forms offering both a repetitive order and an infinite diversity of sequences with endless possibilities for adaptation, where man lives and circulates. These characteristics, which appeared in the works of many of the architects who formed part of Team X, are those that Alison Smithson started to reveal in her article with the aim of manifesting a new sensibility and a new way of understanding and seeing architecture. Mat buildings and clusters were the codes used by different members of Team X to plan an alternative architecture and urbanism to that proposed by the CIAM. With them, they found the path for a new aesthetic of connection, with a shift from a deterministic concept of the architectural form (closed and generally defined a priori) towards a more free, more open attitude based not so much on the integrity of the overall form but on the intensity of its internal networks and different levels of association. The end purpose of this thesis is to question whether this type of building, the basic principle of which is always an open geometric matrix (grid, recticle, network) with unlimited growth, can redefine the boundary between city and building and, thus, between public and private, individual and collective, structural and infrastructural, and permanent and variable. To this end, an in-depth historical and critical study of mat buildings is presented, analysing carefully and in chronological order five of the most paradigmatic works of this style: the Orphanage in Amsterdam, by Aldo Van Eyck; the Free University of Berlin, by Candilis, Josic and Woods; Venice Hospital, by Le Corbusier and Guillermo Jullián de la Fuente; the Centraal Beheer administration building in Apeldoorn, by Herman Hertzberger; and lastly, the MUSAC (Contemporary Art Museum) in León, designed by Mansilla and Tuñon. The first four works are from the Team X period and were the precursors to many other projects that would appear later. The last work analysed, the MUSAC, is studied together with some works by Japanese architect Sou Fujimoto and other contemporary cases to show how architects with very different perspectives revert to these models of limitless growth. Through the study of several contemporary examples we examine the repercussions, transformations and evolutions these models have had. The contrasted research XIII allows us to properly appreciate the importance of these models and the changes in forms and processes that came with the emergence of the idea of field in the contemporary arena and the paradigm shifts it entailed. These new models opened up new processes and a way of approaching architecture based on relationships, flows, movements and associations characterised by different patterns that feed the entire process of the architectural project. The study of these new models shows us the benefits that a review of these methods can contribute to addressing new issues that today appear to be a permanent part of the urban condition.
Resumo:
El objetivo del trabajo es estudiar el procedimiento descrito en el proyecto IMAGINE(estimación del nivel de ruido del tráfico rodado que se registra en las carreteras europeas, a partir de la obtención del nivel de potencia sonora del ruido de propulsión y del ruido de rodadura). Para validar el modelo, se compararán los resultados teóricos del proyecto con los niveles registrados en las inmediaciones de la M-40, dentro del campus de la Escuela Universitaria de Ingeniería Técnica de Telecomunicación. Para obtener los valores reales, además de lo descrito en el proyecto IMAGINE se empleará como método de medida el descrito en la ISO 1996- Parte 2 y con el instrumental con el que cuenta la Escuela. SUMMARY. The objective of this work is to analyse the procedure described in the IMAGINE project(estimation of the road traffic noise level that can be observed in the European roads, by means of obtaining the level of audible power from both the propulsion and rolling noise), in order to validate the model. The theoretical results from the project will be compared against the levels measured in the surroundings of the M-40 in Madrid, within the campus of the Escuela Universitaria de Ingeniería Técnica de Telecomunicación. To obtain the real values, the IMAGINE project and the methodology described in the norm ISO 1996 - Part 2 will be used, with the equipment made available by the Faculty.
Resumo:
La fatiga superficial es uno de los principales problemas en las transmisiones mecánicas y es uno de los focos de atención de las investigaciones de los últimos anos en Tribología. La disminución de viscosidad de los lubricantes para la mejora de la eficiencia, el aumento de las potencias a transmitir, el aumento de la vida de los componentes o la mejora de su fiabilidad han supuesto que los fenómenos de fatiga superficial hayan cobrado especial relevancia, especialmente los fenómenos de pitting y micropitting en cajas multiplicadoras/reductoras de grandes potencias de aplicación, por ejemplo, en el sector eólico. Como todo fenómeno de fatiga, el pitting y micropitting son debidos a la aplicación de cargas ciclicas. Su aparición depende de las presiones y tensiones cortantes en el contacto entre dos superficies que al encontrarse en rodadura y deslizamiento varian con el tiempo. La principal consecuencia de la fatiga superficial es la aparición de hoyuelos de diferente magnitud segun la escala del fenómeno (pitting o micropitting) en la superficie del material. La aparición de estos hoyuelos provoca la perdida de material, induce vibraciones y sobrecargas en el elemento que finalmente acaba fallando. Debido a la influencia de la presión y tensión cortante en el contacto, la aparición de fatiga depende fuertemente del lubricante que se encuentre entre las dos superficies y de las condiciones de funcionamiento en las cuales este trabajando. Cuando el contacto trabaja en condiciones de lubricacion mixta-elastohidrodinamica tiende a aparecer micropitting debido a las altas tensiones localizadas en las proximidades de las asperezas, mientras que si el régimen es de lubricación completa el tipo de fatiga superficial suele ser pitting debido a las tensiones mas suavizadas y menos concentradas. En esta Tesis Doctoral se han analizado todos estos factores de influencia que controlan el pitting y el micropitting prestando especial atención al efecto del lubricante. Para ello, se ha dado un enfoque conjunto a ambos fenómenos resolviendo las ecuaciones involucradas en el contacto elastohidrodinamico no-Newtoniano (la ecuación de Reynolds, la deformación elástica de los sólidos y la reologia del lubricante) para conocer la presión y la tensión cortante en el contacto. Conocidas estas, se resuelve el campo de tensiones en el interior del material y, finalmente, se aplican criterios de fatiga multiaxial (Crossland, Dang Van y Liu-Mahadevan) para conocer si el material falla o no falla. Con la metodología desarrollada se ha analizado el efecto sobre las tensiones y la aparición de la fatiga superficial del coeficiente viscosidad-presion, de la compresibilidad, del espesor especifico de película y de la fricción así como de la influencia de las propiedades a fatiga del material y de las condiciones de funcionamiento (radios de contacto, velocidad, deslizamiento, carga y temperatura). Para la validación de los resultados se han utilizado resultados teóricos y experimentales de otros autores junto con normas internacionales de amplia utilización en el mundo industrial, entre otras, para el diseño y calculo de engranajes. A parte del trabajo realizado por simulación y cálculo de los diferentes modelos desarrollados, se ha realizado un importante trabajo experimental que ha servido no solo para validar la herramienta desarrollada sino que además ha permitido incorporar al estudio factores no considerados en los modelos, como los aditivos del lubricante. Se han realizado ensayos de medida del coeficiente de fricción en una maquina de ensayo puntual con la que se ha validado el cálculo del coeficiente de fricción y se ha desarrollado un proceso de mejora del coeficiente de fricción mediante texturizado superficial en contactos puntuales elastohidrodinamicos mediante fotolitografia y ataque quimico. Junto con los ensayos de medida de fricción en contacto puntual se han realizado ensayos de fricción y fatiga superficial en contacto lineal mediante una maquina de discos que ha permitido evaluar la influencia de diferentes aditivos (modificadores de fricción, antidesgaste y extrema-presion) en la aparición de fatiga superficial (pitting y micropitting) y la fricción en el contacto. Abstract Surface fatigue is one of the most important problems of mechanical transmissions and therefore has been one of the main research topics on Tribology during the last years. On the one hand, industrial demand on fuel economy has led to reduce lubricant viscosity in order to improve efficiency. On the other hand, the requirements of power and life of machine elements are continuously increasing, together with the improvements in reliability. As a consequence, surface fatigue phenomena have become critical in machinery, in particular pitting and micropitting in high power gearboxes of every kind of machines, e.g., wind turbines or cranes. In line with every fatigue phenomena, pitting and micropitting are caused by cyclic loads. Their appearance depends on the evolution of pressures and shear stresses with time, throughout the contact between surfaces under rolling and sliding conditions. The main consequence of surface fatigue is the appearance of pits on the surface. The size of the pits is related to the scale of the fatigue: pitting or micropitting. These pits cause material loss, vibrations and overloads until the final failure is reached. Due to the great influence of the pressures and shear stresses in surface fatigue, the appearance of pits depends directly on the lubricant and the operating conditions. When the contact works under mixed regime (or under elastohydrodynamic but close to mixed regime) the main fatigue failure is micropitting because of the high pressures located near the asperities. In contrast, when the contact works under elastohydrodynamic fully flooded conditions the typical fatigue failure is pitting. In this Ph.D. Thesis, the main factors with influence on pitting and micropitting phenomena are analyzed, with special attention to the effect of the lubricant. For this purpose, pitting and micropitting are studied together by solving the equations involved in the non-Newtonian elastohydrodynamic contact. Thus, pressure and shear stress distributions are found by taking into account Reynolds equation, elastic deflection of the solids and lubricant rheology. Subsequently, the stress field inside the material can be calculated and different multiaxial fatigue criteria (Crossland, Dang Van and Liu- Mahadevan) can be applied to predict whether fatigue failure is reached. The influences of the main parameters on pressure and surface fatigue have been studied, taking into account the lubricant compressibility and its viscosity-pressure coefficient, the specific film thickness, the friction coefficient and the fatigue properties of the contacting materials, together with the operating conditions (contact radius, mean velocity, sliding velocity, load and temperature). Several theoretical and experimental studies of different authors have been used to validate all the results obtained, together with international standards used worldwide in gear design industry. Moreover, an experimental stage has been carried out in order to validate the calculation methods and introduce additional influences not included previously, e.g., lubricant additives. The experimentation includes different friction tests in point contacts performed with a tribological equipment in order to validate the results given by the calculations. Furthermore, the reduction and optimization of the friction coefficient is analyzed by means of textured surfaces, obtained combining photolithography and chemical etching techniques. Besides the friction tests with point contact, friction and surface fatigue tests have also been performed with line contact in a tribological test rig. This equipment is also used to study the influence of different types of additives (friction modifiers, anti-wear and extreme-pressure additives) on surface fatigue (pitting and micropitting).
Resumo:
Abstract Transport is the foundation of any economy: it boosts economic growth, creates wealth, enhances trade, geographical accessibility and the mobility of people. Transport is also a key ingredient for a high quality of life, making places accessible and bringing people together. The future prosperity of our world will depend on the ability of all of its regions to remain fully and competitively integrated in the world economy. Efficient transport is vital in making this happen. Operations research can help in efficiently planning the design and operating transport systems. Planning and operational processes are fields that are rich in combinatorial optimization problems. These problems can be analyzed and solved through the application of mathematical models and optimization techniques, which may lead to an improvement in the performance of the transport system, as well as to a reduction in the time required for solving these problems. The latter aspect is important, because it increases the flexibility of the system: the system can adapt in a faster way to changes in the environment (i.e.: weather conditions, crew illness, failures, etc.). These disturbing changes (called disruptions) often enforce the schedule to be adapted. The direct consequences are delays and cancellations, implying many schedule adjustments and huge costs. Consequently, robust schedules and recovery plans must be developed in order to fight against disruptions. This dissertation makes contributions to two different fields: rail and air applications. Robust planning and recovery methods are presented. In the field of railway transport we develop several mathematical models which answer to RENFE’s (the major railway operator in Spain) needs: 1. We study the rolling stock assignment problem: here, we introduce some robust aspects in order to ameliorate some operations which are likely to fail. Once the rolling stock assignment is known, we propose a robust routing model which aims at identifying the train units’ sequences while minimizing the expected delays and human resources needed to perform the sequences. 2. It is widely accepted that the sequential solving approach produces solutions that are not global optima. Therefore, we develop an integrated and robust model to determine the train schedule and rolling stock assignment. We also propose an integrated model to study the rolling stock circulations. Circulations are determined by the rolling stock assignment and routing of the train units. 3. Although our aim is to develop robust plans, disruptions will be likely to occur and recovery methods will be needed. Therefore, we propose a recovery method which aims to recover the train schedule and rolling stock assignment in an integrated fashion all while considering the passenger demand. In the field of air transport we develop several mathematical models which answer to IBERIA’s (the major airline in Spain) needs: 1. We look at the airline-scheduling problem and develop an integrated approach that optimizes schedule design, fleet assignment and passenger use so as to reduce costs and create fewer incompatibilities between decisions. Robust itineraries are created to ameliorate misconnected passengers. 2. Air transport operators are continuously facing competition from other air operators and different modes of transport (e.g., High Speed Rail). Consequently, airline profitability is critically influenced by the airline’s ability to estimate passenger demands and construct profitable flight schedules. We consider multi-modal competition including airline and rail, and develop a new approach that estimates the demand associated with a given schedule; and generates airline schedules and fleet assignments using an integrated schedule design and fleet assignment optimization model that captures the impacts of schedule decisions on passenger demand.
Resumo:
Telecommunications networks have been always expanding and thanks to it, new services have appeared. The old mechanisms for carrying packets have become obsolete due to the new service requirements, which have begun working in real time. Real time traffic requires strict service guarantees. When this traffic is sent through the network, enough resources must be given in order to avoid delays and information losses. When browsing through the Internet and requesting web pages, data must be sent from a server to the user. If during the transmission there is any packet drop, the packet is sent again. For the end user, it does not matter if the webpage loads in one or two seconds more. But if the user is maintaining a conversation with a VoIP program, such as Skype, one or two seconds of delay in the conversation may be catastrophic, and none of them can understand the other. In order to provide support for this new services, the networks have to evolve. For this purpose MPLS and QoS were developed. MPLS is a packet carrying mechanism used in high performance telecommunication networks which directs and carries data using pre-established paths. Now, packets are forwarded on the basis of labels, making this process faster than routing the packets with the IP addresses. MPLS also supports Traffic Engineering (TE). This refers to the process of selecting the best paths for data traffic in order to balance the traffic load between the different links. In a network with multiple paths, routing algorithms calculate the shortest one, and most of the times all traffic is directed through it, causing overload and packet drops, without distributing the packets in the other paths that the network offers and do not have any traffic. But this is not enough in order to provide the real time traffic the guarantees it needs. In fact, those mechanisms improve the network, but they do not make changes in how the traffic is treated. That is why Quality of Service (QoS) was developed. Quality of service is the ability to provide different priority to different applications, users, or data flows, or to guarantee a certain level of performance to a data flow. Traffic is distributed into different classes and each of them is treated differently, according to its Service Level Agreement (SLA). Traffic with the highest priority will have the preference over lower classes, but this does not mean it will monopolize all the resources. In order to achieve this goal, a set policies are defined to control and alter how the traffic flows. Possibilities are endless, and it depends in how the network must be structured. By using those mechanisms it is possible to provide the necessary guarantees to the real-time traffic, distributing it between categories inside the network and offering the best service for both real time data and non real time data. Las Redes de Telecomunicaciones siempre han estado en expansión y han propiciado la aparición de nuevos servicios. Los viejos mecanismos para transportar paquetes se han quedado obsoletos debido a las exigencias de los nuevos servicios, que han comenzado a operar en tiempo real. El tráfico en tiempo real requiere de unas estrictas garantías de servicio. Cuando este tráfico se envía a través de la red, necesita disponer de suficientes recursos para evitar retrasos y pérdidas de información. Cuando se navega por la red y se solicitan páginas web, los datos viajan desde un servidor hasta el usuario. Si durante la transmisión se pierde algún paquete, éste se vuelve a mandar de nuevo. Para el usuario final, no importa si la página tarda uno o dos segundos más en cargar. Ahora bien, si el usuario está manteniendo una conversación usando algún programa de VoIP (como por ejemplo Skype) uno o dos segundos de retardo en la conversación podrían ser catastróficos, y ninguno de los interlocutores sería capaz de entender al otro. Para poder dar soporte a estos nuevos servicios, las redes deben evolucionar. Para este propósito se han concebido MPLS y QoS MPLS es un mecanismo de transporte de paquetes que se usa en redes de telecomunicaciones de alto rendimiento que dirige y transporta los datos de acuerdo a caminos preestablecidos. Ahora los paquetes se encaminan en función de unas etiquetas, lo cual hace que sea mucho más rápido que encaminar los paquetes usando las direcciones IP. MPLS también soporta Ingeniería de Tráfico (TE). Consiste en seleccionar los mejores caminos para el tráfico de datos con el objetivo de balancear la carga entre los diferentes enlaces. En una red con múltiples caminos, los algoritmos de enrutamiento actuales calculan el camino más corto, y muchas veces el tráfico se dirige sólo por éste, saturando el canal, mientras que otras rutas se quedan completamente desocupadas. Ahora bien, esto no es suficiente para ofrecer al tráfico en tiempo real las garantías que necesita. De hecho, estos mecanismos mejoran la red, pero no realizan cambios a la hora de tratar el tráfico. Por esto es por lo que se ha desarrollado el concepto de Calidad de Servicio (QoS). La calidad de servicio es la capacidad para ofrecer diferentes prioridades a las diferentes aplicaciones, usuarios o flujos de datos, y para garantizar un cierto nivel de rendimiento en un flujo de datos. El tráfico se distribuye en diferentes clases y cada una de ellas se trata de forma diferente, de acuerdo a las especificaciones que se indiquen en su Contrato de Tráfico (SLA). EL tráfico con mayor prioridad tendrá preferencia sobre el resto, pero esto no significa que acapare la totalidad de los recursos. Para poder alcanzar estos objetivos se definen una serie de políticas para controlar y alterar el comportamiento del tráfico. Las posibilidades son inmensas dependiendo de cómo se quiera estructurar la red. Usando estos mecanismos se pueden proporcionar las garantías necesarias al tráfico en tiempo real, distribuyéndolo en categorías dentro de la red y ofreciendo el mejor servicio posible tanto a los datos en tiempo real como a los que no lo son.