739 resultados para Sindicatos verticales


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Programa informático desarrollado en plataforma EXCEL (VBA) y dirigido al diseño de Separadores de dos y tres fases, verticales y horizontales. El programa de ordenador o aplicación tiene la capacidad de determinar las propiedades físicas del fluido, utilizando diferentes correlaciones sobre la base del “Black Oil Model”, con dichas propiedades el Programa predice el tipo de flujo presente. Si el tipo de flujo es “Slug Flow” el programa determinara las dimensiones del “Slug catcher” necesario. Bajo las condiciones de funcionamiento existentes el programa diseñará el separador elegido: dos o tres fases, vertical u horizontal. Por último, la aplicación informática estimará el coste del equipo. Abstract Computer program developed in EXCEL (VBA) platform and aimed for the design of Two-Phase, Three-Phase, Vertical or Horizontal Separators. The computer Program or Application has the capability to determine the fluid physical properties utilizing different correlations on the basis of the Black Oil Model, with those Properties the Program will predict the Flow Regime present. If the flow regime is Slug Flow the program will determine the necessary slug catcher dimensions. Under certain operational conditions the program will design the selected: Two-Phase or Three-Phase, Vertical or Horizontal Separator. Finally the computer Application will estimate the cost of the equipment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El empleo de los micropilotes en la ingeniería civil ha revolucionado las técnicas de estabilización de terraplenes a media ladera, ya que aunque los pilotes pueden ser la opción más económica, el uso de micropilotes permite llegar a sitios inaccesibles con menor coste de movimientos de tierras, realización de plataformas de trabajo de dimensiones reducidas, maquinaria necesaria es mucho más pequeña, liviana y versátil en su uso, incluyendo la posibilidad de situar la fabricación de morteros o lechadas a distancias de varias decenas de metros del elemento a ejecutar. Sin embargo, realizando una revisión de la documentación técnica que se tiene en el ámbito ingenieril, se comprobó que los sistemas de diseño de algunos casos (micropilotes en terraplenes a media ladera, micropilotes en pantallas verticales, micropilotes como “paraguas” en túneles, etc.) eran bastante deficientes o poco desarrollados. Premisa que permite concluir que el constructor ha ido por delante (como suele ocurrir en ingeniería geotécnica) del cálculo o de su análisis teórico. Del mismo modo se determinó que en su mayoría los micropilotes se utilizan en labores de recalce o como nueva solución de cimentación en condiciones de difícil acceso, casos en los que el diseño de los micropilotes viene definido por cargas axiales, de compresión o de tracción, consideraciones que se contemplan en reglamentaciones como la “Guía para el proyecto y la ejecución de micropilotes en obras de carretera” del Ministerio de Fomento. En los micropilotes utilizados para estabilizar terraplenes a media ladera y micropilotes actuando como muros pantalla, en los que éstos trabajan a esfuerzo cortante y flexión, no se dispone de sistemas de análisis fiables o no se introduce adecuadamente el problema de interacción terreno-micropilote. Además en muchos casos, los parámetros geotécnicos que se utilizan no tienen una base técnico-teórica adecuada por lo que los diseños pueden quedar excesivamente del lado de la seguridad, en la mayoría de los casos, o todo lo contrario. Uno de los objetivos principales de esta investigación es estudiar el comportamiento de los micropilotes que están sometidos a esfuerzos de flexión y cortante, además de otros objetivos de gran importancia que se describen en el apartado correspondiente de esta tesis. Cabe indicar que en este estudio no se ha incluido el caso de micropilotes quasi-horizontales trabajando a flexion (como los “paraguas” en túneles), por considerarse que estos tienen un comportamiento y un cálculo diferente, que está fuera del alcance de esta investigación. Se ha profundizado en el estudio del empleo de micropilotes en taludes, presentando casos reales de obras ejecutadas, datos estadísticos, problemas de diseño y ejecución, métodos de cálculo simplificados y modelación teórica en cada caso, efectuada mediante el empleo de elementos finitos con el Código Plaxis 2D. Para llevar a cabo los objetivos que se buscan con esta investigación, se ha iniciado con el desarrollo del “Estado del Arte” que ha permitido establecer tipología, aplicaciones, características y cálculo de los micropilotes que se emplean habitualmente. Seguidamente y a efectos de estudiar el problema dentro de un marco geotécnico real, se ha seleccionado una zona española de actuación, siendo ésta Andalucía, en la que se ha utilizado de manera muy importante la técnica de micropilotes sobre todo en problemas de estabilidad de terraplenes a media ladera. A partir de ahí, se ha realizado un estudio de las propiedades geotécnicas de los materiales (principalmente suelos y rocas muy blandas) que están presentes en esta zona geográfica, estudio que ha sido principalmente bibliográfico o a partir de la experiencia en la zona del Director de esta tesis. Del análisis realizado se han establecido ordenes de magnitud de los parámetros geotécnicos, principalmente la cohesión y el ángulo de rozamiento interno (además del módulo de deformación aparente o de un módulo de reacción lateral equivalente) para los diversos terrenos andaluces. Con el objeto de conocer el efecto de la ejecución de un micropilote en el terreno (volumen medio real del micropilote, una vez ejecutado; efecto de la presión aplicada en las propiedades del suelo circundante, etc.) se ha realizado una encuesta entre diversas empresas españolas especializadas en la técnica de los micropilotes, a efectos de controlar los volúmenes de inyección y las presiones aplicadas, en función de la deformabilidad del terreno circundante a dichos micropilotes, con lo que se ha logrado definir una rigidez a flexión equivalente de los mismos y la definición y características de una corona de terreno “mejorado” lograda mediante la introducción de la lechada y el efecto de la presión alrededor del micropilote. Con las premisas anteriores y a partir de los parámetros geotécnicos determinados para los terrenos andaluces, se ha procedido a estudiar la estabilidad de terraplenes apoyados sobre taludes a media ladera, mediante el uso de elementos finitos con el Código Plaxis 2D. En el capítulo 5. “Simulación del comportamiento de micropilotes estabilizando terraplenes”, se han desarrollado diversas simulaciones. Para empezar se simplificó el problema simulando casos similares a algunos reales en los que se conocía que los terraplenes habían llegado hasta su situación límite (de los que se disponía información de movimientos medidos con inclinómetros), a partir de ahí se inició la simulación de la inestabilidad para establecer el valor de los parámetros de resistencia al corte del terreno (mediante un análisis retrospectivo – back-análisis) comprobando a su vez que estos valores eran similares a los deducidos del estudio bibliográfico. Seguidamente se han introducido los micropilotes en el borde de la carretera y se ha analizado el comportamiento de éstos y del talud del terraplén (una vez construidos los micropilotes), con el objeto de establecer las bases para su diseño. De este modo y adoptando los distintos parámetros geotécnicos establecidos para los terrenos andaluces, se simularon tres casos reales (en Granada, Málaga y Ceuta), comparando los resultados de dichas simulaciones numéricas con los resultados de medidas reales de campo (desplazamientos del terreno, medidos con inclinómetros), obteniéndose una reproducción bastante acorde a los movimientos registrados. Con las primeras simulaciones se concluye que al instalar los micropilotes la zona más insegura de la ladera es la de aguas abajo. La superficie de rotura ya no afecta a la calzada que protegen los micropilotes. De ahí que se deduzca que esta solución sea válida y se haya aplicado masivamente en Andalucía. En esas condiciones, podría decirse que no se está simulando adecuadamente el trabajo de flexión de los micropilotes (en la superficie de rotura, ya que no les corta), aunque se utilicen elementos viga. Por esta razón se ha realizado otra simulación, basada en las siguientes hipótesis: − Se desprecia totalmente la masa potencialmente deslizante, es decir, la que está por delante de la fila exterior de micros. − La estratigrafía del terreno es similar a la considerada en las primeras simulaciones. − La barrera de micropilotes está constituida por dos elementos inclinados (uno hacia dentro del terraplén y otro hacia fuera), con inclinación 1(H):3(V). − Se puede introducir la rigidez del encepado. − Los micros están separados 0,556 m ó 1,00 m dentro de la misma alineación. − El empotramiento de los micropilotes en el sustrato resistente puede ser entre 1,5 y 7,0 m. Al “anular” el terreno que está por delante de los micropilotes, a lo largo del talud, estos elementos empiezan claramente a trabajar, pudiendo deducirse los esfuerzos de cortante y de flexión que puedan actuar sobre ellos (cota superior pero prácticamente muy cerca de la solución real). En esta nueva modelación se ha considerado tanto la rigidez equivalente (coeficiente ϴ) como la corona de terreno tratado concéntrico al micropilote. De acuerdo a esto último, y gracias a la comparación de estas modelaciones con valores reales de movimientos en laderas instrumentadas con problemas de estabilidad, se ha verificado que existe una similitud bastante importante entre los valores teóricos obtenidos y los medidos en campo, en relación al comportamiento de los micropilotes ejecutados en terraplenes a media ladera. Finalmente para completar el análisis de los micropilotes trabajando a flexión, se ha estudiado el caso de micropilotes dispuestos verticalmente, trabajando como pantallas discontinuas provistas de anclajes, aplicado a un caso real en la ciudad de Granada, en la obra “Hospital de Nuestra Señora de la Salud”. Para su análisis se utilizó el código numérico CYPE, basado en que la reacción del terreno se simula con muelles de rigidez Kh o “módulo de balasto” horizontal, introduciendo en la modelación como variables: a) Las diferentes medidas obtenidas en campo; b) El espesor de terreno cuaternario, que por lo que se pudo determinar, era variable, c) La rigidez y tensión inicial de los anclajes. d) La rigidez del terreno a través de valores relativos de Kh, recopilados en el estudio de los suelos de Andalucía, concretamente en la zona de Granada. Dicha pantalla se instrumentó con 4 inclinómetros (introducidos en los tubos de armadura de cuatro micropilotes), a efectos de controlar los desplazamientos horizontales del muro de contención durante las excavaciones pertinentes, a efectos de comprobar la seguridad del conjunto. A partir del modelo de cálculo desarrollado, se ha comprobado que el valor de Kh pierde importancia debido al gran número de niveles de anclajes, en lo concerniente a las deformaciones horizontales de la pantalla. Por otro lado, los momentos flectores son bastante sensibles a la distancia entre anclajes, al valor de la tensión inicial de los mismos y al valor de Kh. Dicho modelo también ha permitido reproducir de manera fiable los valores de desplazamientos medidos en campo y deducir los parámetros de deformabilidad del terreno, Kh, con valores del orden de la mitad de los medidos en el Metro Ligero de Granada, pero visiblemente superiores a los deducibles de ábacos que permiten obtener Kh para suelos granulares con poca cohesión (gravas y cuaternario superior de Sevilla) como es el caso del ábaco de Arozamena, debido, a nuestro juicio, a la cementación de los materiales presentes en Granada. En definitiva, de las anteriores deducciones se podría pensar en la optimización del diseño de los micropilotes en las obras que se prevean ejecutar en Granada, con similares características al caso de la pantalla vertical arriostrada mediante varios niveles de anclajes y en las que los materiales de emplazamiento tengan un comportamiento geotécnico similar a los estudiados, con el consiguiente ahorro económico. Con todo ello, se considera que se ha hecho una importante aportación para el diseño de futuras obras de micropilotes, trabajando a flexión y cortante, en obras de estabilización de laderas o de excavaciones. Using micropiles in civil engineering has transformed the techniques of stabilization of embankments on the natural or artificial slopes, because although the piles may be the cheapest option, the use of micropiles can reach inaccessible places with lower cost of earthworks, carrying out small work platforms. Machinery used is smaller, lightweight and versatile, including the possibility of manufacturing mortars or cement grouts over distances of several tens of meters of the element to build. However, making a review of the technical documentation available in the engineering field, it was found that systems designed in some cases (micropiles in embankments on the natural slopes, micropiles in vertical cut-off walls, micropiles like "umbrella" in tunnels, etc.) were quite poor or underdeveloped. Premise that concludes the builder has gone ahead (as usually happen in geotechnical engineering) of calculation or theoretical analysis. In the same way it was determined that most of the micropiles are used in underpinning works or as a new foundation solution in conditions of difficult access, in which case the design of micropiles is defined by axial, compressive or tensile loads, considered in regulations as the " Handbook for the design and execution of micropiles in road construction" of the Ministry of Development. The micropiles used to stabilize embankments on the slopes and micropiles act as retaining walls, where they work under shear stress and bending moment, there are not neither reliable systems analysis nor the problem of soil-micropile interaction are properly introduced. Moreover, in many cases, the geotechnical parameters used do not have a proper technical and theoretical basis for what designs may be excessively safe, or the opposite, in most cases. One of the main objectives of this research is to study the behavior of micro piles which are subjected to bending moment and shear stress, as well as other important objectives described in the pertinent section of this thesis. It should be noted that this study has not included the case of quasi-horizontal micropiles working bending moment (as the "umbrella" in tunnels), because it is considered they have a different behavior and calculation, which is outside the scope of this research. It has gone in depth in the study of using micropiles on slopes, presenting real cases of works made, statistics, problems of design and implementation, simplified calculation methods and theoretical modeling in each case, carried out by using FEM (Finite Element Method) Code Plaxis 2D. To accomplish the objectives of this research, It has been started with the development of the "state of the art" which stipulate types, applications, characteristics and calculation of micropiles that are commonly used. In order to study the problem in a real geotechnical field, it has been selected a Spanish zone of action, this being Andalusia, in which it has been used in a very important way, the technique of micropiles especially in embankments stability on natural slopes. From there, it has made a study of the geotechnical properties of the materials (mainly very soft soils and rocks) that are found in this geographical area, which has been mainly a bibliographic study or from the experience in the area of the Director of this thesis. It has been set orders of magnitude of the geotechnical parameters from analyzing made, especially the cohesion and angle of internal friction (also apparent deformation module or a side reaction module equivalent) for various typical Andalusian ground. In order to determine the effect of the implementation of a micropile on the ground (real average volume of micropile once carried out, effect of the pressure applied on the properties of the surrounding soil, etc.) it has conducted a survey among various skilled companies in the technique of micropiles, in order to control injection volumes and pressures applied, depending on the deformability of surrounding terrain such micropiles, whereby it has been possible to define a bending stiffness and the definition and characteristics of a crown land "improved" achieved by introducing the slurry and the effect of the pressure around the micropile. With the previous premises and from the geotechnical parameters determined for the Andalusian terrain, we proceeded to study the stability of embankments resting on batters on the slope, using FEM Code Plaxis 2D. In the fifth chapter "Simulation of the behavior of micropiles stabilizing embankments", there were several different numerical simulations. To begin the problem was simplified simulating similar to some real in which it was known that the embankments had reached their limit situation (for which information of movements measured with inclinometers were available), from there the simulation of instability is initiated to set the value of the shear strength parameters of the ground (by a retrospective analysis or back-analysis) checking these values were similar to those deduced from the bibliographical study Then micropiles have been introduced along the roadside and its behavior was analyzed as well as the slope of embankment (once micropiles were built ), in order to establish the basis for its design. In this way and taking the different geotechnical parameters for the Andalusian terrain, three real cases (in Granada, Malaga and Ceuta) were simulated by comparing the results of these numerical simulations with the results of real field measurements (ground displacements measured with inclinometers), getting quite consistent information according to registered movements. After the first simulations it has been concluded that after installing the micropiles the most insecure area of the natural slope is the downstream. The failure surface no longer affects the road that protects micropiles. Hence it is inferred that this solution is acceptable and it has been massively applied in Andalusia. Under these conditions, one could say that it is not working properly simulating the bending moment of micropiles (on the failure surface, and that does not cut them), although beam elements are used. Therefore another simulation was performed based on the following hypotheses: − The potentially sliding mass is totally neglected, that is, which is ahead of the outer row of micropiles. − Stratigraphy field is similar to the one considered in the first simulations. − Micropiles barrier is constituted by two inclined elements (one inward and one fill out) with inclination 1 (H): 3 (V). − You can enter the stiffness of the pile cap. − The microlies lines are separated 0.556 m or 1.00 m in the same alignment. − The embedding of the micropiles in the tough substrate can be between 1.5 and 7.0 m. To "annul" the ground that is in front of the micro piles, along the slope, these elements clearly start working, efforts can be inferred shear stress and bending moment which may affect them (upper bound but pretty close to the real) solution. In this new modeling it has been considered both equivalent stiffness coefficient (θ) as the treated soil crown concentric to the micropile. According to the latter, and by comparing these values with real modeling movements on field slopes instrumented with stability problems, it was verified that there is quite a significant similarity between the obtained theoretical values and the measured field in relation to the behavior of micropiles executed in embankments along the natural slope. Finally to complete the analysis of micropiles working in bending conditions, we have studied the case of micropiles arranged vertically, working as discontinued cut-off walls including anchors, applied to a real case in the city of Granada, in the play "Hospital of Our Lady of the Health ". CYPE numeric code, based on the reaction of the ground is simulated spring stiffness Kh or "subgrade" horizontal, introduced in modeling was used as variables for analysis: a) The different measurements obtained in field; b) The thickness of quaternary ground, so that could be determined, was variable, c) The stiffness and the prestress of the anchors. d) The stiffness of the ground through relative values of Kh, collected in the study of soils in Andalusia, particularly in the area of Granada. (previously study of the Andalusia soils) This cut-off wall was implemented with 4 inclinometers (introduced in armor tubes four micropiles) in order to control the horizontal displacements of the retaining wall during the relevant excavations, in order to ensure the safety of the whole. From the developed model calculation, it was found that the value of Kh becomes less important because a large number of anchors levels, with regard to the horizontal deformation of the cut-off wall. On the other hand, the bending moments are quite sensitive to the distance between anchors, the initial voltage value thereof and the value of Kh. This model has also been reproduced reliably displacement values measured in the field and deduce parameters terrain deformability, Kh, with values around half the measured Light Rail in Granada, but visibly higher than deductible of abacuses which can obtain Kh for granular soils with low cohesion (upper Quaternary gravels and Sevilla) such as Abacus Arozamena, because, in our view, to cementing materials in Granada. In short, previous deductions you might think on optimizing the design of micropiles in the works that are expected to perform in Granada, with similar characteristics to the case of the vertical cut-off wall braced through several levels of anchors and in which materials location have a geotechnical behavior similar to those studied, with the consequent economic savings. With all this, it is considered that a significant contribution have been made for the design of future works of micropiles, bending moment and shear stress working in slope stabilization works or excavations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El programa Europeo HORIZON2020 en Futuras Ciudades Inteligentes establece como objetivo que el 20% de la energía eléctrica sea generada a partir de fuentes renovables. Este objetivo implica la necesidad de potenciar la generación de energía eólica en todos los ámbitos. La energía eólica reduce drásticamente las emisiones de gases de efecto invernadero y evita los riesgos geo-políticos asociados al suministro e infraestructuras energéticas, así como la dependencia energética de otras regiones. Además, la generación de energía distribuida (generación en el punto de consumo) presenta significativas ventajas en términos de elevada eficiencia energética y estimulación de la economía. El sector de la edificación representa el 40% del consumo energético total de la Unión Europea. La reducción del consumo energético en este área es, por tanto, una prioridad de acuerdo con los objetivos "20-20-20" en eficiencia energética. La Directiva 2010/31/EU del Parlamento Europeo y del Consejo de 19 de mayo de 2010 sobre el comportamiento energético de edificaciones contempla la instalación de sistemas de suministro energético a partir de fuentes renovables en las edificaciones de nuevo diseño. Actualmente existe una escasez de conocimiento científico y tecnológico acerca de la geometría óptima de las edificaciones para la explotación de la energía eólica en entornos urbanos. El campo tecnológico de estudio de la presente Tesis Doctoral es la generación de energía eólica en entornos urbanos. Específicamente, la optimization de la geometría de las cubiertas de edificaciones desde el punto de vista de la explotación del recurso energético eólico. Debido a que el flujo del viento alrededor de las edificaciones es exhaustivamente investigado en esta Tesis empleando herramientas de simulación numérica, la mecánica de fluidos computacional (CFD en inglés) y la aerodinámica de edificaciones son los campos científicos de estudio. El objetivo central de esta Tesis Doctoral es obtener una geometría de altas prestaciones (u óptima) para la explotación de la energía eólica en cubiertas de edificaciones de gran altura. Este objetivo es alcanzado mediante un análisis exhaustivo de la influencia de la forma de la cubierta del edificio en el flujo del viento desde el punto de vista de la explotación energética del recurso eólico empleando herramientas de simulación numérica (CFD). Adicionalmente, la geometría de la edificación convencional (edificio prismático) es estudiada, y el posicionamiento adecuado para los diferentes tipos de aerogeneradores es propuesto. La compatibilidad entre el aprovechamiento de las energías solar fotovoltaica y eólica también es analizado en este tipo de edificaciones. La investigación prosigue con la optimización de la geometría de la cubierta. La metodología con la que se obtiene la geometría óptima consta de las siguientes etapas: - Verificación de los resultados de las geometrías previamente estudiadas en la literatura. Las geometrías básicas que se someten a examen son: cubierta plana, a dos aguas, inclinada, abovedada y esférica. - Análisis de la influencia de la forma de las aristas de la cubierta sobre el flujo del viento. Esta tarea se lleva a cabo mediante la comparación de los resultados obtenidos para la arista convencional (esquina sencilla) con un parapeto, un voladizo y una esquina curva. - Análisis del acoplamiento entre la cubierta y los cerramientos verticales (paredes) mediante la comparación entre diferentes variaciones de una cubierta esférica en una edificación de gran altura: cubierta esférica estudiada en la literatura, cubierta esférica integrada geométricamente con las paredes (planta cuadrada en el suelo) y una cubierta esférica acoplada a una pared cilindrica. El comportamiento del flujo sobre la cubierta es estudiado también considerando la posibilidad de la variación en la dirección del viento incidente. - Análisis del efecto de las proporciones geométricas del edificio sobre el flujo en la cubierta. - Análisis del efecto de la presencia de edificaciones circundantes sobre el flujo del viento en la cubierta del edificio objetivo. Las contribuciones de la presente Tesis Doctoral pueden resumirse en: - Se demuestra que los modelos de turbulencia RANS obtienen mejores resultados para la simulación del viento alrededor de edificaciones empleando los coeficientes propuestos por Crespo y los propuestos por Bechmann y Sórensen que empleando los coeficientes estándar. - Se demuestra que la estimación de la energía cinética turbulenta del flujo empleando modelos de turbulencia RANS puede ser validada manteniendo el enfoque en la cubierta de la edificación. - Se presenta una nueva modificación del modelo de turbulencia Durbin k — e que reproduce mejor la distancia de recirculación del flujo de acuerdo con los resultados experimentales. - Se demuestra una relación lineal entre la distancia de recirculación en una cubierta plana y el factor constante involucrado en el cálculo de la escala de tiempo de la velocidad turbulenta. Este resultado puede ser empleado por la comunidad científica para la mejora del modelado de la turbulencia en diversas herramientas computacionales (OpenFOAM, Fluent, CFX, etc.). - La compatibilidad entre las energías solar fotovoltaica y eólica en cubiertas de edificaciones es analizada. Se demuestra que la presencia de los módulos solares provoca un descenso en la intensidad de turbulencia. - Se demuestran conflictos en el cambio de escala entre simulaciones de edificaciones a escala real y simulaciones de modelos a escala reducida (túnel de viento). Se demuestra que para respetar las limitaciones de similitud (número de Reynolds) son necesarias mediciones en edificaciones a escala real o experimentos en túneles de viento empleando agua como fluido, especialmente cuando se trata con geometrías complejas, como es el caso de los módulos solares. - Se determina el posicionamiento más adecuado para los diferentes tipos de aerogeneradores tomando en consideración la velocidad e intensidad de turbulencia del flujo. El posicionamiento de aerogeneradores es investigado en las geometrías de cubierta más habituales (plana, a dos aguas, inclinada, abovedada y esférica). - Las formas de aristas más habituales (esquina, parapeto, voladizo y curva) son analizadas, así como su efecto sobre el flujo del viento en la cubierta de un edificio de gran altura desde el punto de vista del aprovechamiento eólico. - Se propone una geometría óptima (o de altas prestaciones) para el aprovechamiento de la energía eólica urbana. Esta optimización incluye: verificación de las geometrías estudiadas en el estado del arte, análisis de la influencia de las aristas de la cubierta en el flujo del viento, estudio del acoplamiento entre la cubierta y las paredes, análisis de sensibilidad del grosor de la cubierta, exploración de la influencia de las proporciones geométricas de la cubierta y el edificio, e investigación del efecto de las edificaciones circundantes (considerando diferentes alturas de los alrededores) sobre el flujo del viento en la cubierta del edificio objetivo. Las investigaciones comprenden el análisis de la velocidad, la energía cinética turbulenta y la intensidad de turbulencia en todos los casos. ABSTRACT The HORIZON2020 European program in Future Smart Cities aims to have 20% of electricity produced by renewable sources. This goal implies the necessity to enhance the wind energy generation, both with large and small wind turbines. Wind energy drastically reduces carbon emissions and avoids geo-political risks associated with supply and infrastructure constraints, as well as energy dependence from other regions. Additionally, distributed energy generation (generation at the consumption site) offers significant benefits in terms of high energy efficiency and stimulation of the economy. The buildings sector represents 40% of the European Union total energy consumption. Reducing energy consumption in this area is therefore a priority under the "20-20-20" objectives on energy efficiency. The Directive 2010/31/EU of the European Parliament and of the Council of 19 May 2010 on the energy performance of buildings aims to consider the installation of renewable energy supply systems in new designed buildings. Nowadays, there is a lack of knowledge about the optimum building shape for urban wind energy exploitation. The technological field of study of the present Thesis is the wind energy generation in urban environments. Specifically, the improvement of the building-roof shape with a focus on the wind energy resource exploitation. Since the wind flow around buildings is exhaustively investigated in this Thesis using numerical simulation tools, both computational fluid dynamics (CFD) and building aerodynamics are the scientific fields of study. The main objective of this Thesis is to obtain an improved (or optimum) shape of a high-rise building for the wind energy exploitation on the roof. To achieve this objective, an analysis of the influence of the building shape on the behaviour of the wind flow on the roof from the point of view of the wind energy exploitation is carried out using numerical simulation tools (CFD). Additionally, the conventional building shape (prismatic) is analysed, and the adequate positions for different kinds of wind turbines are proposed. The compatibility of both photovoltaic-solar and wind energies is also analysed for this kind of buildings. The investigation continues with the buildingroof optimization. The methodology for obtaining the optimum high-rise building roof shape involves the following stages: - Verification of the results of previous building-roof shapes studied in the literature. The basic shapes that are compared are: flat, pitched, shed, vaulted and spheric. - Analysis of the influence of the roof-edge shape on the wind flow. This task is carried out by comparing the results obtained for the conventional edge shape (simple corner) with a railing, a cantilever and a curved edge. - Analysis of the roof-wall coupling by testing different variations of a spherical roof on a high-rise building: spherical roof studied in the litera ture, spherical roof geometrically integrated with the walls (squared-plant) and spherical roof with a cylindrical wall. The flow behaviour on the roof according to the variation of the incident wind direction is commented. - Analysis of the effect of the building aspect ratio on the flow. - Analysis of the surrounding buildings effect on the wind flow on the target building roof. The contributions of the present Thesis can be summarized as follows: - It is demonstrated that RANS turbulence models obtain better results for the wind flow around buildings using the coefficients proposed by Crespo and those proposed by Bechmann and S0rensen than by using the standard ones. - It is demonstrated that RANS turbulence models can be validated for turbulent kinetic energy focusing on building roofs. - A new modification of the Durbin k — e turbulence model is proposed in order to obtain a better agreement of the recirculation distance between CFD simulations and experimental results. - A linear relationship between the recirculation distance on a flat roof and the constant factor involved in the calculation of the turbulence velocity time scale is demonstrated. This discovery can be used by the research community in order to improve the turbulence modeling in different solvers (OpenFOAM, Fluent, CFX, etc.). - The compatibility of both photovoltaic-solar and wind energies on building roofs is demonstrated. A decrease of turbulence intensity due to the presence of the solar panels is demonstrated. - Scaling issues are demonstrated between full-scale buildings and windtunnel reduced-scale models. The necessity of respecting the similitude constraints is demonstrated. Either full-scale measurements or wind-tunnel experiments using water as a medium are needed in order to accurately reproduce the wind flow around buildings, specially when dealing with complex shapes (as solar panels, etc.). - The most adequate position (most adequate roof region) for the different kinds of wind turbines is highlighted attending to both velocity and turbulence intensity. The wind turbine positioning was investigated for the most habitual kind of building-roof shapes (flat, pitched, shed, vaulted and spherical). - The most habitual roof-edge shapes (simple edge, railing, cantilever and curved) were investigated, and their effect on the wind flow on a highrise building roof were analysed from the point of view of the wind energy exploitation. - An optimum building-roof shape is proposed for the urban wind energy exploitation. Such optimization includes: state-of-the-art roof shapes test, analysis of the influence of the roof-edge shape on the wind flow, study of the roof-wall coupling, sensitivity analysis of the roof width, exploration of the aspect ratio of the building-roof shape and investigation of the effect of the neighbouring buildings (considering different surrounding heights) on the wind now on the target building roof. The investigations comprise analysis of velocity, turbulent kinetic energy and turbulence intensity for all the cases.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El rebase se define como el transporte de una cantidad importante de agua sobre la coronación de una estructura. Por tanto, es el fenómeno que, en general, determina la cota de coronación del dique dependiendo de la cantidad aceptable del mismo, a la vista de condicionantes funcionales y estructurales del dique. En general, la cantidad de rebase que puede tolerar un dique de abrigo desde el punto de vista de su integridad estructural es muy superior a la cantidad permisible desde el punto de vista de su funcionalidad. Por otro lado, el diseño de un dique con una probabilidad de rebase demasiado baja o nula conduciría a diseños incompatibles con consideraciones de otro tipo, como son las estéticas o las económicas. Existen distintas formas de estudiar el rebase producido por el oleaje sobre los espaldones de las obras marítimas. Las más habituales son los ensayos en modelo físico y las formulaciones empíricas o semi-empíricas. Las menos habituales son la instrumentación en prototipo, las redes neuronales y los modelos numéricos. Los ensayos en modelo físico son la herramienta más precisa y fiable para el estudio específico de cada caso, debido a la complejidad del proceso de rebase, con multitud de fenómenos físicos y parámetros involucrados. Los modelos físicos permiten conocer el comportamiento hidráulico y estructural del dique, identificando posibles fallos en el proyecto antes de su ejecución, evaluando diversas alternativas y todo esto con el consiguiente ahorro en costes de construcción mediante la aportación de mejoras al diseño inicial de la estructura. Sin embargo, presentan algunos inconvenientes derivados de los márgenes de error asociados a los ”efectos de escala y de modelo”. Las formulaciones empíricas o semi-empíricas presentan el inconveniente de que su uso está limitado por la aplicabilidad de las fórmulas, ya que éstas sólo son válidas para una casuística de condiciones ambientales y tipologías estructurales limitadas al rango de lo reproducido en los ensayos. El objetivo de la presente Tesis Doctoral es el contrate de las formulaciones desarrolladas por diferentes autores en materia de rebase en distintas tipologías de diques de abrigo. Para ello, se ha realizado en primer lugar la recopilación y el análisis de las formulaciones existentes para estimar la tasa de rebase sobre diques en talud y verticales. Posteriormente, se llevó a cabo el contraste de dichas formulaciones con los resultados obtenidos en una serie de ensayos realizados en el Centro de Estudios de Puertos y Costas. Para finalizar, se aplicó a los ensayos de diques en talud seleccionados la herramienta neuronal NN-OVERTOPPING2, desarrollada en el proyecto europeo de rebases CLASH (“Crest Level Assessment of Coastal Structures by Full Scale Monitoring, Neural Network Prediction and Hazard Analysis on Permissible Wave Overtopping”), contrastando de este modo la tasa de rebase obtenida en los ensayos con este otro método basado en la teoría de las redes neuronales. Posteriormente, se analizó la influencia del viento en el rebase. Para ello se han realizado una serie de ensayos en modelo físico a escala reducida, generando oleaje con y sin viento, sobre la sección vertical del Dique de Levante de Málaga. Finalmente, se presenta el análisis crítico del contraste de cada una de las formulaciones aplicadas a los ensayos seleccionados, que conduce a las conclusiones obtenidas en la presente Tesis Doctoral. Overtopping is defined as the volume of water surpassing the crest of a breakwater and reaching the sheltered area. This phenomenon determines the breakwater’s crest level, depending on the volume of water admissible at the rear because of the sheltered area’s functional and structural conditioning factors. The ways to assess overtopping processes range from those deemed to be most traditional, such as semi-empirical or empirical type equations and physical, reduced scale model tests, to others less usual such as the instrumentation of actual breakwaters (prototypes), artificial neural networks and numerical models. Determining overtopping in reduced scale physical model tests is simple but the values obtained are affected to a greater or lesser degree by the effects of a scale model-prototype such that it can only be considered as an approximation to what actually happens. Nevertheless, physical models are considered to be highly useful for estimating damage that may occur in the area sheltered by the breakwater. Therefore, although physical models present certain problems fundamentally deriving from scale effects, they are still the most accurate, reliable tool for the specific study of each case, especially when large sized models are adopted and wind is generated Empirical expressions obtained from laboratory tests have been developed for calculating the overtopping rate and, therefore, the formulas obtained obviously depend not only on environmental conditions – wave height, wave period and water level – but also on the model’s characteristics and are only applicable in a range of validity of the tests performed in each case. The purpose of this Thesis is to make a comparative analysis of methods for calculating overtopping rates developed by different authors for harbour breakwater overtopping. First, existing equations were compiled and analysed in order to estimate the overtopping rate on sloping and vertical breakwaters. These equations were then compared with the results obtained in a number of tests performed in the Centre for Port and Coastal Studies of the CEDEX. In addition, a neural network model developed in the European CLASH Project (“Crest Level Assessment of Coastal Structures by Full Scale Monitoring, Neural Network Prediction and Hazard Analysis on Permissible Wave Overtopping“) was also tested. Finally, the wind effects on overtopping are evaluated using tests performed with and without wind in the physical model of the Levante Breakwater (Málaga).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los diques de abrigo verticales son estructuras monolíticas que sirven para reflejar el oleaje creando, de este modo, una zona abrigada en el lado tierra. Son estructuras de contención de gravedad, es decir, su peso es el elemento resistente fundamental. Las solicitaciones sobre estas estructuras son de tipo dinámico (oleaje) y consisten, fundamentalmente, en un empuje frontal y una subpresión en la base que varían en el tiempo. Habitualmente, las acciones sobre los diques de abrigo se establecen mediante fórmulas empíricas, que se describen en la presente tesis si bien, para obras de especial importancia, suelen medirse en modelos reducidos de laboratorio. Cuando el cimiento en que han de apoyarse estas estructuras no presenta una resistencia al corte suficiente, el apoyo se realiza en banquetas que redistribuyen la carga y que están formadas por materiales granulares. En la práctica habitual para conocer la estabilidad de estas estructuras frente a un temporal, tras establecer las acciones de cálculo (empuje frontal y subpresión) se efectúa un cálculo pseudoestático en el que se consideran condiciones drenadas o no drenadas del cimiento en función de su permeabilidad. Se conoce que en los suelos saturados, bajo cargas cíclicas, tiende a producirse una elevación de las presiones intersticiales y una reducción de tensiones efectivas así como una degradación del módulo de deformación tangencial en función del número de ciclos de carga, pudiéndose producir el fenómeno conocido como licuefacción (arenas) o movilidad cíclica (suelos más finos). El objeto de la tesis es explorar la posibilidad, con la tecnología actual, de analizar la estabilidad de los diques de abrigo verticales en cuyo cimiento existen suelos blandos, proponiendo un procedimiento para evaluar la estabilidad dinámica en este tipo de obras. Para ello se han revisado los procedimientos actualmente utilizados para definir las acciones de cálculo, los principales modelos de comportamiento dinámicos de suelos saturados disponibles y los procedimientos de cálculo. Una vez investigado el estado del arte sobre este tema, se propone un procedimiento de cálculo en el que, utilizando el programa comercial FLAC, se establecen las acciones cíclicas sobre un dique de abrigo vertical tipo con distintas condiciones de apoyo, aplicando, para el cimiento, un modelo de comportamiento tipo hiperbólico con generación de presiones intersticiales cuyos parámetros pueden obtenerse de ensayos de campo y laboratorio. Por último, una vez descrito el procedimiento, se aplica a un caso real en el que se produjo un fallo en la cimentación que desembocó en el hundimiento de parte de un dique vertical situado en el puerto de Barcelona, presentándose los resultados obtenidos del análisis efectuado y comparándolos con los obtenidos utilizando los métodos de cálculo habituales. Vertical breakwaters are monolithic structures built to reflect sea waves, thereby providing a sheltered area on the land side. They are gravity retaining structures, that is, their own weight is their basic resisting mechanism. Loads acting on these structures are dynamic (waves) and consist essentially in a frontal thrust and an uplift pressure on the base, which both vary over time. Usually, actions in breakwater design are established by empirical formulas, which are described in this thesis. For works of particular importance, such forces are measured in small-scale laboratory tests. When there are no soils with enough shear strength under the planned vertical breakwaters, they usually rest on granular berms which redistribute the load. Nowadays, after establishing the acting forces on the breakwater (front push and uplift pressure), a pseudostatic calculation (with drained or undrained conditions depending on the foundation permeability) is normally done to analyze the stability of these structures against storm waves. It is known that pore pressures tend to rise in saturated soils under cyclic loading and, consequently, there is a reduction of effective stress. A degradation of the shear modulus also occurs depending on the number of load cycles. All of these effects can bring about the phenomenon known as liquefaction in sands or cyclic mobility in fine-grained soils. The aim of the thesis is to explore the possibility that current technology provides to analyze the stability of vertical breakwaters founded on soft soils, and to suggest a method to evaluate the dynamic stability in this type of works. To this end, a review has been made of procedures currently used to define the actions in calculations, the main models of dynamic behaviour of saturated soils available and of calculation procedures. Once the state of the art on this subject has been reviewed, a method of calculation is proposed that uses the commercial program FLAC and is applied to a typical vertical breakwater on a range of different foundation conditions. For the foundation soil, a hyperbolic constitutive model with pore pressure generation has been employed, whose parameters can be obtained from field and laboratory tests. Finally, the described procedure is applied to an actual case where a foundation failure occurred that led to the sinking of several caissons in a vertical breakwater located in the port of Barcelona. The results obtained with the proposed method are compared with those obtained using conventional methods.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se está produciendo en la geodesia un cambio de paradigma en la concepción de los modelos digitales del terreno, pasando de diseñar el modelo con el menor número de puntos posibles a hacerlo con cientos de miles o millones de puntos. Este cambio ha sido consecuencia de la introducción de nuevas tecnologías como el escáner láser, la interferometría radar y el tratamiento de imágenes. La rápida aceptación de estas nuevas tecnologías se debe principalmente a la gran velocidad en la toma de datos, a la accesibilidad por no precisar de prisma y al alto grado de detalle de los modelos. Los métodos topográficos clásicos se basan en medidas discretas de puntos que considerados en su conjunto forman un modelo; su precisión se deriva de la precisión en la toma singular de estos puntos. La tecnología láser escáner terrestre (TLS) supone una aproximación diferente para la generación del modelo del objeto observado. Las nubes de puntos, producto del escaneo con TLS, pasan a ser tratadas en su conjunto mediante análisis de áreas, de forma que ahora el modelo final no es el resultado de una agregación de puntos sino la de la mejor superficie que se adapta a las nubes de puntos. Al comparar precisiones en la captura de puntos singulares realizados con métodos taquimétricos y equipos TLS la inferioridad de estos últimos es clara; sin embargo es en el tratamiento de las nubes de puntos, con los métodos de análisis basados en áreas, se han obtenido precisiones aceptables y se ha podido considerar plenamente la incorporación de esta tecnología en estudios de deformaciones y movimientos de estructuras. Entre las aplicaciones del TLS destacan las de registro del patrimonio, registro de las fases en la construcción de plantas industriales y estructuras, atestados de accidentes y monitorización de movimientos del terreno y deformaciones de estructuras. En la auscultación de presas, comparado con la monitorización de puntos concretos dentro, en coronación o en el paramento de la presa, disponer de un modelo continuo del paramento aguas abajo de la presa abre la posibilidad de introducir los métodos de análisis de deformaciones de superficies y la creación de modelos de comportamiento que mejoren la comprensión y previsión de sus movimientos. No obstante, la aplicación de la tecnología TLS en la auscultación de presas debe considerarse como un método complementario a los existentes. Mientras que los péndulos y la reciente técnica basada en el sistema de posicionamiento global diferencial (DGPS) dan una información continua de los movimientos de determinados puntos de la presa, el TLS permite ver la evolución estacional y detectar posibles zonas problemáticas en todo el paramento. En este trabajo se analizan las características de la tecnología TLS y los parámetros que intervienen en la precisión final de los escaneos. Se constata la necesidad de utilizar equipos basados en la medida directa del tiempo de vuelo, también llamados pulsados, para distancias entre 100 m y 300 m Se estudia la aplicación del TLS a la modelización de estructuras y paramentos verticales. Se analizan los factores que influyen en la precisión final, como el registro de nubes, tipo de dianas y el efecto conjunto del ángulo y la distancia de escaneo. Finalmente, se hace una comparación de los movimientos dados por los péndulos directos de una presa con los obtenidos del análisis de las nubes de puntos correspondientes a varias campañas de escaneos de la misma presa. Se propone y valida el empleo de gráficos patrón para relacionar las variables precisión o exactitud con los factores distancia y ángulo de escaneo en el diseño de trabajos de campo. Se expone su aplicación en la preparación del trabajo de campo para la realización de una campaña de escaneos dirigida al control de movimientos de una presa y se realizan recomendaciones para la aplicación de la técnica TLS a grandes estructuras. Se ha elaborado el gráfico patrón de un equipo TLS concreto de alcance medio. Para ello se hicieron dos ensayos de campo en condiciones reales de trabajo, realizando escaneos en todo el rango de distancias y ángulos de escaneo del equipo. Se analizan dos métodos para obtener la precisión en la modelización de paramentos y la detección de movimientos de estos: el método del “plano de mejor ajuste” y el método de la “deformación simulada”. Por último, se presentan los resultados de la comparación de los movimientos estacionales de una presa arco-gravedad entre los registrados con los péndulos directos y los obtenidos a partir de los escaneos realizados con un TLS. Los resultados muestran diferencias de milímetros, siendo el mejor de ellos del orden de un milímetro. Se explica la metodología utilizada y se hacen consideraciones respecto a la densidad de puntos de las nubes y al tamaño de las mallas de triángulos. A shift of paradigm in the conception of the survey digital models is taking place in geodesy, moving from designing a model with the fewer possible number of points to models of hundreds of thousand or million points. This change has happened because of the introduction of new technologies like the laser scanner, the interferometry radar and the processing of images. The fast acceptance of these new technologies has been due mainly to the great speed getting the data, to the accessibility as reflectorless technique, and to the high degree of detail of the models. Classic survey methods are based on discreet measures of points that, considered them as a whole, form a model; the precision of the model is then derived from the precision measuring the single points. The terrestrial laser scanner (TLS) technology supposes a different approach to the model generation of the observed object. Point cloud, the result of a TLS scan, must be treated as a whole, by means of area-based analysis; so, the final model is not an aggregation of points but the one resulting from the best surface that fits with the point cloud. Comparing precisions between the one resulting from the capture of singular points made with tachometric measurement methods and with TLS equipment, the inferiority of this last one is clear; but it is in the treatment of the point clouds, using area-based analysis methods, when acceptable precisions have been obtained and it has been possible to consider the incorporation of this technology for monitoring structures deformations. Among TLS applications it have to be emphasized those of registry of the cultural heritage, stages registry during construction of industrial plants and structures, police statement of accidents and monitorization of land movements and structures deformations. Compared with the classical dam monitoring, approach based on the registry of a set of points, the fact having a continuous model of the downstream face allows the possibility of introducing deformation analysis methods and behavior models that would improve the understanding and forecast of dam movements. However, the application of TLS technology for dam monitoring must be considered like a complementary method with the existing ones. Pendulums and recently the differential global positioning system (DGPS) give a continuous information of the movements of certain points of the dam, whereas TLS allows following its seasonal evolution and to detect damaged zones of the dam. A review of the TLS technology characteristics and the factors affecting the final precision of the scanning data is done. It is stated the need of selecting TLS based on the direct time of flight method, also called pulsed, for scanning distances between 100m and 300m. Modelling of structures and vertical walls is studied. Factors that influence in the final precision, like the registry of point clouds, target types, and the combined effect of scanning distance and angle of incidence are analyzed. Finally, a comparison among the movements given by the direct pendulums of a dam and the ones obtained from the analysis of point clouds is done. A new approach to obtain a complete map-type plot of the precisions of TLS equipment based on the direct measurement of time of flight method at midrange distances is presented. Test were developed in field-like conditions, similar to dam monitoring and other civil engineering works. Taking advantage of graphic semiological techniques, a “distance - angle of incidence” map based was designed and evaluated for field-like conditions. A map-type plot was designed combining isolines with sized and grey scale points, proportional to the precision values they represent. Precisions under different field conditions were compared with specifications. For this purpose, point clouds were evaluated under two approaches: the standar "plane-of-best-fit" and the proposed "simulated deformation”, that showed improved performance. These results lead to a discussion and recommendations about optimal TLS operation in civil engineering works. Finally, results of the comparison of seasonal movements of an arc-gravity dam between the registered by the direct pendulums ant the obtained from the TLS scans, are shown. The results show differences of millimeters, being the best around one millimeter. The used methodology is explained and considerations with respect to the point cloud density and to the size of triangular meshes are done.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo de investigación se ocupa del estudio de las vibraciones verticales inducidas por vórtices (VIV) en aquellos puentes que, por sus características geométricas y propiedades dinámicas, muestran cierta sensibilidad este tipo de fenómeno aeroelástico. El objeto principal es el análisis del mecanismo de interacción viento-estructura sobre secciones no fuseladas de geometría simple, con objeto de realizar una adecuada caracterización del problema y poder abordar posteriormente el análisis de otras secciones de geometría más compleja, representativas de los principales elementos estructurales de los puentes, como arcos, tableros, torres y pilas. Este aspecto es fundamental durante la fase de diseño del puente, donde deberán tenerse en cuenta también una serie de detalles que pueden influir significativamente su sensibilidad ante problemas aerodinámicos, como la morfología y dimensiones principales de la sección transversal del tablero, la disposición de barreras de seguridad y barreras cortaviento, o las riostras que unen diferentes elementos estructurales. La configuración de dos elementos en tándem o la construcción de un puente en las inmediaciones de otro existente son otros aspectos a considerar respecto a la sensibilidad frente a efectos aeroelásticos. El estudio se ha llevado a cabo principalmente mediante la implementación de simulaciones numéricas que reproducen la interacción entre la corriente de aire y secciones representativas de modelos estructurales, a partir de un código CFD basado en el método de las partículas de vórtices (VPM), siguiendo por tanto un esquema Lagrangiano. Los resultados han sido validados con datos experimentales existentes, valores procedentes de ensayos en túnel de viento y registros reales a partir de diferentes casos de estudio: Alconétar (2006), Niterói (1980), Trans- Tokyo Bay (1995) y Volgogrado (2010). Finalmente, se propone un modelo semi-empírico para la estimación del rango de velocidades críticas y amplitudes de oscilación basado en la utilización de las derivadas de flameo de Scanlan, y la densidad espectral de las fuerzas aerodinámicas en el dominio de la frecuencia. The present research work concerns the study of vertical vortex-induced vibrations (VIV) in bridges which show certain sensitivity to this type of aeroelastic phenomenon. It focuses on the analysis of the wind-structure interaction mechanism on bluff sections, with the objective of making a good characterisation of the problem and subsequently addressing the analysis of sections with a complex geometry, which are representative of the bridge structural elements, such as arches, decks, towers and piers. This issue is of relative importance during the bridge design phase, since minor details of the aforementioned elements can significantly influence its sensitivity to aerodynamic problems. The shape and main dimensions of the deck cross section, the addition of safety barriers and windshields, the presence of braces to enhance the structure mechanical properties, the utilisation of cross sections in tandem arrangement, or the erection of a new bridge in the vicinity of another existing one are some of the aspects to be considered regarding the sensitivity to the aeroelastic effects. The study has been carried out mainly through the implementation of numerical simulations that reproduces the interaction between the airflow and the representative cross section of a structural bridge model, by the use of a CFD code based on the vortex particle method (VPM), thus following a Lagrangian scheme. The results have been validated with existing experimental data, values from wind tunnel tests and full scale observations from the different case studies: Alconétar (2006), Niterói (1980), Trans-Tokyo Bay (1995) and Volgograd (2010). Finally, a new semi-empirical model is proposed for the estimation of the critical wind velocity ranges and oscillation amplitudes based on the use of the Scanlan’s flutter derivatives and the power spectral density of aerodynamic force time history in the frequency domain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las pilas de los puentes son elementos habitualmente verticales que, generalmente, se encuentran sometidos a un estado de flexión compuesta. Su altura significativa en muchas ocasiones y la gran resistencia de los materiales constituyentes de estos elementos – hormigón y acero – hace que se encuentren pilas de cierta esbeltez en la que los problemas de inestabilidad asociados al cálculo en segundo orden debido a la no linealidad geométrica deben ser considerados. Además, la mayoría de las pilas de nuestros puentes y viaductos están hechas de hormigón armado por lo que se debe considerar la fisuración del hormigón en las zonas en que esté traccionado. Es decir, el estudio del pandeo de pilas esbeltas de puentes requiere también la consideración de un cálculo en segundo orden mecánico, y no solo geométrico. Por otra parte, una pila de un viaducto no es un elemento que pueda considerarse como aislado; al contrario, su conexión con el tablero hace que aparezca una interacción entre la propia pila y aquél que, en cierta medida, supone una cierta coacción al movimiento de la propia cabeza de pila. Esto hace que el estudio de la inestabilidad de una pila esbelta de un puente no puede ser resuelto con la “teoría del pandeo de la pieza aislada”. Se plantea, entonces, la cuestión de intentar definir un procedimiento que permita abordar el problema complicado del pandeo de pilas esbeltas de puentes pero empleando herramientas de cálculo no tan complejas como las que resuelven “el pandeo global de una estructura multibarra, teniendo en cuenta todas las no linealidades, incluidas las de las coacciones”. Es decir, se trata de encontrar un procedimiento, que resulta ser iterativo, que resuelva el problema planteado de forma aproximada, pero suficientemente ajustada al resultado real, pero empleando programas “convencionales” de cálculo que sean capaces de : - por una parte, en la estructura completa: o calcular en régimen elástico lineal una estructura plana o espacial multibarra compleja; - por otra, en un modelo de una sola barra aislada: o considerar las no linealidades geométricas y mecánicas a nivel tensodeformacional, o considerar la no linealidad producida por la fisuración del hormigón, o considerar una coacción “elástica” en el extremo de la pieza. El objeto de este trabajo es precisamente la definición de ese procedimiento iterativo aproximado, la justificación de su validez, mediante su aplicación a diversos casos paramétricos, y la presentación de sus condicionantes y limitaciones. Además, para conseguir estos objetivos se han elaborado unos ábacos de nueva creación que permiten estimar la reducción de rigidez que supone la fisuración del hormigón en secciones huecas monocajón de hormigón armado. También se han creado unos novedosos diagramas de interacción axil-flector válidos para este tipo de secciones en flexión biaxial. Por último, hay que reseñar que otro de los objetivos de este trabajo – que, además, le da título - era cuantificar el valor de la coacción que existe en la cabeza de una pila debido a que el tablero transmite las cargas de una pila al resto de los integrantes de la subestructura y ésta, por tanto, colabora a reducir los movimientos de la cabeza de pila en cuestión. Es decir, la cabeza de una pila no está exenta lo cual mejora su comportamiento frente al pandeo. El régimen de trabajo de esta coacción es claramente no lineal, ya que la rigidez de las pilas depende de su grado de fisuración. Además, también influye cómo las afecta la no linealidad geométrica que, para la misma carga, aumenta la flexión de segundo orden de cada pila. En este documento se define cuánto vale esta coacción, cómo hay que calcularla y se comprueba su ajuste a los resultados obtenidos en el l modelo no lineal completo. The piers of the bridges are vertical elements where axial loads and bending moments are to be considered. They are often high and also the strength of the materials they are made of (concrete and steel) is also high. This means that slender piers are very common and, so, the instabilities produced by the second order effects due to the geometrical non linear effects are to be considered. In addition to this, the piers are usually made of reinforced concrete and, so, the effects of the cracking of the concrete should also be evaluated. That is, the analysis of the instabilities of te piers of a bridge should consider both the mechanical and the geometrical non linearities. Additionally, the pier of a bridge is not a single element, but just the opposite; the connection of the pier to the deck of the bridge means that the movements of the top of the pier are reduced compared to the situation of having a free end at the top of the pier. The connection between the pier and the deck is the reason why the instability of the pier cannot be analysed using “the buckling of a compressed single element method”. So, the question of defining an approximate method for analysing the buckling of the slender piers of a bridge but using a software less complex than what it is needed for analysing the “ global buckling of a multibeam structure considering all t”, is arisen. Then, the goal should be trying to find a procedure for analysing the said complex problem of the buckling of the slender piers of a bridge using a simplified method. This method could be an iterative (step by step) procedure, being accurate enough, using “normal” software having the following capabilities: - Related to the calculation of the global structure o Ability for calculating a multibesam strucutre using elastic analysis. - Related to the calculation of a single beam strcuture:: o Ability for taking into account the geometrical and mechanical () non linearities o Ability for taking into account the cracking of the concrete. o Ability for using partial stiff constraints (elastic springs) at the end of the elements One of the objectives of this document is just defining this simplified methodology, justifying the accuracy of the proposed procedure by using it on some different bridges and presenting the exclusions and limitations of the propose method. In addition to this, some new charts have been created for calculating the reduction of the stiffness of hollow cross sections made of reinforced concrete. Also, new charts for calculating the reinforcing of hollow cross sections under biaxial bending moments are also included in the document. Finally, it is to be said that another aim of the document – as it is stated on the title on the document – is defining the value of the constraint on the top of the pier because of the connection of the pier to the deck .. and to the other piers. That is, the top of the pier is not a free end of a beam and so the buckling resistance of the pier is significantly improved. This constraint is a non-elastic constraint because the stiffness of each pier depends on the level of cracking. Additionally, the geometrical non linearity is to be considered as there is an amplification of the bending moments due to the increasing of the movements of the top of the pier. This document is defining how this constraints is to be calculated; also the accuracy of the calculations is evaluated comparing the final results with the results of the complete non linear calculations

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los recientes desarrollos tecnológicos permiten la transición de la oceanografía observacional desde un concepto basado en buques a uno basado en sistemas autónomos en red. Este último, propone que la forma más eficiente y efectiva de observar el océano es con una red de plataformas autónomas distribuidas espacialmente y complementadas con sistemas de medición remota. Debido a su maniobrabilidad y autonomía, los planeadores submarinos están jugando un papel relevante en este concepto de observaciones en red. Los planeadores submarinos fueron específicamente diseñados para muestrear vastas zonas del océano. Estos son robots con forma de torpedo que hacen uso de su forma hidrodinámica, alas y cambios de flotabilidad para generar movimientos horizontales y verticales en la columna de agua. Un sensor que mide conductividad, temperatura y profundidad (CTD) constituye un equipamiento estándar en la plataforma. Esto se debe a que ciertas variables dinámicas del Océano se pueden derivar de la temperatura, profundidad y salinidad. Esta última se puede estimar a partir de las medidas de temperatura y conductividad. La integración de sensores CTD en planeadores submarinos no esta exenta de desafíos. Uno de ellos está relacionado con la precisión de los valores de salinidad derivados de las muestras de temperatura y conductividad. Específicamente, las estimaciones de salinidad están significativamente degradadas por el retardo térmico existente, entre la temperatura medida y la temperatura real dentro de la celda de conductividad del sensor. Esta deficiencia depende de las particularidades del flujo de entrada al sensor, su geometría y, también se ha postulado, del calor acumulado en las capas de aislamiento externo del sensor. Los efectos del retardo térmico se suelen mitigar mediante el control del flujo de entrada al sensor. Esto se obtiene generalmente mediante el bombeo de agua a través del sensor o manteniendo constante y conocida su velocidad. Aunque recientemente se han incorporado sistemas de bombeo en los CTDs a bordo de los planeadores submarinos, todavía existen plataformas equipadas con CTDs sin dichos sistemas. En estos casos, la estimación de la salinidad supone condiciones de flujo de entrada al sensor, razonablemente controladas e imperturbadas. Esta Tesis investiga el impacto, si existe, que la hidrodinámica de los planeadores submarinos pudiera tener en la eficiencia de los sensores CTD. Específicamente, se investiga primero la localización del sensor CTD (externo al fuselaje) relativa a la capa límite desarrollada a lo largo del cuerpo del planeador. Esto se lleva a cabo mediante la utilización de un modelo acoplado de fluido no viscoso con un modelo de capa límite implementado por el autor, así como mediante un programa comercial de dinámica de fluidos computacional (CFD). Los resultados indican, en ambos casos, que el sensor CTD se encuentra fuera de la capa límite, siendo las condiciones del flujo de entrada las mismas que las del flujo sin perturbar. Todavía, la velocidad del flujo de entrada al sensor CTD es la velocidad de la plataforma, la cual depende de su hidrodinámica. Por tal motivo, la investigación se ha extendido para averiguar el efecto que la velocidad de la plataforma tiene en la eficiencia del sensor CTD. Con este propósito, se ha desarrollado un modelo en elementos finitos del comportamiento hidrodinámico y térmico del flujo dentro del CTD. Los resultados numéricos indican que el retardo térmico, atribuidos originalmente a la acumulación de calor en la estructura del sensor, se debe fundamentalmente a la interacción del flujo que atraviesa la celda de conductividad con la geometría interna de la misma. Esta interacción es distinta a distintas velocidades del planeador submarino. Específicamente, a velocidades bajas del planeador (0.2 m/s), la mezcla del flujo entrante con las masas de agua remanentes en el interior de la celda, se ralentiza debido a la generación de remolinos. Se obtienen entonces desviaciones significantes entre la salinidad real y aquella estimada. En cambio, a velocidades más altas del planeador (0.4 m/s) los procesos de mezcla se incrementan debido a la turbulencia e inestabilidades. En consecuencia, la respuesta del sensor CTD es mas rápida y las estimaciones de la salinidad mas precisas que en el caso anterior. Para completar el trabajo, los resultados numéricos se han validado con pruebas experimentales. Específicamente, se ha construido un modelo a escala del sensor CTD para obtener la confirmación experimental de los modelos numéricos. Haciendo uso del principio de similaridad de la dinámica que gobierna los fluidos incompresibles, los experimentos se han realizado con flujos de aire. Esto simplifica significativamente la puesta experimental y facilita su realización en condiciones con medios limitados. Las pruebas experimentales han confirmado cualitativamente los resultados numéricos. Más aun, se sugiere en esta Tesis que la respuesta del sensor CTD mejoraría significativamente añadiendo un generador de turbulencia en localizaciones adecuadas al interno de la celda de conductividad. ABSTRACT Recent technological developments allow the transition of observational oceanography from a ship-based to a networking concept. The latter suggests that the most efficient and effective way to observe the Ocean is through a fleet of spatially distributed autonomous platforms complemented by remote sensing. Due to their maneuverability, autonomy and endurance at sea, underwater gliders are already playing a significant role in this networking observational approach. Underwater gliders were specifically designed to sample vast areas of the Ocean. These are robots with a torpedo shape that make use of their hydrodynamic shape, wings and buoyancy changes to induce horizontal and vertical motions through the water column. A sensor to measure the conductivity, temperature and depth (CTD) is a standard payload of this platform. This is because certain ocean dynamic variables can be derived from temperature, depth and salinity. The latter can be inferred from measurements of temperature and conductivity. Integrating CTD sensors in glider platforms is not exempted of challenges. One of them, concerns to the accuracy of the salinity values derived from the sampled conductivity and temperature. Specifically, salinity estimates are significantly degraded by the thermal lag response existing between the measured temperature and the real temperature inside the conductivity cell of the sensor. This deficiency depends on the particularities of the inflow to the sensor, its geometry and, it has also been hypothesized, on the heat accumulated by the sensor coating layers. The effects of thermal lag are usually mitigated by controlling the inflow conditions through the sensor. Controlling inflow conditions is usually achieved by pumping the water through the sensor or by keeping constant and known its diving speed. Although pumping systems have been recently implemented in CTD sensors on board gliders, there are still platforms with unpumped CTDs. In the latter case, salinity estimates rely on assuming reasonable controlled and unperturbed flow conditions at the CTD sensor. This Thesis investigates the impact, if any, that glider hydrodynamics may have on the performance of onboard CTDs. Specifically, the location of the CTD sensor (external to the hull) relative to the boundary layer developed along the glider fuselage, is first investigated. This is done, initially, by applying a coupled inviscid-boundary layer model developed by the author, and later by using a commercial software for computational fluid dynamics (CFD). Results indicate, in both cases, that the CTD sensor is out of the boundary layer, being its inflow conditions those of the free stream. Still, the inflow speed to the CTD sensor is the speed of the platform, which largely depends on its hydrodynamic setup. For this reason, the research has been further extended to investigate the effect of the platform speed on the performance of the CTD sensor. A finite element model of the hydrodynamic and thermal behavior of the flow inside the CTD sensor, is developed for this purpose. Numerical results suggest that the thermal lag effect is mostly due to the interaction of the flow through the conductivity cell and its geometry. This interaction is different at different speeds of the glider. Specifically, at low glider speeds (0.2 m/s), the mixing of recent and old waters inside the conductivity cell is slowed down by the generation of coherent eddy structures. Significant departures between real and estimated values of the salinity are found. Instead, mixing is enhanced by turbulence and instabilities for high glider speeds (0.4 m/s). As a result, the thermal response of the CTD sensor is faster and the salinity estimates more accurate than for the low speed case. For completeness, numerical results have been validated against model tests. Specifically, a scaled model of the CTD sensor was built to obtain experimental confirmation of the numerical results. Making use of the similarity principle of the dynamics governing incompressible fluids, experiments are carried out with air flows. This significantly simplifies the experimental setup and facilitates its realization in a limited resource condition. Model tests qualitatively confirm the numerical findings. Moreover, it is suggested in this Thesis that the response of the CTD sensor would be significantly improved by adding small turbulators at adequate locations inside the conductivity cell.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La escalera de caracol es uno de los elementos que mejor define la evolución de la construcción pétrea a lo largo de nuestra historia moderna. El movimiento helicoidal de las piezas de una escalera muestra, con frecuencia, el virtuosismo que alcanzaron los maestros del arte de la cantería y la plasticidad, expresividad y ligereza de sus obras. A pesar de su origen exclusivamente utilitario y de su ubicación secundaria, se convertirán en signo de maestría y en elementos protagonistas del espacio que recorren y de la composición de los edificios, como es el caso de las grande vis de los Châteaux franceses del XVI como Blois, Chateaudun o Chambord o los schlosses alemanes como el de Hartenfels en Torgau. Este protagonismo queda patente en los tratados y manuscritos de cantería, elaborados fundamentalmente en España y Francia, a partir del siglo XVI que recogen un gran número de variantes de escaleras de caracol entre sus folios. Breve historia de la escalera de Caracol Los ejemplos más antiguos conocidos de escaleras de caracol en Occidente provienen de los primeros siglos de nuestra era y están asociados a construcciones de tipo conmemorativo, funerario o civil, romanas. Destaca de entre ellas la columna trajana, construida en el 113 por Apolodoro de Damasco en los Foros de Roma. Esta columna, conservada en la actualidad, fue profusamente representada por los tratados de arquitectura desde el Renacimento como el de Serlio, Caramuel, Piranesi, Rondelet y, más recientemente, Canina. Choisy describe en El arte de construir en Bizancio un grupo de escaleras de caracol cubiertas por bóvedas helicoidales y construidas entre el siglo IV y VIII; a esta misma época pertenecen otras escaleras con bóvedas aparejadas de forma desigual con sillarejos y sillares de pequeño tamaño sin reglas de traba claras, pensadas al igual que las de Choisy para ser revestidas con un mortero. Herederas de estas bóvedas de la antigüedad son las escaleras de caracol de la Edad Media. Así las describe Viollet le Duc: “compuestas por un machón construido en cantería, con caja perimetral circular, bóveda helicoidal construida en piedra sin aparejar, que se apoya en el machón y sobre el paramento circular interior. Estas bóvedas soportan los peldaños en los que las aristas son trazadas siguiendo los radios del círculo”. En esta misma época, siglos XI y XII, se construyen un grupo de escaleras de caracol abovedadas en piedra de cantería vista: las de la torre oeste de Notre Dame des Doms en Avignon, las de la tour de Roi, de Évêque y Bermonde de los Chateaux de Uzés, las gemelas de las torres de la Catedral Saint Théodorit de Uzés y la conocida escalera del transepto de la Abadía de Saint Gilles. Ésta última dará el nombre a uno de los modelos estereotómicos de mayor complejidad del art du trait o arte de la cantería: la vis Saint Gilles, que aparece en la mayoría de los textos dedicados al corte de piedras en España y Francia. La perfección y dificultad de su trazado hizo que, durante siglos, esta escalera de caracol fuera lugar de peregrinación de canteros y se convirtiera en el arquetipo de un modelo representado con profusión en los tratados hasta el siglo XIX. A partir del siglo XIII, será el husillo el tipo de escalera curva que dará respuesta a las intenciones de la arquitectura a la “moderna” o gótica. Estas escaleras con machón central se generalizarán, insertándose en un complejo sistema de circulaciones de servicio, que conectaban por completo, en horizontal y vertical, los edificios. Estos pasadizos horizontales y estas conexiones verticales, hábilmente incorporadas en el espesor de contrafuertes, machones, esquinas, etc, serán una innovación específicamente gótica, como señala Fitchen. La pieza de peldaño, que se fabrica casi “en serie” reflejará fielmente el espíritu racional y funcionalista de la arquitectura gótica. Inicialmente los peldaños serán prismáticos, sin labrar por su cara interior; después, éstos darán paso a escaleras más amables con los helicoides reglados formando su intradós. Insertos en construcciones góticas y en convivencia con husillos, encontramos algunos ejemplos de escaleras abovedadas en el siglo XIII y XIV. Estamos hablando de la escalera de la torre este del Castillo de Maniace en Siracusa, Sicilia y la escalera de la torre norte del transepto de la Catedral de Barcelona. En ambos casos, los caracoles se pueden relacionar con el tipo vis de Saint Gilles, pero incorporan invariantes de la construcción gótica que les hace mantener una relación tipológica y constructiva con los husillos elaborados en la misma época. En la segunda mitad del siglo XV aparecen, vinculadas al ámbito mediterráneo, un conjunto de escaleras en las que el machón central se desplaza transformándose en una moldura perimetral y dejando su lugar a un espacio hueco que permite el paso de la luz. Los tratados manuscritos de cantería que circulan en el XVI y XVII por España recogen el modelo con su denominación: caracol de Mallorca. Varios autores han mantenido la tesis de que el nombre proviene de la escalera situada en la torre noroeste de la Lonja de Palma de Mallorca. Los Manuscritos y tratados de Cantería y las escaleras de caracol Coincidiendo con la apertura intelectual que propicia el Renacimiento se publican algunos tratados de arquitectura que contienen capítulos dedicados al corte de las piedras. El primero de ellos es Le premier tome de l’Architecture de Philibert de L’Orme, publicado en 1567 en Francia. En España tenemos constancia de la existencia de numerosos cuadernos profesionales que circulaban entre los canteros. Varias copias de estos manuscritos han llegado hasta nuestros días. Los más completos son sin duda, las dos copias que se conservan del tratado de arquitectura de Alonso de Vandelvira, una en la Biblioteca Nacional y otra en la Biblioteca de la Escuela de Arquitectura de la Universidad Politécnica de Madrid y el manuscrito titulado Cerramientos y trazas de Montea de Ginés Martínez de Aranda. Todas estas colecciones de aparejos, con excepción de la atribuida a Pedro de Albiz, presentan trazas de escaleras de caracol. En los siglos XVII y XVIII los textos en España más interesantes para nuestras investigaciones son, como en el XVI, manuscritos que no llegaron a ver la imprenta. Entre ellos destacan De l’art del picapedrer de Joseph Gelabert y el Cuaderno de Arquitectura de Juan de Portor y Castro. Estos dos textos, que contienen varios aparejos de caracoles, están claramente vinculados con la práctica constructiva a diferencia de los textos impresos del XVIII, como los del Padre Tosca o el de Juan García Berruguilla, que dedican algunos capítulos a cortes de Cantería entre los que incluyen trazas de escaleras, pero desde un punto de vista más teórico. Podemos agrupar las trazas recogidas en los manuscritos y tratados en cinco grandes grupos: el caracol de husillo, el caracol de Mallorca, los caracoles abovedados, los caracoles exentos y los caracoles dobles. El husillo, de procedencia gótica, permanece en la mayoría de nuestros textos con diferentes denominaciones: caracol de husillo, caracol de nabo redondo o caracol macho. Se seguirá construyendo con frecuencia durante todo el periodo de la Edad Moderna. Los ejemplares más bellos presentan el intradós labrado formando un helicoide cilíndrico recto como es el caso del husillo del Monasterio de la Vid o el de la Catedral de Salamanca o un helicoide axial recto como en el de la Capilla de la Comunión en la Catedral de Santiago de Compostela. La diferencia estriba en la unión del intradós y el machón central: una amable tangencia en el primer caso o un encuentro marcado por una hélice en el segundo. El segundo tipo de caracol presente en casi todos los autores es el caracol de Mallorca. Vandelvira, Martínez de Aranda, y posteriormente Portor y Castro lo estudian con detenimiento. Gelabert, a mediados del siglo XVII, nos recordará su origen mediterráneo al presentar el que denomina Caracol de ojo abierto. El Caracol de Mallorca también estará presente en colecciones de aparejos como las atribuidas a Alonso de Guardia y Juan de Aguirre, ambas depositadas en la Biblioteca Nacional y en las compilaciones técnicas del siglo XVIII, de fuerte influencia francesa, aunque en este caso ya sin conservar su apelación original. El Caracol que dicen de Mallorca se extiende por todo el territorio peninsular de la mano de los principales maestros de la cantería. Los helicoides labrados con exquisita exactitud, acompañados de armoniosas molduras, servirán de acceso a espacios más representativos como bibliotecas, archivos, salas, etc. Es la escalera de la luz, como nos recuerda su apelación francesa, vis a jour. Precisamente en Francia, coincidiendo con el renacimiento de la arquitectura clásica se realizan una serie de escaleras de caracol abovedadas, en vis de Saint Gilles. Los tratados franceses, comenzando por De L’Orme, y siguiendo por, Jousse, Derand, Milliet Dechales, De la Hire, De la Rue, Frezier, Rondelet, Adhémar o Leroy, entre otros, recogen en sus escritos el modelo y coinciden en reconocer la dificultad de su trazado y el prestigio que adquirían los canteros al elaborar este tipo de escaleras. El modelo llega nuestras tierras en un momento histórico de productivo intercambio cultural y profesional entre Francia y España. Vandelvira, Martínez de Aranda y Portor y Castro analizan en sus tratados la “vía de San Gil”. En la provincia de Cádiz, en la Iglesia Mayor de Medina Sidonia, se construirá el más perfecto de los caracoles abovedados de la España renacentista. También en la provincia de Cádiz y vinculadas, posiblemente, a los mismos maestros encontramos un curioso grupo de escaleras abovedadas con generatriz circular horizontal. A pesar del extenso catálogo de escaleras presentes en la tratadística española, no aparece ninguna que muestre una mínima relación con ellas. Desde el punto de vista de la geometría, estamos ante uno de los tipos de escaleras que describe Choisy en El arte de construir en Bizancio. Se trata de escaleras abovedadas construidas por hojas y lechos horizontales. Los caracoles abovedados tendrán también su versión poligonal: la vis Saint Gilles quarré o el caracol de emperadores cuadrado en su versión vandelviresca. Las soluciones que dibujan los tratados son de planta cuadrada, pero la ejecución será poligonal en los raros ejemplos construidos, que se encuentran exclusivamente en Francia. Su geometría es compleja: el intradós es una superficie reglada alabeada denominada cilindroide; su trazado requiere una habilidad extrema y al ser un tanto innecesaria desde el punto de vista funcional, fue muy poco construida. Otro tipo de escalera habitual es la que Vandelvira y Martínez de Aranda denominan en sus tratados “caracol exento”. Se trata de una escalera volada alrededor de un pilar, sin apoyo en una caja perimetral y que, por lo tanto, debe trabajar en ménsula. Su función fue servir de acceso a espacios de reducidas dimensiones como púlpitos, órganos o coros. Encontramos ejemplos de estos caracoles exentos en el púlpito de la catedral de Viena y en España, en la subida al coro de la Iglesia arciprestal de Morella en Valencia. El largo repertorio de escaleras de caracol prosigue en los tratados y en las múltiples soluciones que encontramos en arquitecturas civiles y religiosas en toda Europa. Hasta varios caracoles en una sola caja: dobles e incluso triples. Dobles como el conocido de Chambord, o el doble husillo del Convento de Santo Domingo en Valencia, rematado por un caracol de Mallorca; triples como la triple escalera del Convento de Santo Domingo de Bonaval en Santiago de Compostela. La tratadística española recogerá dos tipos de caracoles dobles, el ya comentado en una sola caja, en versiones con y sin machón central, definidos por Martínez de Aranda, Juan de Aguirre, Alonso de Guardia y Joseph Gelabert y el caracol doble formado por dos cajas diferentes y coaxiales. Vandelvira lo define como Caracol de Emperadores. Será el único tipo de caracol que recoja Cristobal de Rojas en su Teoría y Práctica de Fortificación. No hay duda que las escaleras de caracol han formado parte de un privilegiado grupo de elementos constructivos en constante evolución e investigación a lo largo de la historia de la arquitectura en piedra. Desde el cantero más humilde hasta los grandes maestros catedralicios las construyeron y, en muchos casos, crearon modelos nuevos en los pergaminos de sus propias colecciones o directamente sobre la piedra. Estos modelos casi experimentales sirvieron para encontrar trabajo o demostrar un grado de profesionalidad a sus autores, que les hiciera, al mismo tiempo, ganarse el respeto de sus compañeros. Gracias a esto, se inició un proceso ese proceso de investigación y evolución que produjo una diversidad en los tipos, sin precedentes en otros elementos similares, y la transferencia de procedimientos dentro del arte de la cantería. Los grandes autores del mundo de la piedra propusieron multitud de tipos y variantes, sin embargo, el modelo de estereotomía tradicionalmente considerado más complejo y más admirado es un caracol de reducidas dimensiones construido en el siglo XII: la Vis de Saint Gilles. Posiblemente ahí es donde reside la grandeza de este arte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El cambio climático y sus efectos requieren con urgencia el desarrollo de estrategias capaces no solo de mitigar pero también permitir la adaptación de los sistemas afectados por este fenómeno a los cambios que están provocando a nivel mundial. Olas de calor más largas y frecuentes, inundaciones, y graves sequías aumentan la vulnerabilidad de la población, especialmente en asentamientos urbanos. Este fenómeno y sus soluciones potenciales han sido ampliamente estudiados en las últimas décadas desde diferentes perspectivas y escalas que analizan desde el fenómeno regional de isla de calor al aumento de la intensidad energética necesaria en los edificios para mantener las condiciones de confort en los escenarios de calentamiento que se predicen. Su comprensión requiere el entendimiento de este fenómeno y un profundo análisis de las estrategias que pueden corregirlo y adaptarse a él. En la búsqueda de soluciones a este problema, las estrategias que incorporan sistemas naturales tales como las cubiertas ajardinadas, las fachadas vegetadas y bosques urbanos, se presentan como opciones de diseño capaces de proporcionan múltiples servicios al ecosistema urbano y de regular y hacer frente a los efectos del cambio climático. Entre los servicios que aportan estos sistemas naturales se incluyen la gestión de agua de tormentas, el control del efecto isla de calor, la mejora de la calidad del aire y del agua, el aumento de la diversidad, y como consecuencia de todo lo anterior, la reducción de la huella ecológica de las ciudades. En la última década, se han desarrollado múltiples estudios para evaluar y cuantificar los servicios al ecosistema proporcionados por las infraestructuras verdes, y específicamente las cubiertas ajardinadas, sin embargo, determinados servicios como la capacidad de la regulación del microclima urbano no ha sido apenas estudiados. La mayor parte de la literatura en este campo la componen estudios relacionados con la capacidad de las cubiertas ajardinadas de reducir el efecto de la isla de calor, en una escala local, o acerca de la reducción de la demanda energética de refrigeración debida a la instalación de cubiertas ajardinadas en la escala de edificio. La escala intermedia entre estos dos ámbitos, la calle, desde su ámbito habitable cercano al suelo hasta el límite superior del cañón urbano que configura, no han sido objeto detallado de estudio por lo que es esta escala el objeto de esta tesis doctoral. Esta investigación tiene como objeto contribuir en este campo y aportar un mayor entendimiento a través de la cuantificación del impacto de las cubiertas ajardinadas sobre la temperatura y humedad en el cañón urbano en la escala de calle y con un especial foco en el nivel peatonal. El primer paso de esta investigación ha sido la definición del objeto de estudio a través del análisis y revisión de trabajos tanto teóricos como empíricos que investigan los efectos de cubiertas ajardinadas en el entorno construido, entendidas como una herramienta para la adaptación y mitigación del impacto del cambio climático en las ciudades. La literatura analizada, revela el gran potencial de los sistemas vegetales como herramientas para el diseño pasivo puesto que no solo son capaces de mejorar las condiciones climáticas y microclimaticas en las ciudades reduciendo su demanda energética, sino también la necesidad de mayor análisis en la escala de calle donde confluyen el clima, las superficies urbanas y materiales y vegetación. Este análisis requiere una metodología donde se integren la respuesta térmica de edificios, las variaciones en los patrones de viento y radiación, y la interacción con la vegetación, por lo que un análisis cuantitativo puede ayudar a definir las estrategias más efectivas para lograr espacios urbanos más habitables. En este contexto, el objetivo principal de esta investigación ha sido la evaluación cuantitativa del impacto de la cubierta ajardinada en el microclima urbano a escala de barrio en condiciones de verano en los climas mediterráneos continentales. Para el logro de este objetivo, se ha seguido un proceso que persigue identificar los modelos y herramientas de cálculo capaces de capturar el efecto de la cubierta ajardinada sobre el microclima, identificar los parámetros que potencian o limitan este efecto, y cuantificar las variaciones que microclima creado en el cañón urbano produce en el consumo de energía de los edificios que rodean éste espacio. La hipótesis principal detrás de esta investigación y donde los objetivos anteriores se basan es el siguiente: "una cubierta ajardinada instalada en edificios de mediana altura favorece el establecimiento de microclimas a nivel peatonal y reduce las temperaturas en el entorno urbano donde se encuentra”. Con el fin de verificar la hipótesis anterior y alcanzar los objetivos propuestos se ha seguido la siguiente metodología: • definición del alcance y limitaciones del análisis • Selección de las herramientas y modelos de análisis • análisis teórico de los parámetros que afectan el efecto de las cubiertas ajardinadas • análisis experimental; • modelización energética • conclusiones y futuras líneas de trabajo Dada la complejidad de los fenómenos que intervienen en la generación de unas determinadas condiciones microclimáticas, se ha limitado el objeto de este estudio a las variables de temperatura y humedad, y sólo se han tenido en cuenta los componentes bióticos y abióticos del sistema, que incluyen la morfología, características superficiales del entorno estudiado, así como los elementos vegetales. Los componentes antrópicos no se han incluido en este análisis. La búsqueda de herramientas adecuadas para cumplir con los objetivos de este análisis ha concluido en la selección de ENVI-met v4 como el software más adecuado para esta investigación por su capacidad para representar los complejos fenómenos que caracterizan el microclima en cañones urbanos, en una escala temporal diaria y con unas escala local de vecindario. Esta herramienta supera el desafío que plantean los requisitos informáticos de un cálculo completo basado en elementos finitos realizados a través de herramientas de dinámica de fluidos computacional (CFD) que requieren una capacidad de cálculo computacional y tiempo privativos y en una escala dimensional y temporal limitada a esta capacidad computacional lo que no responde a los objetivos de esta investigación. ENVI-met 4 se basa es un modelo tridimensional del micro clima diseñado para simular las interacciones superficie-planta-aire en entornos urbanos. Basado en las ecuaciones fundamentales del equilibrio que representan, la conservación de masa, energía y momento. ENVI-met es un software predictivo, y como primer paso ha requerido la definición de las condiciones iniciales de contorno que se utilizan como punto de partida por el software para generar su propio perfil de temperatura y humedad diaria basada en la localización de la construcción, geometría, vegetación y las superficies de características físicas del entorno. La geometría de base utilizada para este primer análisis se ha basado en una estructura típica en cuanto al trazado urbano situada en Madrid que se ha simulado con una cubierta tradicional y una cubierta ajardinada en sus edificios. La estructura urbana seleccionada para este análisis comparativo es una red ortogonal con las calles principales orientadas este-oeste. El edificio típico que compone el vecindario se ha definido como “business as usual” (BAU) y se ha definido con una cubierta de baldosa de hormigón estándar, con un albedo 0.3, paredes con albedo 0.2 (construcción de muro de ladrillo típico) y cerramientos adiabáticos para evitar las posibles interferencias causadas por el intercambio térmico con el ambiente interior del edificio en los resultados del análisis. Para el caso de la cubierta ajardinada, se mantiene la misma geometría y características del edificio con excepción de la cobertura superficial de la azotea. Las baldosas de hormigón se han modificado con una cubierta ajardinada extensiva cubierta con plantas xerófilas, típicas en el clima de Madrid y caracterizado por su índice de densidad foliar, el “leaf area density” (LAD), que es la superficie total de superficie de hojas por unidad de volumen (m2/m3). El análisis se centra en los cañones urbanos entendidos como el espacio de calle comprendido entre los límites geométricos de la calle, verticales y horizontales, y el nivel superior de la cota urbana nivel de cubiertas. Los escenarios analizados se basan en la variación de la los principales parámetros que según la literatura analizada condicionan las variaciones microclimáticas en el ámbito urbano afectado por la vegetación, la velocidad del viento y el LAD de la azotea. Los resultados han sido registrados bajo condiciones de exposición solar diferentes. Las simulaciones fueron realizadas por los patrones de viento típico de verano, que para Madrid se caracterizan por vientos de componente suroeste que van desde 3 a 0 m/s. las simulaciones fueron realizadas para unas condiciones climáticas de referencia de 3, 2, 1 y 0 m/s a nivel superior del cañón urbano, como condición de contorno para el análisis. Los resultados calculados a 1,4 metros por encima del nivel del suelo, en el espacio habitado, mostraron que el efecto de la cubierta ajardinada era menor en condiciones de contorno con velocidades de viento más altas aunque en ningún caso el efecto de la cubierta verde sobre la temperatura del aire superó reducciones de temperatura de aire superiores a 1 º C. La humedad relativa no presentó variaciones significativas al comparar los diferentes escenarios. Las simulaciones realizadas para vientos con velocidad baja, entre 0 y 1 m/s mostraron que por debajo de 0.5 m/s la turbulencia del modelo aumentó drásticamente y se convirtió en el modelo inestable e incapaz de producir resultados fiables. Esto es debido al modelo de turbulencia en el software que no es válido para velocidades de viento bajas, lo que limita la capacidad de ENVI-met 4 para realizar simulaciones en estas condiciones de viento y es una de las principales conclusiones de este análisis en cuanto a la herramienta de simulación. También se comprobó el efecto de las densidades de la densidad de hoja (LAD) de los componentes vegetales en el modelo en la capa de aire inmediatamente superior a la cubierta, a 0,5 m sobre este nivel. Se compararon tres alternativas de densidad de hoja con la cubierta de baldosa de hormigón: el techo verde con LAD 0.3 (hierba típica o sedum), LAD 1.5 (plantas mixtas típicas) y LAD 2.5 (masa del árbol). Los resultados mostraron diferencias de temperatura muy relevante entre las diferentes alternativas de LAD analizadas. Los resultados muestran variaciones de temperatura que oscilan entre 3 y 5 º C al comparar el estándar de la azotea concreta con albedo 0, 3 con el techo con vegetación y vegetación densa, mostrando la importancia del LAD en la cuantificación de los efectos de las cubiertas vegetales en microclima circundante, lo que coincide con los datos reportados en la literatura existente y con los estudios empíricos analizados. Los resultados de los análisis teóricos han llegado a las siguientes conclusiones iniciales relacionadas con la herramienta de simulación y los resultados del modelo: En relación con la herramienta ENVI-met, se han observado limitaciones para el análisis. En primer lugar, la estructura rígida de la geometría, las bases de datos y el tamaño de la cuadrícula, limitan la escala y resolución de los análisis no permitiendo el desarrollo de grandes zonas urbanas. Por otro lado la estructura de ENVI-met permite el desarrollo de este tipo de simulación tan complejo dentro de tiempos razonables de cálculo y requerimientos computacionales convencionales. Otra limitación es el modelo de turbulencia del software, que no modela correctamente velocidades de viento bajas (entre 0 y 1 m/s), por debajo de 0,5 m/s el modelo da errores y no es estable, los resultados a estas velocidades no son fiables porque las turbulencias generadas por el modelo hacen imposible la extracción de patrones claros de viento y temperatura que permitan la comparación entre los escenarios de cubierta de hormigón y ajardinada. Además de las limitaciones anteriores, las bases de datos y parámetros de entrada en la versión pública del software están limitados y la complejidad de generar nuevos sistemas adaptándolos al edificio o modelo urbano que se quiera reproducir no es factible salvo en la versión profesional del software. Aparte de las limitaciones anteriores, los patrones de viento y perfiles de temperatura generados por ENVI-met concuerdan con análisis previos en los que se identificaban patrones de variación de viento y temperaturas en cañones urbanos con patrones de viento, relación de aspecto y dimensiones similares a los analizados en esta investigación. Por lo tanto, el software ha demostrado una buena capacidad para reproducir los patrones de viento en los cañones de la calle y capturar el efecto de enfriamiento producido por la cubierta verde en el cañón. En relación con el modelo, el resultado revela la influencia del viento, la radiación y el LAD en la temperatura del aire en cañones urbanos con relación de aspecto comprendida entre 0,5 y 1. Siendo el efecto de la cubierta verde más notable en cañones urbanos sombreados con relación de aspecto 1 y velocidades de viento en el nivel de “canopy” (por encima de la cubierta) de 1 m/s. En ningún caso las reducciones en la temperatura del aire excedieron 1 º C, y las variaciones en la humedad relativa no excedieron 1% entre los escenarios estudiados. Una vez que se han identificado los parámetros relevantes, que fueron principalmente la velocidad del viento y el LAD, se realizó un análisis experimental para comprobar los resultados obtenidos por el modelo. Para éste propósito se identificó una cubierta ajardinada de grandes dimensiones capaz de representar la escala urbana que es el objeto del estudio. El edificio usado para este fin fue el parking de la terminal 4 del aeropuerto internacional de Madrid. Aunque esto no es un área urbana estándar, la escala y la configuración del espacio alrededor del edificio fueron considerados aceptables para el análisis por su similitud con el contexto urbano objeto de estudio. El edificio tiene 800 x 200 m, y una altura 15 m. Está rodeado de vías de acceso pavimentadas con aceras conformando un cañón urbano limitado por el edificio del parking, la calle y el edificio de la terminal T4. El aparcamiento está cerrado con fachadas que configuran un espacio urbano de tipo cañón, con una relación de aspecto menor que 0,5. Esta geometría presenta patrones de viento y velocidad dentro del cañón que difieren ligeramente de los generados en el estudio teórico y se acercan más a los valores a nivel de canopo sobre la cubierta del edificio, pero que no han afectado a la tendencia general de los resultados obtenidos. El edificio cuenta con la cubierta ajardinada más grande en Europa, 12 Ha cubiertas por con una mezcla de hierbas y sedum y con un valor estimado de LAD de 1,5. Los edificios están rodeados por áreas plantadas en las aceras y árboles de sombra en las fachadas del edificio principal. El efecto de la cubierta ajardinada se evaluó mediante el control de temperaturas y humedad relativa en el cañón en un día típico de verano. La selección del día se hizo teniendo en cuenta las predicciones meteorológicas para que fuesen lo más semejantes a las condiciones óptimas para capturar el efecto de la cubierta vegetal sobre el microclima urbano identificadas en el modelo teórico. El 09 de julio de 2014 fue seleccionado para la campaña de medición porque las predicciones mostraban 1 m/s velocidad del viento y cielos despejados, condiciones muy similares a las condiciones climáticas bajo las que el efecto de la cubierta ajardinada era más notorio en el modelo teórico. Las mediciones se registraron cada hora entre las 9:00 y las 19:00 en 09 de julio de 2014. Temperatura, humedad relativa y velocidad del viento se registraron en 5 niveles diferentes, a 1.5, 4.5, 7.5, 11.5 y 16 m por encima del suelo y a 0,5 m de distancia de la fachada del edificio. Las mediciones fueron tomadas en tres escenarios diferentes, con exposición soleada, exposición la sombra y exposición influenciada por los árboles cercanos y suelo húmedo. Temperatura, humedad relativa y velocidad del viento se registraron con un equipo TESTO 410-2 con una resolución de 0,1 ºC para temperatura, 0,1 m/s en la velocidad del viento y el 0,1% de humedad relativa. Se registraron las temperaturas de la superficie de los edificios circundantes para evaluar su efecto sobre los registros usando una cámara infrarroja FLIR E4, con resolución de temperatura 0,15ºC. Distancia mínima a la superficie de 0,5 m y rango de las mediciones de Tª de - 20 º C y 250 º C. Los perfiles de temperatura extraídos de la medición in situ mostraron la influencia de la exposición solar en las variaciones de temperatura a lo largo del día, así como la influencia del calor irradiado por las superficies que habían sido expuestas a la radiación solar así como la influencia de las áreas de jardín alrededor del edificio. Después de que las medidas fueran tomadas, se llevaron a cabo las siguientes simulaciones para evaluar el impacto de la cubierta ajardinada en el microclima: a. estándar de la azotea: edificio T4 asumiendo un techo de tejas de hormigón con albedo 0.3. b. b. cubierta vegetal : T4 edificio asumiendo una extensa cubierta verde con valor bajo del LAD (0.5)-techo de sedum simple. c. c. cubierta vegetal: T4 edificio asumiendo una extensa cubierta verde con alta joven valor 1.5-mezcla de plantas d. d. cubierta ajardinada más vegetación nivel calle: el edificio T4 con LAD 1.5, incluyendo los árboles existentes a nivel de calle. Este escenario representa las condiciones actuales del edificio medido. El viento de referencia a nivel de cubierta se fijó en 1 m/s, coincidente con el registro de velocidad de viento en ese nivel durante la campaña de medición. Esta velocidad del viento se mantuvo constante durante toda la campaña. Bajo las condiciones anteriores, los resultados de los modelos muestran un efecto moderado de azoteas verdes en el microclima circundante que van desde 1 º a 2 º C, pero una contribución mayor cuando se combina con vegetación a nivel peatonal. En este caso las reducciones de temperatura alcanzan hasta 4 ºC. La humedad relativa sin embargo, no presenta apenas variación entre los escenarios con y sin cubierta ajardinada. Las temperaturas medidas in situ se compararon con resultados del modelo, mostrando una gran similitud en los perfiles definidos en ambos casos. Esto demuestra la buena capacidad de ENVI-met para reproducir el efecto de la cubierta ajardinada sobre el microclima y por tanto para el fin de esta investigación. Las diferencias más grandes se registraron en las áreas cercanas a las zonas superiores de las fachadas que estaban más expuestas a la radiación del sol y también el nivel del suelo, por la influencia de los pavimentos. Estas diferencias se pudieron causar por las características de los cerramientos en el modelo que estaban limitados por los datos disponibles en la base de datos de software, y que se diferencian con los del edificio real. Una observación importante derivada de este estudio es la contribución del suelo húmedo en el efecto de la cubierta ajardinada en la temperatura del aire. En el escenario de la cubierta ajardinada con los arboles existentes a pie de calle, el efecto del suelo húmedo contribuye a aumentar las reducciones de temperatura hasta 4.5ºC, potenciando el efecto combinado de la cubierta ajardinada y la vegetación a pie de calle. Se realizó un análisis final después de extraer el perfil horario de temperaturas en el cañón urbano influenciado por el efecto de las cubiertas ajardinadas y los árboles. Con esos perfiles modificados de temperatura y humedad se desarrolló un modelo energético en el edificio asumiendo un edificio cerrado y climatizado, con uso de oficinas, una temperatura de consigna de acuerdo al RITE de 26 ºC, y con los sistemas por defecto que establece el software para el cálculo de la demanda energética y que responden a ASHRAE 90.1. El software seleccionado para la simulación fue Design Builder, por su capacidad para generar simulaciones horarias y por ser una de las herramientas de simulación energética más reconocidas en el mercado. Los perfiles modificados de temperatura y humedad se insertaron en el año climático tipo y se condujo la simulación horaria para el día definido, el 9 de Julio. Para la simulación se dejaron por defecto los valores de conductancia térmica de los cerramientos y la eficiencia de los equipos de acuerdo a los valores que fija el estándar ASHRAE para la zona climática de Madrid, que es la 4. El resultado mostraba reducciones en el consumo de un día pico de hasta un 14% de reducción en las horas punta. La principal conclusión de éste estudio es la confirmación del potencial de las cubiertas ajardinadas como una estrategia para reducir la temperatura del aire y consumo de energía en los edificios, aunque este efecto puede ser limitado por la influencia de los vientos, la radiación y la especie seleccionada para el ajardinamiento, en especial de su LAD. Así mismo, en combinación con los bosques urbanos su efecto se potencia e incluso más si hay pavimentos húmedos o suelos porosos incluidos en la morfología del cañón urbano, convirtiéndose en una estrategia potencial para adaptar los ecosistemas urbanos el efecto aumento de temperatura derivado del cambio climático. En cuanto a la herramienta, ENVI-met se considera una buena opción para éste tipo de análisis dada su capacidad para reproducir de un modo muy cercano a la realidad el efecto de las cubiertas. Aparte de ser una herramienta validada en estudios anteriores, en el caso experimental se ha comprobado por medio de la comparación de las mediciones con los resultados del modelo. A su vez, los resultados y patrones de vientos generados en los cañones urbanos coinciden con otros estudios similares, concluyendo por tanto que es un software adecuado para el objeto de esta tesis doctoral. Como líneas de investigación futura, sería necesario entender el efecto de la cubierta ajardinada en el microclima urbano en diferentes zonas climáticas, así como un mayor estudio de otras variables que no se han observado en este análisis, como la temperatura media radiante y los indicadores de confort. Así mismo, la evaluación de otros parámetros que afectan el microclima urbano tales como variables geométricas y propiedades superficiales debería ser analizada en profundidad para tener un resultado que cubra todas las variables que afectan el microclima en el cañón urbano. ABSTRACT Climate Change is posing an urgency in the development of strategies able not only to mitigate but also adapt to the effects that this global problem is evidencing around the world. Heat waves, flooding and severe draughts increase the vulnerability of population, and this is especially critical in urban settlements. This has been extensively studied over the past decades, addressed from different perspectives and ranging from the regional heat island analysis to the building scale. Its understanding requires physical and dimensional analysis of this broad phenomenon and a deep analysis of the factors and the strategies which can offset it. In the search of solutions to this problem, green infrastructure elements such as green roofs, walls and urban forests arise as strategies able provide multiple regulating ecosystem services to the urban environment able to cope with climate change effects. This includes storm water management, heat island effect control, and improvement of air and water quality. Over the last decade, multiple studies have been developed to evaluate and quantify the ecosystem services provided by green roofs, however, specific regulating services addressing urban microclimate and their impact on the urban dwellers have not been widely quantified. This research tries to contribute to fill this gap and analyzes the effects of green roofs and urban forests on urban microclimate at pedestrian level, quantifying its potential for regulating ambient temperature in hot season in Mediterranean –continental climates. The study is divided into a sequence of analysis where the critical factors affecting the performance of the green roof system on the microclimate are identified and the effects of the green roof is tested in a real case study. The first step has been the definition of the object of study, through the analysis and review of theoretical and empirical papers that investigate the effects of covers landscaped in the built environment, in the context of its use as a tool for adaptation and mitigation of the impact of climate change on cities and urban development. This literature review, reveals the great potential of the plant systems as a tool for passive design capable of improving the climatic and microclimatic conditions in the cities, as well as its positive impact on the energy performance of buildings, but also the need for further analysis at the street scale where climate, urban surfaces and materials, and vegetation converge. This analysis requires a methodology where the thermal buildings response, the variations in the patterns of wind and the interaction of the vegetation are integrated, so a quantitative analysis can help to define the most effective strategies to achieve liveable urban spaces and collaterally, , the improvement of the surrounding buildings energy performance. In this specific scale research is needed and should be customized to every climate, urban condition and nature based strategy. In this context, the main objective for this research was the quantitative assessment of the Green roof impact on the urban microclimate at a neighbourhood scale in summer conditions in Mediterranean- continental climates. For the achievement of this main objective, the following secondary objectives have been set: • Identify the numerical models and calculation tools able to capture the effect of the roof garden on the microclimate. • Identify the enhancing or limiting parameter affecting this effect. • Quantification of the impact of the microclimate created on the energy consumption of buildings surrounding the street canyon analysed. The main hypothesis behind this research and where the above objectives are funded on is as follows: "An extensive roof installed in medium height buildings favours the establishment of microclimates at the pedestrian level and reduces the temperatures in the urban environment where they are located." For the purpose of verifying the above hypothesis and achieving the proposed objectives the following methodology has been followed: - Definition of hypothesis and objectives - Definition of the scope and limitations - Theoretical analysis of parameters affecting gren roof performance - Experimental analysis; - Energy modelling analyisis - Conclusions and future lines of work The search for suitable tools and models for meeting the objectives of this analysis has led to ENVI-met v4 as the most suitable software for this research. ENVI met is a three-dimensional micro-climate model designed to simulate the surface-plant-air interactions in urban environments. Based in the fundamental equations representing, mass, energy and momentum conservation, the software has the capacity of representing the complex phenomena characterizing the microclimate in urban canyons, overcoming the challenge posed by the computing requirements of a full calculus based on finite elements done via traditional computational fluid dynamics tools. Once the analysis tool has been defined, a first set of analysis has been developed to identify the main parameters affecting the green roof influence on the microclimate. In this analysis, two different scenarios are compared. A neighborhood with standard concrete tile roof and the same configuration substituting the concrete tile by an extensive green roof. Once the scenarios have been modeled, different iterations have been run to identify the influence of different wind patterns, solar exposure and roof vegetation type on the microclimate, since those are the most relevant variables affecting urban microclimates. These analysis have been run to check the conditions under which the effects of green roofs get significance. Since ENVI-met V4 is a predictive software, the first step has been the definition of the initial weather conditions which are then used as starting point by the software, which generates its own daily temperature and humidity profile based on the location of the building, geometry, vegetation and the surfaces physical characteristics. The base geometry used for this first analysis has been based on a typical urban layout structure located in Madrid, an orthogonal net with the main streets oriented East-West to ease the analysis of solar radiation in the different points of the model. This layout represents a typical urban neighborhood, with street canyons keeping an aspect ratio between 0.5 and 1 and high sky view factor to ensure correct sun access to the streets and buildings and work with typical wind flow patterns. Finally, the roof vegetation has been defined in terms of foliage density known as Leaf Area Density (LAD) and defined as the total one-sided leaf area per unit of layer volume. This index is the most relevant vegetation characteristic for the purpose of calculating the effect of vegetation on wind and solar radiation as well as the energy consumed during its metabolic processes. The building as usual (BAU) configuring the urban layout has been defined with standard concrete tile roofs, considering 0.3 albedo. Walls have been set with albedo 0.2 (typical brick wall construction) and adiabatic to avoid interference caused by thermal interchanges with the building indoor environment. For the proposed case, the same geometry and building characteristics have been kept. The only change is the roof surface coverage. The gravel on the roof has been changed with an extensive green roof covered with drought tolerant plants, typical in Madrid climate, and characterized by their LAD. The different scenarios analysed are based in the variation of the wind speed and the LAD of the roof. The results have been recorded under different sun exposure conditions. Simulations were run for the typical summer wind patterns, that for Madrid are characterized by South-west winds ranging from 3 to 0 m/s. Simulations were run for 3, 2, 1 and 0 m/s at urban canopy level. Results taken at 1.4 m above the ground showed that the green roof effect was lower with higher wind speeds and in any case the effect of the green roof on the air temperatures exceeded air temperature reductions higher than 1ºC. Relative humidity presented no variations when comparing the different scenarios. For the analysis at 0m/s, ENVI-met generated error and no results were obtained. Different simulations showed that under 0.5 m/s turbulence increased dramatically and the model became unstable and unable to produce reliable results. This is due to the turbulence model embedded in the software which is not valid for low wind speeds (below 1 m/s). The effect of the different foliage densities was also tested in the model. Three different alternatives were compared against the concrete roof: green roof with LAD 0.3 ( typical grass or sedum), 1.5 (typical mixed plants) and 2.5 (tree mass). The results showed very relevant temperature differences between the different LAD alternatives analyzed. Results show temperature variations ranging between 3 and 5 ºC when comparing the standard concrete roof with albedo 0, 3 with the vegetated roof and vegetated mass, showing the relevance of the LAD on the effects of green roofs on microclimate. This matches the data reported in existing literature and empirical studies and confirms the relevance of the LAD in the roof effect on the surrounding microclimate. The results of the theoretical analysis have reached the following initial conclusions related to both, the simulation tool and the model results: • In relation to the tool ENVI-met, some limitations for the analysis have been observed. In first place, the rigid structure of the geometry, the data bases and the grid size, limit the scale and resolution of the analysis not allowing the development of large urban areas. On the other hand the ENVI-met structure enables the development of this type of complex simulation within reasonable times and computational requirements for the purpose of this analysis. Additionally, the model is unable to run simulations at wind speeds lower than 0.5 m/s, and even at this speed, the results are not reliable because the turbulences generated by the model that made impossible to extract clear temperature differences between the concrete and green roof scenarios. Besides the above limitations, the wind patterns and temperature profiles generated by ENVImet are in agreement with previous analysis identifying wind patterns in urban canyons with similar characteristics and aspect ratio. Therefore the software has shown a good capacity for reproducing the wind effects in the street canyons and seems to capture the cooling effect produced by the green roof. • In relation to the model, the results reveals the influence of wind, radiation and LAD on air temperature in urban canyons with aspect ratio comprised between 0.5 and 1. Being the effect of the green roof more noticeable in shaded urban canyons with aspect ratio 1 and wind speeds of 1 m/s. In no case the reductions in air temperature exceeded 1ºC. Once the relevant parameters have been identified, mainly wind speed and LAD, an experimental analysis was conducted to test the results obtained by the model. For this purpose a large green roof was identified, able to represent the urban scale which is the object of the studio. The building identified for this purpose was the terminal 4, parking building of the international Madrid Airport. Even though this is not a standard urban area, the scale and configuration of the space around the building were deemed as acceptable for the analysis. The building is an 800x200 m, 15 m height parking building, surrounded by access paved paths and the terminal building. The parking is enclosed with facades that configure an urban canyon-like space, although the aspect ratio is lower than 0.5 and the wind patterns might differ from the theoretical model run. The building features the largest green roof in Europe, a 12 Ha extensive green roof populated with a mix of herbs and sedum with a LAD of 1.5. The buildings are surrounded by planted areas at the sidewalk and trees shading the main building facades. Green roof performance was evaluated by monitoring temperatures and relative humidity in the canyon in a typical summer day. The day selection was done taking into account meteorological predictions so the weather conditions on the measurement day were as close as possible as the optimal conditions identified in terms of green roof effects on the urban canyon. July 9th 2014 was selected for the measurement campaign because the predictions showed 1 m/s wind speed and sunny sky, which were very similar to the weather conditions where the effect of the green roof was most noticeable in the theory model. Measurements were registered hourly from 9:00am to 19:00 on July 9th 2014. Temperature, relative humidity and wind speed were recorded at 5 different levels, at 1.5, 4.5, 7.5, 11.5 and 16 m above ground and at 0.5 m distance from the building façade. Measurements were taken in three different scenarios, sunny exposure, shaded exposure, and shaded exposure influenced by nearby trees and moist soil. Temperature, relative humidity and wind speed were registered using a TESTO 410-2 anemometer, with 0.1ºC resolution for temperature, 0.1 m/s resolution for wind speed and 0.1 % for relative humidity. Surface temperatures were registered using an infrared camera FLIR E4, with temperature resolution 0.15ºC. Minimal distance to surface of 0.5 m and Tª measurements range from -20ºC and 250ºC. The temperature profiles measured on the site showed the influence of solar exposure on the temperature variations along the day, as well as the influence of the heat irradiated by the building surfaces which had been exposed to the sun radiation and those influenced by the moist soft areas around the building. After the measurements were taken, the following simulations were conducted to evaluate the impact of the green roof on the microclimate: a. Standard roof: T4 building assuming a concrete tile roof with albedo 0.3. b. Green roof: T4 building assuming an extensive green roof with low LAD value (0.5)-Simple Sedum roof. c. Green roof: T4 building assuming an extensive green roof with high LAD value 1.5- Lucerne and grasses d. Green roof plus street level vegetation: T4 Building, LAD 1.5 (Lucerne), including the existing trees at street level. This scenario represents the current conditions of the building. The urban canopy wind was set as 1 m/s, the wind speed register at that level during the measurement campaign. This wind speed remained constant over the whole campaign. Under the above conditions, the results of the models show a moderate effect of green roofs on the surrounding microclimate ranging from 1ºC to 2ºC, but a larger contribution when combining it with vegetation at pedestrian level, where 4ºC temperature reductions are reached. Relative humidity remained constant. Measured temperatures and relative humidity were compared to model results, showing a close match in the profiles defined in both cases and the good capacity of ENVI met to capture the impact of the green roof in this analysis. The largest differences were registered in the areas close to the top areas of the facades which were more exposed to sun radiation and also near to the soil level. These differences might be caused by differences between the materials properties included in the model (which were limited by the data available in the software database) and those in the real building. An important observation derived from this study is the contribution of moist soil to the green roof effect on air temperatures. In the green roof scenario with surrounding trees, the effect of the moist soil contributes to raise the temperature reductions at 4.5ºC. A final analysis was conducted after extracting the hourly temperature profile in the street canyon influenced by the effect of green roofs and trees. An energy model was run on the building assuming it was a conventional enclosed building. Energy demand reductions were registered in the building reaching up to 14% reductions at the peak hour. The main conclusion of this study is the potential of the green roofs as a strategy for reducing air temperatures and energy consumption in the buildings, although this effect can be limited by the influence of high speed winds. This effect can be enhanced its combination with urban forests and even more if soft moist pavements are included in the urban canyon morphology, becoming a potential strategy for adapting urban ecosystems to the increasing temperature effect derived from climate change.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis presents the study carried out at an underground mine to understand the stress distribution in the paste fills and to calculate the stability of the paste walls in the primary and secondary stopes. The mine is operated using sublevel stopes and fan blasting. The primary and secondary stopes are 20m wide, 30m high and between 20 and 60m long. Three-dimensional numerical models designed with the FLAC 3D software programme are used to study the distribution of the vertical stresses in the paste walls exposed in the primary and secondary stopes, and their evolution as the mining advance increases. The numerical models have demonstrated that an arc-like effect is produced in the paste fills of the primary stopes, that is, those which have either lateral walls in mineral or rock. This effect relieves the vertical stresses and increases the stability of the exposed paste wall fill. From the study, it is deduced that in this type of stope, the fill stability can be calculated using the formula established by Mitchell, (Mitchell, Olsen, and Smith 1982, 14-28). Based on the results of the numerical models, in the 30m high secondary stopes, the arc effect starts to be evident only in paste walls with a width/height ratio lower than 0.7. 3-D calculations show that the use of Mitchell formula may be risky when estimating the fill stability in secondary stopes. Therefore, in these cases, the traditional two-dimensional method for calculating the stability of vertical slopes on cohesive saturated soils in the short term should be used. However this method may give conservative results for paste walls in secondary stopes with a width/height ratio below 0.5. RESUMEN Esta Tesis presenta el estudio realizado en la mina subterránea de Aguas Teñidas (Huelva, España) para comprender la distribución de tensiones en los rellenos de pasta y calcular la estabilidad de las paredes de pasta en las cámaras primarias y secundarias. El método de explotación utilizado en esta mina es el de cámaras con subniveles y voladura en abanico. Las cámaras primarias y secundarias tienen una anchura de 20 m, una altura de 30 m y una longitud variable entre 20 y 60 m. Mediante modelos numéricos tridimensionales realizados con el programa FLAC 3D se ha estudiado la distribución de las tensiones verticales en las paredes de pasta que quedan expuestas en las cámaras primarias y secundarias, y su evolución a medida que aumenta la superficie explotada. La modelización numérica ha puesto de manifiesto que se produce efecto arco en los rellenos de pasta de las cámaras primarias, o sea, aquellas que tienen ambos hastiales en mineral o en roca. Este efecto aligera las tensiones verticales y aumenta la estabilidad del relleno de la pared de pasta expuesta. De acuerdo con los resultados de los modelos numéricos, en las cámaras secundarias de 30 m de alto, el efecto arco empieza a manifestarse solamente en las paredes de pasta de relación anchura/altura menor de 0,7. Los cálculos realizados en tres dimensiones indican que la fórmula de Mitchell (Mitchell, Olsen, y Smith 1982, 14-28) puede resultar arriesgada para estimar la estabilidad del relleno en este tipo de cámaras. Por consiguiente, se recomienda utilizar en estos casos el método que tradicionalmente se ha empleado para calcular la estabilidad de taludes verticales en suelos cohesivos a corto plazo, en dos dimensiones. Aunque este método puede resultar conservador para paredes de pasta de cámaras secundarias con una relación anchura/altura inferior a 0,5. Para usar relleno de pasta para el sostenimiento en minería subterránea hay que tener en cuenta el cálculo de los parámetros de diseño, optimización de la mezcla, cualidades de bombeo y la operación de transporte al interior de la mina. Los gastos de ésta operación minera son importantes ya que pueden representar hasta de 20%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde hace ya algunos años la búsqueda de energías alternativas a los combustibles fósiles es uno de los grandes retos a nivel mundial. Según los datos de la Agencia Estadounidense de Información sobre la Energía (EIA), el consumo energético en el mundo fue de 18 TW en 2015 y se espera que este consumo se dispare hasta alcanzar los 25 TW en 2035 y los 30 TW en 2050. Parece, por tanto, necesario dar respuesta a esta demanda creciente, y no solo considerar de dónde va a proceder esta energía sino también cuáles van a ser las consecuencias derivadas de este aumento en el consumo energético. Ya en el año 2007 la Academia Sueca reconoció, con la concesión del Premio Nobel de la Paz al ex vicepresidente de Estados Unidos Al Gore y al Grupo Intergubernamental de expertos sobre Cambio Climático (IPCC) de Naciones Unidas, la necesidad de concienciación de que el modelo de desarrollo que tenemos es ecológicamente insostenible. En este contexto, las energías renovables en general y, la energía solar en particular, tienen mucho que ofrecer. Una de las mayores ventajas de la energía solar respecto a las otras fuentes de energía es su enorme potencial, que los investigadores que trabajan en este campo resumen con la siguiente afirmación: la cantidad de energía solar que la Tierra recibe en una hora es mayor que el consumo mundial en el planeta durante todo un año. Al hablar de energía solar se suele distinguir entre energía solar térmica y energía solar fotovoltaica; la primera consiste en aprovechar la energía del sol para convertirla en calor, mientras que la segunda pretende transformar la radiación solar en electricidad por medio de unos dispositivos llamados células fotovoltaicas. Y es precisamente en este campo donde se centra este proyecto. El fundamento científico en el que se basan las células fotovoltaicas es el efecto fotoeléctrico, descubierto por Becquerel en 1839. No obstante, tendrían que pasar más de cien años hasta que investigadores de los laboratorios Bell en 1954 desarrollaran una célula de silicio monocristalino con un rendimiento del 6%. Y en 1958, con el lanzamiento del satélite Vangard I equipado con paneles solares se pudo demostrar la viabilidad de esta tecnología. Desde entonces, la investigación en esta área ha permitido desarrollar dispositivos con eficiencias superiores al 20%. No obstante, la fotovoltaica tradicional basada en elementos semiconductores tipo silicio presenta algunos inconvenientes como el impacto visual de los parques solares, los costes elevados o los rendimientos no muy altos. El descubrimiento de materiales orgánicos semiconductores, reconocido con el Premio Nobel de Química a Heeger, MacDiarmid y Shirakawa en 1976, ha permitido ampliar el campo de la fotovoltaica, ofreciendo la posibilidad de desarrollar células solares orgánicas frente a las células tradicionales inorgánicas. Las células fotovoltaicas orgánicas resultan atractivas ya que, en principio, presentan ventajas como reducción de costes y facilidad de procesado: los materiales orgánicos se pueden elaborar mediante procesos de impresión y recubrimiento de alta velocidad, aerosoles o impresión por inyección y se podrían aplicar como una pintura sobre superficies, tejados o edificios. La transformación de la energía solar en corriente eléctrica es un proceso que transcurre en varias etapas: 1. Absorción del fotón por parte del material orgánico. 2. Formación de un excitón (par electrón-hueco), donde el electrón, al absorber el fotón, es promovido a un nivel energético superior dejando un hueco en el nivel energético en el que se encontraba inicialmente. 3. Difusión del excitón, siendo muy decisiva la morfología del dispositivo. 4. Disociación del excitón y transporte de cargas, lo que requiere movilidades altas de los portadores de cargas. 5. Recolección de cargas en los electrodos. En el diseño de las células solares orgánicas, análogamente a los semiconductores tipo p y tipo n inorgánicos, se suelen combinar dos tipos de materiales orgánicos: un material orgánico denominado dador, que absorbe el fotón y que a continuación deberá ceder el electrón a un segundo material orgánico, denominado aceptor. Para que la célula resulte eficaz es necesario que se cumplan simultáneamente varios requisitos: 1. La energía del fotón incidente debe ser superior a la diferencia de energía entre los orbitales frontera del material orgánico, el HOMO (orbital molecular ocupado de más alta energía) y el LUMO (orbital desocupado de menor energía). Para ello, se necesitan materiales orgánicos semiconductores que presenten una diferencia de energía entre los orbitales frontera (ELUMO-EHOMO= band gap) menor de 2 eV. Materiales orgánicos con estas características son los polímeros conjugados, donde alternan dobles enlaces carbono-carbono con enlaces sencillos carbono-carbono. Uno de los polímeros orgánicos más utilizados como material dador es el P3HT (poli-3-hexiltiofeno). 2. Tanto el material orgánico aceptor como el material orgánico dador deben presentar movilidades altas para los portadores de carga, ya sean electrones o huecos. Este es uno de los campos en los que los materiales orgánicos se encuentran en clara desventaja frente a los materiales inorgánicos: la movilidad de electrones en el silicio monocristalino es 1500 cm2V-1s-1 y en el politiofeno tan solo 10-5 cm2V-1s-1. La movilidad de los portadores de carga aparece muy relacionada con la estructura del material, cuanto más cristalino sea el material, es decir, cuanto mayor sea su grado de organización, mejor será la movilidad. Este proyecto se centra en la búsqueda de materiales orgánicos que puedan funcionar como dadores en el dispositivo fotovoltaico. Y en lugar de centrarse en materiales de tipo polimérico, se ha preferido explorar otra vía: materiales orgánicos semiconductores pero con estructura de moléculas pequeñas. Hay varias razones para intentar sustituir los materiales poliméricos por moléculas pequeñas como, por ejemplo, la difícil reproducibilidad de resultados que se encuentra con los materiales poliméricos y su baja cristalinidad, en general. Entre las moléculas orgánicas sencillas que pudieran ser utilizadas como el material dador en una célula fotovoltaica orgánica llama la atención el atractivo de las moléculas de epindolidiona y quinacridona. En los dos casos se trata de moléculas planas, con enlaces conjugados y que presentan anillos condensados, cuatro en el caso de la epindolidiona y cinco en el caso de la quinacridona. Además ambos compuestos aparecen doblemente funcionalizados con grupos dadores de enlace de hidrógeno (NH) y aceptores (grupos carbonilo C=O). Por su estructura, estas moléculas podrían organizarse tanto en el plano, mediante la formación de varios enlaces de hidrógeno intermoleculares, como en apilamientos verticales tipo columnar, por las interacciones entre las superficies de los anillos aromáticos que forman parte de su estructura (tres en el caso de la quinacridona) y dos (en el caso de la epindolidiona). Esta organización debería traducirse en una mayor movilidad de portadores de carga, cumpliendo así con uno de los requisitos de un material orgánico para su aplicación en fotovoltaica. De estas dos moléculas, en este trabajo se profundiza en las moléculas tipo quinacridona, ya que el desarrollo de las moléculas tipo epindolidiona se llevó a cabo en un proyecto de investigación financiado por una beca Repsol y concedida a Guillermo Menéndez, alumno del Grado en Tecnologías Industriales de esta escuela. La quinacridona es uno de los pigmentos más utilizados y se estima que la venta anual de los mismos alcanza las 4.000 toneladas por año. Son compuestos muy estables tanto desde el punto de vista térmico como fotoquímico y su síntesis no resulta excesivamente compleja. Son además compuestos no tóxicos y la legislación autoriza su empleo en cosméticos y juguetes para niños. El inconveniente principal de la quinacridona es su elevada insolubilidad (soluble en ácido sulfúrico concentrado), por lo que aunque resulta un material muy atractivo para su aplicación en fotovoltaica, resulta difícil su implementación. De hecho, solo es posible su incorporación en dispositivos fotovoltaicos funcionalizando la quinacridona con algún grupo lábil que le proporcione la suficiente solubilidad para poder ser aplicado y posteriormente eliminar dicho grupo lábil. La propuesta inicial de este proyecto es intentar desarrollar quinacridonas que sean solubles en los disolventes orgánicos más habituales tipo cloruro de metileno o cloroformo, para de este modo poder cumplir con una de las ventajas que, a priori, ofrecen las células fotovoltaicas orgánicas frente a las inorgánicas, como es la facilidad de su procesado. El objetivo se centra, por lo tanto, en la preparación de quinacridonas solubles pero sin renunciar a su capacidad para formar enlaces de hidrógeno ni a su capacidad de apilamiento π-π, ya que se quiere mantener los valores de movilidad de portadores para la quinacridona (movilidad de huecos 0,2 cm2V-1s-1). En primer lugar se intenta la preparación de una quinacridona que presenta la ventaja de que los materiales de partida para su síntesis son comerciales: a partir del succinato de dimetilo y de 4-tetradecilanilina se podía acceder, en una síntesis de cuatro etapas, a la molécula deseada. La elección de la amina aromática con la sustitución en posición 4 presenta la ventaja de que en la etapa de doble ciclación necesaria en la síntesis, solo se forma uno de los regioisómeros posibles; este hecho es de gran relevancia para conseguir compuestos con altas movilidades, ya que la presencia de mezcla de regioisómeros, como se ha demostrado con otros compuestos como el P3HT, reduce considerablemente la movilidad de los portadores. Se obtiene así una quinacridona funcionalizada con dos cadenas lineales de 14 carbonos cada una en posiciones simétricas sobre los anillos aromáticos de los extremos. Se espera que la presencia de la superficie aromática plana y las dos cadenas lineales largas pueda conducir a una organización del material similar a la de un cristal líquido discótico. Sin embargo, el producto obtenido resulta ser tremendamente insoluble, no siendo suficiente las dos cadenas de 14 carbonos para aumentar su solubilidad respecto a la quinacridona sin funcionalizar. Se prepara entonces un derivado de esta quinacridona por alquilación de los nitrógenos. Este derivado, incapaz de formar enlaces de hidrógeno, resulta ser fácilmente soluble lo que proporciona una idea de la importancia de los enlaces de hidrógeno en la organización del compuesto. La idea inicial es conseguir, con una síntesis lo más sencilla posible, una quinacridona soluble, por lo que se decide utilizar la 4-t-butilanilina, también comercial, en lugar de la 4-tetradecilanilina. La cadena de t-butilo solo aporta cuatro átomos de carbono, pero su disposición (tres grupos metilo sobre un mismo átomo de carbono) suele conducir a resultados muy buenos en términos de solubilidad. Otra vez, la incorporación de los dos grupos t-butilo resulta insuficiente en términos de solubilidad del material. En estos momentos, y antes de explorar otro tipo de modificaciones sobre el esqueleto de quinacridona, en principio más complejos, se piensa en utilizar una amina aromática funcionalizada en la posición adyacente a la amina, de manera que el grupo funcional cumpliera una doble misión: por una parte, proporcionar solubilidad y por otra parte, perturbar ligeramente la formación de enlaces de hidrógeno, que han evidenciado ser una de las causas fundamentales para la insolubilidad del compuesto. Se realiza un análisis sobre cuáles podrían ser los grupos funcionales más idóneos en esta posición, valorando dos aspectos: el impedimento estérico que dificultaría la formación de enlaces de hidrógeno y la facilidad en su preparación. Ello conduce a optar por un grupo tioéter como candidato, ya que el 2-aminobencenotiol es un compuesto comercial y su adecuada funcionalización conduciría a una anilina con las propiedades deseadas. Se realiza simultáneamente la preparación de una quinacridona con una cadena de 18 átomos de carbono y otra quinacridona de cadena corta pero ramificada. Y finalmente, con estas quinacridonas se logra obtener compuestos solubles. Por último, se realiza el estudio de sus propiedades ópticas, mediante espectroscopia UV-Visible y fluorescencia, y se determinan experimentalmente los band gap, que se aproximan bastante a los resultados teóricos, en torno a 2,2 eV en disolución. No obstante, y aun cuando el band gap pueda parecer algo elevado, se sabe que en disolución las barreras energéticas son más elevadas que cuando el material se deposita en film. Por otra parte, todas las quinacridonas sintetizadas han demostrado una elevada estabilidad térmica. Como resumen final, el trabajo que aquí se presenta, ha permitido desarrollar una ruta sintética hacia derivados de quinacridona solubles con buenas perspectivas para su aplicación en dispositivos fotovoltaicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La perspectiva del arquitecto en calidad ambiental, y salud en un contexto sostenible, se amplía al considerar las radiaciones electromagnéticas no ionizantes en el diseño arquitectónico. En ese sentido, además del confort higrotérmico, acústico, lumínico y de la calidad del aire, se podría considerar el confort electromagnético de un lugar. Dado que existe gran controversia en cuales han de ser los límites de exposición a radiaciones electromagnéticas no ionizantes, establezco como punto de referencia los valores límite más restrictivos, que son los recomendados por la norma SBM-2008, desarrollada por el Institut für Baubiologie & Oekologie Neubeuern (IBN)1. Se plantean como hipótesis que podemos modificar el entorno electromagnético con materiales de construcción y geometría; y que determinados trazados geométricos tienen la capacidad de reducir el impacto de los campos electromagnéticos sobre los organismos vivos. El objetivo consiste en demostrar experimentalmente que podemos trabajar sobre la calidad ambiental electromagnética de un espacio, a través de la elección de materiales de construcción y trazados geométricos, intentando demostrar que existe una relación causa - efecto entre ambos. La metodología plantea tres aproximaciones experimentales, cada una con un tipo de radiación electromagnética, pues se pretende abarcar las situaciones que comúnmente se pueden presentar en un entorno habitado, ya sea urbano o rural. La primera aproximación trata sobre las alteraciones del campo geomagnético natural (nT / m) provocadas por los materiales de construcción. Utilizo el geomagnetómetro BPM 2010, para realizar un ensayo con cuatro tipos de materiales de distinta procedencia: origen vegetal muy poco procesado (corcho aglomerado negro) y más procesado (OSB), origen derivado del petróleo (tablero rígido de poliuretano) y de origen mineral metálico (chapa minionda). De la lectura de los datos se observa relación causa-efecto entre los materiales de construcción estudiados y las modificaciones que pueden ejercer sobre el campo magnético de un lugar. A continuación se estudia el entorno de radiación electromagnética artificial a baja frecuencia (3 Hz a 3 kHz) y a alta frecuencia, (800 MHz a 10 GHz) en vivienda y en oficina utilizando unas geometrías concretas: las tarjetas de corrección de radiaciones. Estas tarjetas se ubican en paramentos verticales y horizontales de un espacio sometido a radiación propia de un entorno urbano. Se concluye que en una habitación inciden múltiples variables simultáneas muy difíciles de trabajar por separado y que aparentemente no se pueden identificar cambios significativos en las mediciones con y sin las tarjetas de corrección de radiaciones. A continuación estudio el entorno de radiación electromagnética artificial a baja frecuencia asociada a la red de distribución eléctrica. Para poder ver cómo este entorno electromagnético lo podemos modificar, utilizo las tarjetas de corrección de radiaciones ubicadas en relación directa con organismos vivos, por un lado germinados de semillas de haba mungo sometidas a campos electromagnéticos complejos a alta y baja frecuencia, propios de una oficina; y por otro lado germinados de semillas de haba mungo, sometidas a campos electromagnéticos puros a 50 Hz, sin influencias de radiación a alta frecuencia. Se concluye que se observa relación causa - efecto entre los trazados geométricos estudiados y su capacidad para reducir el impacto de los campos electromagnéticos a altas y bajas frecuencias sobre las semillas de haba mungo. También utilizo las tarjetas de corrección de radiaciones en un ensayo normalizado en el laboratorio de bioelectromagnetismo del Hospital Universitario Ramón y Cajal, con células de neuroblastoma humano. Se concluye que se observa relación causa - efecto entre los trazados geométricos estudiados y su capacidad para reducir el impacto de los campos electromagnéticos de 50 Hz Y 100 μT sobre células de neuroblastoma humano y además disminuyen la velocidad de proliferación celular respecto del grupo de células de control. Finalmente se estudia el entorno de radiación electromagnética artificial a alta frecuencia, asociado a comunicaciones inalámbricas. Para ello realizo simulaciones con el software CST Studio, sobre las tarjetas de corrección de radiaciones a alta frecuencia. A la luz de los datos se observa relación causa - efecto entre el trazado geométrico estudiado y su capacidad para reducir radiaciones electromagnéticas de alta frecuencia. Se comprueba además que, las tarjetas de corrección de radiaciones disminuyen la intensidad de la radiación acercándose a los límites de exposición establecidos por el instituto de la biología de la construcción alemán, que podrían estar señalando los estándares de biocompatibilidad. ABSTRACT The perspective of the architect in environmental quality, and health in a sustainable context is extended to consider non-ionizing electromagnetic radiation in architectural design. In that sense, besides the hygrothermal, acoustic, lighting and air quality comfort, the electromagnetic comfort of an indoor space could be considered. There is still great controversy about which should be the limits of exposure to nonionizing electromagnetic radiation, as a benchmark, the more restrictive limits are considered, by the SBM- 2008 standard, developed by the Institut für Baubiologie & Oekologie Neubeuern (IBN). The hypotheses that arise are the following: the electromagnetic environment can be modified by using certain construction materials and geometry; and certain geometric design have the ability to reduce the impact of electromagnetic fields on living organisms. The aim is to demonstrate experimentally that we can work on electromagnetic environmental quality of a indoor space, by using certain construction materials and geometric design, trying to demonstrate a cause - effect relationship between them. The methodology raises three experimental approaches, each with a type of radiation, it is intend to cover situations commonly may occur in an inhabited environment, whether urban or rural. The first approach discusses the alteration of the natural magnetic field (nT / m) caused by the building materials. Geomagnetometre BPM 2010 is used for conducting a test with four types of materials from different sources: vegetable origin less processing (black agglomerate cork) and vegetable origin more processed (OSB), petroleum origin (rigid polyurethane board) and metallic origin (miniwave plate). It is observed across the data information that exist cause-effect relationship between the construction materials studied and the modifications that they can exercise on the magnetic field of a place. Then I study the environment of artificial electromagnetic radiation at low frequency (3 Hz to 3 kHz) and high frequency (800 MHz to 10 GHz) in housing and office, using some specific geometries: correcting radiation cards. These cards are placed in vertical and horizontal surfaces of an indoor space concerned by radiation. I conclude that an indoor space is affected by multiple simultaneous variables difficult to work separately and apparently it is not possible identify significant changes in measurements with and without correcting radiation cards. Then the artificial electromagnetic environment of low-frequency radiation associated with the electricity distribution network is studied. To see how the electromagnetic environment can be changed, correcting radiation cards are placed directly related to living organisms. On one hand, mung bean seeds subject to complex electromagnetic fields at low and high frequency, typical of an office; and on the other hand mung bean seeds, subjected to pure electromagnetic fields at 50 Hz, no influenced by high frequency radiation. It is observed that exist cause-effect relationship between the geometric design and their ability to reduce the impact of electromagnetic fields at high and low frequencies that arrives on on mung bean seeds. The correcting radiation cards were also used in a standard test in the bioelectromagnetics laboratory of Ramón y Cajal University Hospital, on human neuroblastoma cells. It is observed that exist cause-effect relationship between the geometric design and their ability to reduce the impact of electromagnetic fields at 50 Hz and 100 μT on human neuroblastoma cells and also decrease the rate of cell proliferation compared to the group of cells control. Finally the artificial electromagnetic radiation environment at high frequency associated with wireless communications was studied. Simulations with CST Study software were made to determine the behavior of correcting radiation cards in high-frequency. It is observed across the data information that exist causeeffect relationship between the geometric design and the ability to reduce the levels of high-frequency electromagnetic radiation. It also checks that radiation correcting cards decrease the intensity of radiation approaching exposure limits established by Institut für Baubiologie & Oekologie Neubeuern (IBN), which could be signaling biocompatibility standards.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo visa pesquisar e compreender o fenômeno social da Representação dos Trabalhadores no Local de Trabalho na região do Grande ABC. Inicialmente, através de uma revisão de literatura, traçar um histórico da comissão de fábrica e organizações semelhantes pelo mundo, observando sua prática nestes países e abordando administração participativa e o socialismo europeu e a sua autodeterminação. Na sequência abordar a comissão de fábrica no Brasil, narrar a história da primeira comissão de fábrica oficial instalada no país, na fábrica da Ford em São Bernardo do Campo. Segue estudo de tabulação de pesquisa de campo efetuada, com ênfase aos seguintes aspectos: constata-se a prática da RLT pelas empresas; constitui-se a RLT através de empregados indicados pelos trabalhadores, empresas ou pelos sindicatos de trabalhadores; regulamenta-se a RLT através de estatuto; efetiva-se a participação e influência do sindicato dos trabalhadores na RLT; a quais interesses atende a RLT, empresas, sindicatos de trabalhadores ou trabalhadores. A metodologia a ser utilizada é qualitativa, seguida de pesquisa de campo realizada em grupo, com entrelaçamento destes dados com a experiência profissional do autor. A conclusão do estudo é que a RLT é pouco praticada, seus membros são indicados pelos trabalhadores e respectivos sindicatos, prevalece a RLT regulamentada, havendo participação e influência dos sindicatos de trabalhadores. A RLT atende prioritariamente aos interesses das empresas, seguido dos interesses dos sindicatos de trabalhadores e por último, os interesses dos trabalhadores.(AU)