956 resultados para Geometry of numbers


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Se recoge en esta tesis doctoral la definición y clasificación de los edificios cuya finalidad es proporcionar espacios para escuchar y producir música. Se centra en aquellos construidos a lo largo del siglo XX, en el área geográfica y cultural que forman Europa occidental y Estados Unidos. Se analizan edificios construidos en el pasado, en una serie que se origina a mediados del siglo XIX y que se culmina terciado el propio siglo XX. Son edificios que contienen espacios pensados para músicas que, sin embargo, en su mayoría fueron creadas en un periodo anterior, desde mediados del siglo XVIII hasta las primeras décadas del siglo pasado. Un auditorium es un edificio cuya idea conlleva la compleja herencia de los múltiples lugares, abiertos y cerrados, que han alojado la música a lo largo del tiempo. Es un edificio que es útil a la sociedad y que ocupa un lugar significativo dentro de la ciudad, y es consecuencia del campo de fuerzas que constituyen los avances técnicos, el progreso de las sociedades urbanas y la evolución del arte, al compartir estrechamente, música y arquitectura, el interés por hallar la expresión de una nueva relación con la naturaleza. Se parte de la hipótesis de que el auditorium puede constituir un tipo arquitectónico con entidad suficiente para generar una tipología. Entendida ésta como una herramienta que dota de conocimientos útiles a quien va a proyectar un edificio para la música y también que permita abrir el campo de pensamiento sobre el espacio musical, sin necesidad de recurrir a modelos previos, aunque se hayan manifestado útiles y precisos. Se comienza con una aproximación a una definición del término «auditorium » y se analizan a qué funciones responde y en qué es distinto de otros edificios, a través de determinar las características formales propias. Para ello se articula la tesis en varios bloques de análisis. I Elementos para una tipología Se indaga en los atributos que determinan la naturaleza de los auditorios para definir cómo son estos edificios y qué características y condiciones tienen, no sólo las salas sino también los edificios que las contienen, buscando el origen de los espacios musicales y su relación con las personas que allí se han reunido para celebrar, a través de la música, acontecimientos colectivos. Relación que ha comportado desplazamientos por los distintos espacios que ha compartido, supeditada a otras actividades, hasta que finalmente, la música ha reclamado espacios propios. Pero también se establece otra relación física entre las distintas posiciones que ocupan en el espacio cuantos intervienen en la celebración del hecho musical, músicos y público. De otra parte se analiza cómo son sus espacios interiores, salas y vestíbulos, y los volúmenes y formas de los edificios en relación con la ciudad. Su conexión con la idea del paisaje abierto y con el carácter originario de la cueva. II Cinco tiempos Los edificios sobre los que se van explorar estas capacidades son en muchos casos arquitecturas divulgadas y conocidas. Sin embargo no todas han tenido desde su aparición el mismo grado de aprecio ni reconocimiento, y sólo el paso del tiempo ha confirmado su excelencia. El estudio se estructura en los periodos marcados por los acontecimientos bélicos y las grandes crisis que sacudieron Europa y Norte América desde comienzos del siglo XX. La identificación de los elementos significativos de la tipología se hace a través del análisis de distintos tiempos que agrupan casos heterogéneos, tiempos entendidos unas veces como la relación entre edificios coetáneos y otra como proyectos pensados por un mismo arquitecto y se detiene, entre otros, en cuatro excepcionales edificios que condensan la experiencia de varias décadas y demuestran su plenitud arquitectónica, por haber evolucionado de modelos precedentes o por su novedosas aportaciones. El Royal Festival Hall (1951), el Kresge Auditorium (1954), el Kulttuuritalo (1958) y la Philharmonie de Berlín (1963), sirven de base para una clasificación del auditorium. III Cronología gráfica Este apartado es fundamentalmente gráfico y consta un inventario de más de 100 archivos correspondientes a otros tantos auditorios y sus salas, en orden cronológico. Cada archivo cuenta con una imagen del exterior del edificio y otra del interior de la sala. Se han incorporado en cada uno de los archivos, dos dibujos a la misma escala. El primero muestra la planta de la sala con tres parámetros: la ocupación del público en referencia al lugar que ocupa la orquesta, la relación de tamaño entre la sala y las de los cuatro auditorios de referencia y la distancia al foco de sonido, la orquesta, mediante una escala en metros. Estos tres parámetros están superpuestos al que he considerado espacio audible, un rectángulo de 60 por 90 metros, en el que el foco está desplazado, por considerar que el sonido de una orquesta tiene una componente directional y que en esas dimensiones la energía sonora no decae. En el friso bajo el dibujo, aparecen cuatro iconos que informan de la relación formal de la sala con la del auditorium. Puede ser una sala dentro de un edificio sin correspondencia formal, un edificio en el que se manifiesta exteriormente el volumen de la sala, un edificio que tiene la forma de la sala y resuelve el resto del programa funcional sin manifestarlo exteriormente o, finalmente un edificio complejo cuya forma absorbe dos o más salas de música. El segundo dibujo es la sección longitudinal de la sala, recortada sobre un fondo negro para destacar su forma y proporción, todas están a la misma escala y en la misma dirección respecto del escenario para facilitar su lectura y comparación. En el parte inferior de la sección, aparecen cuatro esquemas de la forma y distribución en planta sobre el que destaca la de cada caso de estudio. La forma del techo de las salas de música de los auditorios, expresada a través de la sección longitudinal, es uno de los elementos que caracteriza el espacio musical. El perímetro de la sección, determina su superficie y por tanto, el volumen total interior. Es una herramienta técnica que permite dirigir el sonido reflejado en él, hasta cualquier lugar del interior de la sala, garantizando una distribución homogénea y evitando concentraciones perjudiciales o «sombras acústicas», lugares donde no llegan las primeras reflexiones. IV Geometría de las salas El análisis efectuado permite la elaboración de paralelos de tres de los elementos fundamentales de la tipología de las salas de los auditorium y que definen el espacio musical. El perímetro de la sección y su superficie que establecen el volumen total interior, que es un factor determinante en la reverberación de una sala. La forma y superficie del techo, que interviene directamente en el cálculo de la absorción del sonido, en función de la cualidad reflejante o absorbente del material con el que está construido, y por otra parte en la distribución del sonido en el espacio. Y por último, la forma del suelo de las salas también expresada a través de la sección longitudinal, es otro de los elementos que caracteriza el espacio musical. El modelado del suelo permite mediante distintas pendientes garantizar la correcta visión del escenario y por tanto permite también una buena audición, puesto que la llegada directa del sonido está asegurada. La otra limitación dimensional es el ancho de la grada. Cuando se ha buscado incrementar al máximo la capacidad de una sala, se han establecido graderíos en balcones en voladizo para no penalizar la distancia al escenario, de manera que algunas partes del graderío quedan cubiertas, en detrimento de su calidad acústica al privarlas de las primeras reflexiones que proceden del techo. V Auditórium y ciudad El auditorium es un edificio singular que establece con la ciudad una relación particular y que contiene en su interior una o varias salas especiales destinadas a oír y ejecutar música, a las que se accede a través de otros espacios de carácter social. Han ido evolucionando y modificándose de manera ininterrumpida, dando lugar a edificios de diversa complejidad en su programa y a salas cada vez mas especificas para cumplir mejor su cometido, perfeccionando su sonido y buscando la más elevada musicalidad. Estos edificios disponen de otros ámbitos de relación, son los espacios interiores, vestíbulos y escaleras, generalmente generosos en superficie y espacialidad, previos al espacio musical, corazón del auditorium donde suena la música en condiciones acústicas precisas. También el lugar donde se construyen los auditoriums en las ciudades tiene un especial significado, porque generalmente han buscado interponer espacios abiertos o ajardinados que suavicen el contacto directo con la ciudad y que implican, por otra parte, una preparación de las personas que asisten para escuchar los conciertos. Con el paso del tiempo, la aceptación generalizada de formas afianzadas en la ciudad, será uno de los vehículos que permita contaminar a otros tipos de edificios y alcanzar una libertad formal renovadora de los paisajes urbanos. Conclusiones La disolución del espacio musical convencional pregonado por el pabellón Philips del año 1958, no ha impedido que hoy siga vivo para el arquitecto el reto del proyecto y construcción del auditorium. Hoy conviven experiencias musicales totales; imagen, luz y movimiento, ocupando todo tipo de espacios públicos, cerrados o al aire libre, con la voluntad de conseguir espacios capaces de crear la intimidad y las precisas condiciones ambientales que hagan posible la recreación de las músicas del pasado en una especie de emocionante museo sonoro vivo. Como edificios urbanos, los auditoriums han conseguido un lugar destacado en la iconografía urbana después de un largo camino hasta conseguir el reconocimiento social. Se puede, así, establecer que estos edificios han introducido en la ciudad una nueva manera de expresarse la arquitectura. Que lo inesperado de sus formas y volúmenes en el espacio urbano, o la sorpresa de sus interiores altamente técnicos, justificados para satisfacer las nuevas necesidades impuestas por una audiencia cada vez más y más experta, obtienen la aceptación urbana por su utilidad social y por su capacidad de establecer una relación distinta entre las personas, la ciudad y la naturaleza. Coda Finalmente, el epílogo habla de la metamorfosis del espacio musical y de la convivencia de distintos espacios musicales en la actualidad. Desde la creación de las primeras y sencillas salas de música hasta las grandes salas filarmónicas que se construyen en las últimas décadas, la arquitectura ha proporcionado lugares adecuados para contener y disfrutar la música, espacios que se han modificado según cambiaban las formas musicales. Sin embargo el sonido parece mostrarse reticente a ser encerrado en el espacio y busca aliarse con el tiempo para conseguir un desplazamiento permanente. Seguramente es en el pabellón Philips de Bruselas en 1958 donde se presenta el último intento de la arquitectura de contener la música, que impulsada por tecnologías absolutamente nuevas, se mueve como dardos que atraviesan el espacio en todos los lugares y en todas las direcciones. Desde aquellas décadas centrales del pasado siglo, y superando los mas optimistas intentos de distribuir masivamente la música a través de incipientes tecnologías, se puede afirmar que vivimos en una inmersión sonora universal. Anexos Incluyen, una colección de mapas de la geografía de los auditorios europeos y norte-americanos, referenciados a los periodos de su construcción, y una relación de los auditorios estudiados con referencias bibliográficas. ABSTRACT This doctoral thesis does not only look at the ways in which architecture and music relate with one another; it also seeks to be an exact, scientific study of auditoriums, a building type that first appeared in the 20th century as a place in which to produce and listen to music. It studies concert halls, raised in Europe and the United Stated in the 20th century, for the purpose of recreating older music, that were the result of the evolution of various ancient building types. Auditoriums have a complex heritage of architecture of all times, openair and covered alike, and occupy important spots in cities. They incorporate the technical innovations of their times, and are reflections not only of the music played within them, but also of the societies that built them. Music and architecture share an interest in connecting with nature. Auditorium, a 20th-century Typology tries to define this building typology, and with that, be a practical tool in designing and constructing spaces for music, besides exploring the relationship between the two disciplines, architecture and music, and establishing the foundations for an entire school of thought. It is organized in five chapters, each focusing on a particular aspect of auditoriums, all towards defining a possible typology: I Typology elements. A study of the origin of auditoriums, and of how the different parts of these buildings —the actual concert hall, the foyer, the open spaces— relate with the city and with nature, which is ever present in music and in the origin of auditoriums. II Five sequences. A chronological journey through the 20th century, in periods marked by the two world wars and the consequent crises, with case studies of four exceptional buildings: the Royal Festival Hall (1951), the Kresge Auditorium (1954), the Kulttuuritalo (1958), and the Berlin Philharmonie (1963). III Graphic chronology. A methodical sequence looking at a hundred auditoriums, with each entry presenting images of the concert hall and the building as a whole, and two drawings on the same scale. Each concert hall floor plan shows how the orchestra relates with the audience, and it is compared to the floor plans of the four case-study examples named above. We also see how the hall is set into the building. The second drawing is the longitudinal section of the hall. Ceiling shape much determines the character of concert hall spaces, while technical data like air volume and the amount of absorbent and reflecting materials used have a direct bearing on the reflection of sound and on the overall musical quality of the auditorium. IV Geometry of concert halls. Graphic analysis of the key elements of a music space: the ceiling and the floor plan. The section is a necessary tool for determining the reverberation time of a concert hall, and is closely linked to the shape of the floor plan. In concert halls, there is a strong connection between the ceiling, the walls, and the floor, as there is between different musical instruments. It also includes maps showing where these European and American buildings are located geographically as well as in time. V The auditorium in the city. This chapter presents a series of maps showing the location of auditoriums in the city. They are often located in squares and gardens, open public spaces that serve to emotionally prepare the listener for an imminent musical experience. Time has shown that concert halls have changed the urban landscape and city life. Conclusions As a building type, auditoriums —though «dissolved» by the Philips Pavilion in 1958— remain valid spaces for listening to music. As intimate and unique spaces for social gathering and musical creation, they have done their part in transforming cities. Acoustics play a key role in these technical interiors, but just as important is the rapport that is struck between the musicians and the audience, and between musical works of the past, present, and future. Auditoriums are urban buildings that have been very successful throughout history. They have enriched our cities with surprising shapes and volumes, introduced new interiors in architecture, and struck new relationships between people, the city, and nature. As such, they are necessary. Coda Finally, the epilogue presents the evolution of the music space, from the early simple music halls to the highly complex philharmonic halls of recent years. Architecture has produced spaces for the enjoyment of music that have been modified for new musical creations, while remaining useful for the historical repertoire. Sound, and thus music, has as complex a relationship with space as it does with time. The coda of this thesis is the Philips Pavilion of 1958, perhaps the last attempt to propose a new kind of architecture for music with the latest technology. Annexes The thesis includes a collection of site maps of European and American auditoriums, complete with completion dates and descriptions.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las enfermedades arteriales vienen presididas por la aterosclerosis, que es un proceso crónico de degeneración, que evoluciona hacia la obstrucción de la luz arterial. La pared de la arteria se engrosa debido al depósito de elementos grasos tales como el colesterol. Los stents intraluminales son diminutas estructuras tubulares autoexpandibles de malla de metal, que se colocan dentro de la arteria coronaria después de una angioplastia con balón para prevenir el cierre de dicha arteria. A pesar de estar diseñados para ser compatibles con el tejido humano, a menudo se da una reacción en cadena de consecuencias indeseables. La reestenosis intra-stent es un problema creciente debido al importante incremento que se ha producido en la utilización del stent intracoronario como forma de revascularización percutánea. Se habla de una incidencia global del 28%, siendo la causa principal de su aparición la proliferación neointimal a través de una compleja cascada de sucesos que pueden tardar meses en desarrollarse. Una de las reacciones más importantes es la trombosis o la formación de una fina capa de coágulo como respuesta a la presencia de un material extraño. Este proceso es multifactorial, y en él intervienen la regresión de la pared como consecuencia del estiramiento previo, la denudación endotelial, lo que permite la agregación plaquetaria, la proliferación neointimal, lo que facilita a los receptores de membrana desencadenar un proceso de agregación posterior y, por último, el remodelado negativo inadecuado de la pared, lo que produce pérdida de luz arterial. Se ha observado frecuentemente que el depósito de ateroma en la pared arterial está relacionado con el valor de los esfuerzos cortantes en la misma. Hay mayores probabilidades de engrosamiento de la pared en las zonas donde son bajos los esfuerzos cortantes, quizá por el mayor tiempo de residencia de las partículas circulantes por el torrente sanguíneo. Si nos centramos en la afirmación anterior, el siguiente paso sería buscar las zonas susceptibles de presentar un valor bajo de dichos esfuerzos. Las zonas potencialmente peligrosas son los codos y bifurcaciones, entre otras. Nos hemos centrado en una bifurcación coronaria, ya que los patrones de flujo que se suelen presentar, tales como recirculación y desprendimiento de vórtices están íntimamente relacionados con las técnicas de implantación de stents en esta zona. Proyectamos nuestros esfuerzos en el estudio de dos técnicas de implante, utilizando un único stent y una tercera a través de una configuración de culotte con el uso de dos stents. El primer caso trata de una bifurcación con un único stent en la rama principal cuyos struts cierran el orificio lateral que da salida a la rama secundaria de la bifurcación, es decir sería un stent sin orificio. El segundo consiste en un único stent también, pero con la diferencia de que éste presenta un orificio de comunicación con la rama lateral. Todas estas técnicas se aplicaron a bifurcaciones de 45º y de 90º. Introdujimos las geometrías -una vez confeccionadas con el código comercial Gambit- en el programa Ansys-Fluent contemplando régimen estacionario. Los resultados obtenidos fueron cotejados con los experimentales, que se realizaron paralelamente, con el fin de corroborarlos. Una vez validados, el estudio computacional ya contó con la fiabilidad suficiente como para abordar el régimen no estacionario, tanto en la versión de reposo como en la de ejercicio –hiperemia- El comportamiento reológico de la sangre para régimen no estacionario en estado de reposo es otra de las tareas abordadas, realizando una comparativa de los modelos Newtoniano, Carreau y Ley de Potencias. Finalmente, en una última etapa, debido a la reciente incursión de los stents diseñados específicamente frente a los convencionales, se aborda el comportamiento hemodinámico de los mismos. Concretamente, se comparó el patrón de flujo en un modelo de bifurcación coronaria con los nuevos stents (Stentys) y los convencionales. Se estudiaron cuatro modelos, a saber, stent simple en la rama principal, stent simple en la rama secundaria, culotte desplegando el primer stent en la rama principal y culotte desplegando el primer stent en la rama secundaria. La bifurcación estudiada presenta un ángulo de apertura de 45º y la relación de diámetros de las ramas hija se ajustaron de acuerdo a la ley de Finet. Se recogieron resultados experimentales en el laboratorio y se corrieron simulaciones numéricas con Ansys Fluent paralelamente. Las magnitudes que se tuvieron en cuenta con el fin de ubicar las regiones potencialmente ateroscleróticas fueron los esfuerzos cortantes, vorticidad y caída de presión. ABSTRACT Nowadays, restenosis after percutaneous dilation is the major drawback of coronary angioplasty. It represents a special form of atherosclerosis due to the healing process secondary to extensive vessel trauma induced after intracoronary balloon inflation. The use of coronary stents may decrease the incidence of this phenomenon. Unfortunately, intra-stent restenosis still occurs in 20-30% of the cases following the stent implantation. Most experiments suggest a correlation between low wall shear stress and wall thickness. The preferential locations for the atherosclerotic plaque are bifurcations. The objective of this work is to analyze the local hemodynamic changes caused in a coronary bifurcation by three different stenting techniques: simple stenting of the main vessel, simple stenting of the main vessel with kissing balloon in the side branch and culotte. To carry out this study an idealized geometry of a coronary bifurcation is used, and two bifurcation angles, 45º and 90º, are chosen as representative of the wide variety of real configurations. Both numerical simulations and experimental measurements are performed. First, steady simulations are carried out with the commercial code Ansys-Fluent, then, experimental measurements with PIV (Particle Image Velocimetry), obtained in the laboratory, are used to validate the numerical simulations. The steady computational simulations show a good overall agreement with the experimental data. Then, pulsatile flow is considered to take into account the transient effects. The time averaged wall shear stress, oscillatory shear index and pressure drop obtained numerically are used to compare the behavior of the stenting techniques. In a second step, the rheologic behavior of blood was considered comparing Newtonian, Carreau and Power Law models. Finally, as a result of previous investigations with conventional stents and after the recent emergence of several devices specifically designed for coronary bifurcations angioplasty, the hemodynamic performance of these new devices (Stentys) was compared to conventional ones and techniques in a coronary bifurcation model. Four different stenting techniques: simple stenting of the main vessel, simple stenting of the side vessel, culotte deploying the first stent in the main vessel and culotte deploying the first stent in the side vessel have been considered. To carry out this study an idealized geometry of a coronary bifurcation is used. A 45 degrees bifurcation angle is considered and the daughter branches diameters are obtained according to the Finet law. Both experiments in the laboratory and numerical simulations were used , focusing on important factors for the atherosclerosis development, like the wall shear stress, the oscillation shear index, the pressure loss and the vorticity.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El 12 de agosto de 2014, se registró un sismo de magnitud 5.1, a una profundidad focal de 4 km., en el segmento de falla Bellavista Catequilla, el mismo que fue registrado en 8 estaciones localizadas en la ciudad de Quito. Estas se encuentran ubicadas a distancias epicentrales entre 12 y 19 km. En este artículo se comparan las aceleraciones máximas obtenidas en campo libre, con las que se obtienen al emplear las ecuaciones de movimientos fuertes de Campbell y Borzognia (2013) y el de Zhao et al. (2006). Para ello previamente se determina un plano de ruptura del sismo, utilizando las ecuaciones propuestas por Leonard (2010) y la geometría de las fallas ciegas propuestas por Alvarado (2014). ABSTRACT: On August 12 th 2014, a magnitude 5.1 earthquake occurred at a depth of 4 km, in the Bellavista Catequilla fault segment. This event was recorded by 8 strong-motion stations located between 12 and 19 km from the epicenter, in the city of Quito. In this article, the maximum ground accelerations recorded in free field are compared with the accelerations estimated using the models by Campbell y Borzognia (2013) and Zh ao et al. (2006). To this end, the earthquake rupture plane is determined using the equations proposed by Leonard (2010) and the geometry of the blind fault system of Quito proposed by Alvarado (2014).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tesis analiza los criterios con que fueron proyectadas y construidas las estructuras de hormigón hasta 1973, fecha coincidente con la Instrucción EH-73, que en contenido, formato y planteamiento, consagró la utilización de los criterios modernamente utilizados hasta ahora. Es heredera, además, de las CEB 1970. Esos años marcan el cambio de planteamiento desde la Teoría Clásica hacia los Estados Límite. Los objetivos perseguidos son, sintéticamente: 1) Cubrir un vacío patente en el estudio de la evolución del conocimiento. Hay tratados sobre la historia del hormigón que cubren de manera muy completa el relato de personajes y realizaciones, pero no, al menos de manera suficiente, la evolución del conocimiento. 2) Servir de ayuda a los técnicos de hoy para entender configuraciones estructurales, geometrías, disposiciones de armado, formatos de seguridad, etc, utilizados en el pasado, lo que servirá para la redacción más fundada de dictámenes preliminares sobre estructuras existentes. 3) Ser referencia para la realización de estudios de valoración de la capacidad resistente de construcciones existentes, constituyendo la base de un documento pre-normativo orientado en esa dirección. En efecto, esta tesis pretende ser una ayuda para los ingenieros de hoy que se enfrentan a la necesidad de conservar y reparar estructuras de hormigón armado que forman parte del patrimonio heredado. La gran mayoría de las estructuras, fueron construidas hace más de 40 años, por lo que es preciso conocer los criterios que marcaron su diseño, su cálculo y su construcción. Pretende determinar cuáles eran los límites de agotamiento y por tanto de seguridad, de estructuras dimensionadas con criterios de antaño, analizadas por la metodología de cálculo actual. De este modo, se podrá determinar el resguardo existente “real” de las estructuras dimensionadas y calculadas con criterios “distintos” a los actuales. Conocer el comportamiento de las estructuras construidas con criterios de la Teoría Clásica, según los criterios actuales, permitirá al ingeniero de hoy tratar de la forma más adecuada el abanico de necesidades que se puedan presentar en una estructura existente. Este trabajo se centra en la evolución del conocimiento por lo que no se encuentran incluidos los procesos constructivos. En lo relativo a los criterios de proyecto, hasta mediados del siglo XX, éstos se veían muy influidos por los ensayos y trabajos de autor consiguientes, en los que se basaban los reglamentos de algunos países. Era el caso del reglamento prusiano de 1904, de la Orden Circular francesa de 1906, del Congreso de Lieja de 1930. A partir de la segunda mitad del siglo XX, destacan las aportaciones de ingenieros españoles como es el caso de Alfredo Páez Balaca, Eduardo Torroja y Pedro Jiménez Montoya, entre otros, que permitieron el avance de los criterios de cálculo y de seguridad de las estructuras de hormigón, hasta los que se conocen hoy. El criterio rector del proyecto de las estructuras de hormigón se fundó, como es sabido, en los postulados de la Teoría Clásica, en particular en el “momento crítico”, aquel para el que hormigón y acero alcanzan sus tensiones admisibles y, por tanto, asegura el máximo aprovechamiento de los materiales y sin pretenderlo conscientemente, la máxima ductilidad. Si el momento solicitante es mayor que el crítico, se dispone de armadura en compresión. Tras el estudio de muchas de las estructuras existentes de la época por el autor de esta tesis, incluyendo entre ellas las Colecciones Oficiales de Puentes de Juan Manuel de Zafra, Eugenio Ribera y Carlos Fernández Casado, se concluye que la definición geométrica de las mismas no se corresponde exactamente con la resultante del momento crítico, dado que como ahora resultaba necesario armonizar los criterios de armado a nivel sección con la organización de la ferralla a lo largo de los diferentes elementos estructurales. Los parámetros de cálculo, resistencias de los materiales y formatos de seguridad, fueron evolucionando con los años. Se fueron conociendo mejor las prestaciones de los materiales, se fue enriqueciendo la experiencia de los propios procesos constructivos y, en menor medida, de las acciones solicitantes y, consiguientemente, acotándose las incertidumbres asociadas lo cual permitió ir ajustando los coeficientes de seguridad a emplear en el cálculo. Por ejemplo, para el hormigón se empleaba un coeficiente de seguridad igual a 4 a finales del siglo XIX, que evolucionó a 3,57 tras la publicación de la Orden Circular francesa de 1906, y a 3, tras la Instrucción española de 1939. En el caso del acero, al ser un material bastante más conocido por cuanto se había utilizado muchísimo previamente, el coeficiente de seguridad permaneció casi constante a lo largo de los años, con un valor igual a 2. Otra de las causas de la evolución de los parámetros de cálculo fue el mejor conocimiento del comportamiento de las estructuras merced a la vasta tarea de planificación y ejecución de ensayos, con los estudios teóricos consiguientes, realizados por numerosos autores, principalmente austríacos y alemanes, pero también norteamericanos y franceses. En cuanto a los criterios de cálculo, puede sorprender al técnico de hoy el conocimiento que tenían del comportamiento del hormigón desde los primeros años del empleo del mismo. Sabían del comportamiento no lineal del hormigón, pero limitaban su trabajo a un rango de tensióndeformación lineal porque eso aseguraba una previsión del comportamiento estructural conforme a las hipótesis de la Elasticidad Lineal y de la Resistencia de Materiales, muy bien conocidas a principios del s. XX (no así sucedía con la teoría de la Plasticidad, aún sin formular, aunque estaba implícita en los planteamientos algunos ingenieros especializados en estructuras de fábrica (piedra o ladrillo) y metálicas. Además, eso permitía independizar un tanto el proyecto de los valores de las resistencias reales de los materiales, lo que liberaba de la necesidad de llevar a cabo ensayos que, en la práctica, apenas se podían hacer debido a la escasez de los laboratorios. Tampoco disponían de programas informáticos ni de ninguna de las facilidades de las que hoy se tienen, que les permitiera hacer trabajar al hormigón en un rango no lineal. Así, sabia y prudentemente, limitaban las tensiones y deformaciones del material a un rango conocido. El modus operandi seguido para la elaboración de esta tesis, ha sido el siguiente: -Estudio documental: se han estudiado documentos de autor, recomendaciones y normativa generada en este ámbito, tanto en España como con carácter internacional, de manera sistemática con arreglo al índice del documento. En este proceso, se han detectado lagunas del conocimiento (y su afección a la seguridad estructural, en su caso) y se han identificado las diferencias con los procedimientos de hoy. También ha sido necesario adaptar la notación y terminología de la época a los criterios actuales, lo que ha supuesto una dificultad añadida. -Desarrollo del documento: A partir del estudio previo se han ido desarrollando los siguientes documentos, que conforman el contenido de la tesis: o Personajes e instituciones relevantes por sus aportaciones al conocimiento de las estructuras de hormigón (investigación, normativa, docencia). o Caracterización de las propiedades mecánicas de los materiales (hormigón y armaduras), en relación a sus resistencias, diagramas tensión-deformación, módulos de deformación, diagramas momento-curvatura, etc. Se incluye aquí la caracterización clásica de los hormigones, la geometría y naturaleza de las armaduras, etc. o Formatos de seguridad: Se trata de un complejo capítulo del que se pretende extraer la información suficiente que permita a los técnicos de hoy entender los criterios utilizados entonces y compararlos con los actuales. o Estudio de secciones y piezas sometidas a tensiones normales y tangenciales: Se trata de presentar la evolución en el tratamiento de la flexión simple y compuesta, del cortante, del rasante, torsión, etc. Se tratan también en esta parte del estudio aspectos que, no siendo de preocupación directa de los técnicos de antaño (fisuración y deformaciones), tienen hoy mayor importancia frente a cambios de usos y condiciones de durabilidad. o Detalles de armado: Incluye el tratamiento de la adherencia, el anclaje, el solapo de barras, el corte de barras, las disposiciones de armado en función de la geometría de las piezas y sus solicitaciones, etc. Es un capítulo de importancia obvia para los técnicos de hoy. Se incluye un anejo con las referencias más significativas a los estudios experimentales en que se basaron las propuestas que han marcado hito en la evolución del conocimiento. Finalmente, junto a las conclusiones más importantes, se enuncian las propuestas de estudios futuros. This thesis analyzes the criteria with which structures of reinforced concrete have been designed and constructed prior to 1973. Initially, the year 1970 was chosen as starting point, coinciding with the CEB recommendations, but with the development of the thesis it was decided that 1973 was the better option, coinciding with the Spanish regulations of 1973, whose content, format and description introduced the current criteria. The studied period includes the Classic Theory. The intended goals of this thesis are: 1) To cover a clear gap in the study of evolution of knowledge about reinforced concrete. The concept and accomplishments achieved by reinforced concrete itself has been treated in a very complete way by the main researchers in this area, but not the evolution of knowledge in this subject area. 2) To help the engineers understand structural configurations, geometries, dispositions of steel, safety formats etc, that will serve as preliminary judgments by experts on existing structures. To be a reference to the existing studies about the valuation of resistant capacity of existing constructions, constituting a basic study of a pre-regulation document. This thesis intends to be a help for the current generation of engineers who need to preserve and repair reinforced concrete structures that have existed for a significant number of years. Most of these structures in question were constructed more than 40 years ago, and it is necessary to know the criteria that influenced their design, the calculation and the construction. This thesis intends to determine the safety limits of the old structures and analyze them in the context of the current regulations and their methodology. Thus, it will then be possible to determine the safety of these structures, after being measured and calculated with the current criteria. This will allow the engineers to optimize the treatment of such a structure. This work considers the evolution of the knowledge, so constructive methods are not included. Related to the design criteria, there existed until middle of the 20th century a large number of diverse European tests and regulations, such as the Prussian norm of 1904, the Circular French Order of 1906, the Congress of Liège of 1930, as well as individual engineers’ own notes and criteria which incorporated the results of their own tests. From the second half of the 20th century, the contributions of Spanish engineers as Alfredo Páez Balaca, Eduardo Torroja and Pedro Jiménez Montoya, among others, were significant and this allowed the advancement of the criteria of the calculation of safety standards of concrete structures, many of which still exist to the present day. The design and calculation of reinforced concrete structures by the Classic Theory, was based on the ‘Critical Bending Moment’, when concrete and steel achieve their admissible tensions, that allows the best employment of materials and the best ductility. If the bending moment is major than the critical bending moment, will be necessary to introduce compression steel. After the study of the designs of many existing structures of that time by the author of this thesis, including the Historical Collections of Juan Manuel de Zafra, Eugenio Ribera and Carlos Fernandez Casado, the conclusion is that the geometric definition of the structures does not correspond exactly with the critical bending moment inherent in the structures. The parameters of these calculations changed throughout the years. The principal reason that can be outlined is that the materials were improving gradually and the number of calculated uncertainties were decreasing, thus allowing the reduction of the safety coefficients to use in the calculation. For example, concrete used a coefficient of 4 towards the end of the 19th century, which evolved to 3,57 after the publication of the Circular French Order of 1906, and then to 3 after the Spanish Instruction of 1939. In the case of the steel, a much more consistent material, the safety coefficient remained almost constant throughout the years, with a value of 2. Other reasons related to the evolution of the calculation parameters were that the tests and research undertaken by an ever-increasing number of engineers then allowed a more complete knowledge of the behavior of reinforced concrete. What is surprising is the extent of knowledge that existed about the behavior of the concrete from the outset. Engineers from the early years knew that the behavior of the concrete was non-linear, but they limited the work to a linear tension-deformation range. This was due to the difficulties of work in a non-linear range, because they did not have laboratories to test concrete, or facilities such as computers with appropriate software, something unthinkable today. These were the main reasons engineers of previous generations limited the tensions and deformations of a particular material to a known range. The modus operandi followed for the development of this thesis is the following one: -Document study: engineers’ documents, recommendations and regulations generated in this area, both from Spain or overseas, have been studied in a systematic way in accordance with the index of the document. In this process, a lack of knowledge has been detected concerning structural safety, and differences to current procedures have been identified and noted. Also, it has been necessary to adapt the notation and terminology of the Classic Theory to the current criteria, which has imposed an additional difficulty. -Development of the thesis: starting from the basic study, the next chapters of this thesis have been developed and expounded upon: o People and relevant institutions for their contribution to the knowledge about reinforced concrete structures (investigation, regulation, teaching). Determination of the mechanical properties of the materials (concrete and steel), in relation to their resistances, tension-deformation diagrams, modules of deformation, moment-curvature diagrams, etc. Included are the classic characterizations of concrete, the geometry and nature of the steel, etc. Safety formats: this is a very difficult chapter from which it is intended to provide enough information that will then allow the present day engineer to understand the criteria used in the Classic Theory and then to compare them with the current theories. Study of sections and pieces subjected to normal and tangential tensions: it intends to demonstrate the evolution in the treatment of the simple and complex flexion, shear, etc. Other aspects examined include aspects that were not very important in the Classic Theory but currently are, such as deformation and fissures. o Details of reinforcement: it includes the treatment of the adherence, the anchorage, the lapel of bars, the cut of bars, the dispositions of reinforcement depending on the geometry of the pieces and the solicitations, etc. It is a chapter of obvious importance for current engineers. The document will include an annex with the most references to the most significant experimental studies on which were based the proposals that have become a milestone in the evolution of knowledge in this area. Finally, there will be included conclusions and suggestions of future studies. A deep study of the documentation and researchers of that time has been done, juxtaposing their criteria and results with those considered relevant today, and giving a comparison between the resultant safety standards according to the Classic Theory criteria and currently used criteria. This thesis fundamentally intends to be a guide for engineers who have to treat or repair a structure constructed according to the Classic Theory criteria.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La frecuencia con la que se producen explosiones sobre edificios, ya sean accidentales o intencionadas, es reducida, pero sus efectos pueden ser catastróficos. Es deseable poder predecir de forma suficientemente precisa las consecuencias de estas acciones dinámicas sobre edificaciones civiles, entre las cuales las estructuras reticuladas de hormigón armado son una tipología habitual. En esta tesis doctoral se exploran distintas opciones prácticas para el modelado y cálculo numérico por ordenador de estructuras de hormigón armado sometidas a explosiones. Se emplean modelos numéricos de elementos finitos con integración explícita en el tiempo, que demuestran su capacidad efectiva para simular los fenómenos físicos y estructurales de dinámica rápida y altamente no lineales que suceden, pudiendo predecir los daños ocasionados tanto por la propia explosión como por el posible colapso progresivo de la estructura. El trabajo se ha llevado a cabo empleando el código comercial de elementos finitos LS-DYNA (Hallquist, 2006), desarrollando en el mismo distintos tipos de modelos de cálculo que se pueden clasificar en dos tipos principales: 1) modelos basados en elementos finitos de continuo, en los que se discretiza directamente el medio continuo mediante grados de libertad nodales de desplazamientos; 2) modelos basados en elementos finitos estructurales, mediante vigas y láminas, que incluyen hipótesis cinemáticas para elementos lineales o superficiales. Estos modelos se desarrollan y discuten a varios niveles distintos: 1) a nivel del comportamiento de los materiales, 2) a nivel de la respuesta de elementos estructurales tales como columnas, vigas o losas, y 3) a nivel de la respuesta de edificios completos o de partes significativas de los mismos. Se desarrollan modelos de elementos finitos de continuo 3D muy detallados que modelizan el hormigón en masa y el acero de armado de forma segregada. El hormigón se representa con un modelo constitutivo del hormigón CSCM (Murray et al., 2007), que tiene un comportamiento inelástico, con diferente respuesta a tracción y compresión, endurecimiento, daño por fisuración y compresión, y rotura. El acero se representa con un modelo constitutivo elastoplástico bilineal con rotura. Se modeliza la geometría precisa del hormigón mediante elementos finitos de continuo 3D y cada una de las barras de armado mediante elementos finitos tipo viga, con su posición exacta dentro de la masa de hormigón. La malla del modelo se construye mediante la superposición de los elementos de continuo de hormigón y los elementos tipo viga de las armaduras segregadas, que son obligadas a seguir la deformación del sólido en cada punto mediante un algoritmo de penalización, simulando así el comportamiento del hormigón armado. En este trabajo se denominarán a estos modelos simplificadamente como modelos de EF de continuo. Con estos modelos de EF de continuo se analiza la respuesta estructural de elementos constructivos (columnas, losas y pórticos) frente a acciones explosivas. Asimismo se han comparado con resultados experimentales, de ensayos sobre vigas y losas con distintas cargas de explosivo, verificándose una coincidencia aceptable y permitiendo una calibración de los parámetros de cálculo. Sin embargo estos modelos tan detallados no son recomendables para analizar edificios completos, ya que el elevado número de elementos finitos que serían necesarios eleva su coste computacional hasta hacerlos inviables para los recursos de cálculo actuales. Adicionalmente, se desarrollan modelos de elementos finitos estructurales (vigas y láminas) que, con un coste computacional reducido, son capaces de reproducir el comportamiento global de la estructura con una precisión similar. Se modelizan igualmente el hormigón en masa y el acero de armado de forma segregada. El hormigón se representa con el modelo constitutivo del hormigón EC2 (Hallquist et al., 2013), que también presenta un comportamiento inelástico, con diferente respuesta a tracción y compresión, endurecimiento, daño por fisuración y compresión, y rotura, y se usa en elementos finitos tipo lámina. El acero se representa de nuevo con un modelo constitutivo elastoplástico bilineal con rotura, usando elementos finitos tipo viga. Se modeliza una geometría equivalente del hormigón y del armado, y se tiene en cuenta la posición relativa del acero dentro de la masa de hormigón. Las mallas de ambos se unen mediante nodos comunes, produciendo una respuesta conjunta. En este trabajo se denominarán a estos modelos simplificadamente como modelos de EF estructurales. Con estos modelos de EF estructurales se simulan los mismos elementos constructivos que con los modelos de EF de continuo, y comparando sus respuestas estructurales frente a explosión se realiza la calibración de los primeros, de forma que se obtiene un comportamiento estructural similar con un coste computacional reducido. Se comprueba que estos mismos modelos, tanto los modelos de EF de continuo como los modelos de EF estructurales, son precisos también para el análisis del fenómeno de colapso progresivo en una estructura, y que se pueden utilizar para el estudio simultáneo de los daños de una explosión y el posterior colapso. Para ello se incluyen formulaciones que permiten considerar las fuerzas debidas al peso propio, sobrecargas y los contactos de unas partes de la estructura sobre otras. Se validan ambos modelos con un ensayo a escala real en el que un módulo con seis columnas y dos plantas colapsa al eliminar una de sus columnas. El coste computacional del modelo de EF de continuo para la simulación de este ensayo es mucho mayor que el del modelo de EF estructurales, lo cual hace inviable su aplicación en edificios completos, mientras que el modelo de EF estructurales presenta una respuesta global suficientemente precisa con un coste asumible. Por último se utilizan los modelos de EF estructurales para analizar explosiones sobre edificios de varias plantas, y se simulan dos escenarios con cargas explosivas para un edificio completo, con un coste computacional moderado. The frequency of explosions on buildings whether they are intended or accidental is small, but they can have catastrophic effects. Being able to predict in a accurate enough manner the consequences of these dynamic actions on civil buildings, among which frame-type reinforced concrete buildings are a frequent typology is desirable. In this doctoral thesis different practical options for the modeling and computer assisted numerical calculation of reinforced concrete structures submitted to explosions are explored. Numerical finite elements models with explicit time-based integration are employed, demonstrating their effective capacity in the simulation of the occurring fast dynamic and highly nonlinear physical and structural phenomena, allowing to predict the damage caused by the explosion itself as well as by the possible progressive collapse of the structure. The work has been carried out with the commercial finite elements code LS-DYNA (Hallquist, 2006), developing several types of calculation model classified in two main types: 1) Models based in continuum finite elements in which the continuous medium is discretized directly by means of nodal displacement degrees of freedom; 2) Models based on structural finite elements, with beams and shells, including kinematic hypothesis for linear and superficial elements. These models are developed and discussed at different levels: 1) material behaviour, 2) response of structural elements such as columns, beams and slabs, and 3) response of complete buildings or significative parts of them. Very detailed 3D continuum finite element models are developed, modeling mass concrete and reinforcement steel in a segregated manner. Concrete is represented with a constitutive concrete model CSCM (Murray et al., 2007), that has an inelastic behaviour, with different tension and compression response, hardening, cracking and compression damage and failure. The steel is represented with an elastic-plastic bilinear model with failure. The actual geometry of the concrete is modeled with 3D continuum finite elements and every and each of the reinforcing bars with beam-type finite elements, with their exact position in the concrete mass. The mesh of the model is generated by the superposition of the concrete continuum elements and the beam-type elements of the segregated reinforcement, which are made to follow the deformation of the solid in each point by means of a penalty algorithm, reproducing the behaviour of reinforced concrete. In this work these models will be called continuum FE models as a simplification. With these continuum FE models the response of construction elements (columns, slabs and frames) under explosive actions are analysed. They have also been compared with experimental results of tests on beams and slabs with various explosive charges, verifying an acceptable coincidence and allowing a calibration of the calculation parameters. These detailed models are however not advised for the analysis of complete buildings, as the high number of finite elements necessary raises its computational cost, making them unreliable for the current calculation resources. In addition to that, structural finite elements (beams and shells) models are developed, which, while having a reduced computational cost, are able to reproduce the global behaviour of the structure with a similar accuracy. Mass concrete and reinforcing steel are also modeled segregated. Concrete is represented with the concrete constitutive model EC2 (Hallquist et al., 2013), which also presents an inelastic behaviour, with a different tension and compression response, hardening, compression and cracking damage and failure, and is used in shell-type finite elements. Steel is represented once again with an elastic-plastic bilineal with failure constitutive model, using beam-type finite elements. An equivalent geometry of the concrete and the steel is modeled, considering the relative position of the steel inside the concrete mass. The meshes of both sets of elements are bound with common nodes, therefore producing a joint response. These models will be called structural FE models as a simplification. With these structural FE models the same construction elements as with the continuum FE models are simulated, and by comparing their response under explosive actions a calibration of the former is carried out, resulting in a similar response with a reduced computational cost. It is verified that both the continuum FE models and the structural FE models are also accurate for the analysis of the phenomenon of progressive collapse of a structure, and that they can be employed for the simultaneous study of an explosion damage and the resulting collapse. Both models are validated with an experimental full-scale test in which a six column, two floors module collapses after the removal of one of its columns. The computational cost of the continuum FE model for the simulation of this test is a lot higher than that of the structural FE model, making it non-viable for its application to full buildings, while the structural FE model presents a global response accurate enough with an admissible cost. Finally, structural FE models are used to analyze explosions on several story buildings, and two scenarios are simulated with explosive charges for a full building, with a moderate computational cost.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Es conocido que las dimensiones de los puentes de ferrocarril han ido cambiando debido a las estrictas condiciones de trazado impuestas en las líneas de alta velocidad. Además, la creciente preocupación de la sociedad por cuidar y proteger el medio ambiente, reflejado en la correspondiente normativa, ha generado nuevos condicionantes en el diseño de estas infraestructuras. En concreto, se ha limitado el movimiento de grandes volúmenes de terreno particularmente en los espacios protegidos. Por estas razones, hoy en día se proyectan y construyen puentes de ferrocarril más altos y más largos en todo el mundo. En España se han construido varios viaductos de pilas altas para líneas de alta velocidad. Ejemplos de estas infraestructuras son el Viaducto O’Eixo y el Viaducto de Barbantiño, situados en la línea de alta velocidad Madrid-Galicia, Estos viaductos altos se caracterizan por tener una mayor flexibilidad lateral y una frecuencia fundamental de oscilación baja, de hasta 0.2 Hz. La respuesta dinámica de este tipo de estructura puede aumentar como consecuencia de la aproximación entre la frecuencias propias de la misma y las de excitación debidas al paso del tren y a la acción del viento. Por lo tanto, estas estructuras pueden presentar problemas a la hora de cumplir con las limitaciones impuestas en las normas de diseño de puentes de ferrocarril, y otras, para garantizar la seguridad del tráfico y el confort de los viajeros. La respuesta dinámica lateral de viaductos de pilas altas no ha sido suficientemente estudiada en la literatura científica. Se pueden intuir varios de los motivos para explicar esta carencia. El primero es la relativamente reciente aparición de este tipo de viaductos asociados al desarrollo de la alta velocidad. Por otro lado, se hace necesario, para estudiar este tema, construir nuevos modelos numéricos adecuados para el estudio de la interacción dinámica lateral del puente y del tren. La interacción entre el puente y un tren viajando sobre él es un problema dinámico no lineal, dependiente del tiempo y de acoplamiento entre los dos subsistemas que intervienen (vehículo y puente). Los dos subsistemas, que pueden ser modelados como estructuras elásticas, interaccionan el uno con el otro a través de las fuerzas de contacto, que tiene una marcada naturaleza no lineal por el rozamiento entre rueda y carril, y por la geometría de los perfiles de estos dos elementos en contacto. En esta tesis, se desarrolla la formulación completa de un modelo no lineal de interacción tren-vía-puente-viento que reproduce adecuadamente las fuerzas laterales de contacto rueda-carril, fuerzas que van a tener una gran influencia en los índices de seguridad del tráfico. Este modelo se ha validado a partir de casos resueltos en la literatura científica, y de medidas experimentales tomadas en eventos dinámicos ocurridos en los viaductos de Arroyo de Valle y Arroyo de las Piedras. Puentes altos que han estado monitorizados en servicio durante dos años. En los estudios realizados en este trabajo, se cuantifican, empleando el modelo construido, los niveles de seguridad del tráfico y de confort de los pasajeros de trenes ligeros de alta velocidad, como el tren articulado AVE S-100, que viajan sobre viaductos altos sometidos, o no, a fuertes vientos laterales racheados. Finalmente, se ha obtenido el grado de mejora de la seguridad del tráfico y del confort de los viajeros, cuando se emplean pantallas anti-viento en el tablero y amortiguadores de masa sintonizados en la cabeza de las pilas de un viaducto alto. Resultando, el uso simultaneo de estos dos dispositivos (pantallas y amortiguadores de masa), en puentes altos de líneas de alta velocidad, una opción a considerar en la construcción de estas estructuras para elevar significativamente el nivel de servicio de las mismas. It is known that dimensions of railway bridges have been changing due to the strict high-speed lines layout parameters. Moreover, the growing concern of society to take care of and protect the environment, reflected in the corresponding regulations, has created new environment requirements for the design of these infrastructures. Particularly, the mentioned regulations do not allow designers to move far from terrain to build these railway lines. Due to all these reasons, longer and higher railway bridges are being designed and built around the world. In Spain, several high pier railway viaducts have been built for high speed lines. Barbantiño Viaduct and Eixo Viaduct, belonging to the Madrid-Galicia high speed line, are examples of this kind of structures. These high viaducts have great lateral flexibility and a low fundamental vibration frequency of down to 0.2 Hz. The dynamic response of high speed railway bridges may increase because of the approximation between the natural viaduct frequencies and the excitation ones due to the train travel and the wind action. Therefore, this bridge response could not satisfy the serviceability limits states, for traffic safety and for passenger comfort, considered by the design standards of high speed bridges. It is difficult to find papers in the scientific literature about the lateral response of high-speed trains travel over long viaducts with high piers. Several reasons could explain this issue. On one hand, the construction of this kind of viaduct is relatively recent and it is associated to the development of the high speed railway. On the other hand, in order to study the dynamic lateral interaction between the train and the high bridge, it is necessary to build new numerical and complex models. The interaction between the bridge-track subsystem and the vehicle subsystem travelling over the bridge is a coupling, nonlinear and time dependent problem. Both subsystems, train and bridge, which can be modelled as elastic structures, interact each other through the contact forces. These forces have a strong nonlinear nature due to the friction and the geometry of rail and wheel profiles. In this thesis, the full formulation of a train-track-bridge-wind nonlinear interaction model is developed. This model can reproduce properly the lateral contact wheel-rail forces, which have a great influence on traffic safety indices. The validation of the model built has been reached through interaction solved cases found in the scientific literature and experimental measures taken in dynamic events which happened at Arroyo de las Piedras and Arroyo del Valle Viaducts. These high bridges have been controlled during two years of service by means of structural health monitoring. In the studies carried out for this thesis, the levels of traffic safety and passenger comfort are quantified using the interaction model built, in the cases of high speed and light trains, as AVE S-100, travelling over high pier bridges and with or without lateral turbulent winds acting. Finally, the improvement rate of the traffic safety and passenger comfort has been obtained, when wind barriers are used at the bridge deck and tuned mass dampers are installed at the pier heads of a high viaduct. The installation of both devices, wind barriers and tuned mass damper, at the same time, turned out to be a good option to be considered in the design of high pier railway viaducts, to improve significantly the serviceability level of this kind of structures.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabajo de investigación se ha centrado en la escalera de caracol con ojo también denominado caracol de mallorca, en sus primeras apariciones a finales del s.XV y comienzos del s.XVI durante el llamado periodo tardogótico. Este elemento aparentemente sencillo presenta, sin embargo, una gran diversidad de esquemas geométricos. Todavía a día de hoy, no hay explicación del por qué de la mayor difusión de unos con respecto a otros. El objetivo de este trabajo ha sido valorar el papel que el confort/seguridad de uso así como la economía en el trabajo –sencillez de ejecución y coste económico– tuvieron en el contexto de la difusión de este elemento arquitectónico. Este estudio ha analizado en base a estos criterios objetivos, la geometría de cada uno de los esquemas tipo que resuelven la formación del hueco central característico este tipo de escaleras, con la intención de determinar las causas objetivas que pudieron motivar la desigual expansión de los mismos. Una vez determinado el marco teórico, se han establecido dos líneas para abordar el problema. Por un lado se ha planteado el análisis de los modelos teóricos recogidos en los distintos textos de cantería escritos por autores españoles desde finales del s.XVI. Si bien en la época en que se escribieron, la arquitectura gótica como sistema había desaparecido, alguno de sus elementos más característicos, como la escalera de caracol, continuaban empleándose. Las trazas del caracol con ojo recogidas en estos textos, describen habitualmente las soluciones geométricas más frecuentes e incluso los ejemplos construidos más conocidos, los cuales fueron levantados en su mayoría en el período en el cual se desarrolla esta investigación. Por otro lado, este estudio se plantea el análisis de modelos construidos existentes en la Ciudad y Tierra de Segovia. La razón que justifica dichos límites geográficos, la encontramos en que la mayor parte del patrimonio gótico existente en este área fue construido entre finales del s.XV y comienzos del s. XVI. Ambos grupos, modelos teóricos y modelos construidos, recogen la herencia gótica heredada en la construcción de este elemento arquitectónico. Cada una de estas dos líneas establecidas han seguido una metodología específica adaptada al objeto de análisis, si bien ambas se basan en un primer análisis individual y posterior análisis comparativo de los modelos seleccionados. Estos análisis han permitido identificar los distintos esquemas empleados para resolver el hueco central, lo que ha posibilitado establecer una clasificación general de los mismos en tres grupos: caracol con ojo de solución radial, el caracol con ojo de solución no radial y el caracol con ojo de solución tangencial. A partir de los datos y resultados obtenidos del análisis comparativo de los parámetros geométricos que afectan al confort/seguridad de uso y economía en el trabajo de dichos esquemas, podemos concluir que a pesar que los tres esquemas identificados resuelven el caracol con ojo de forma muy similar, el predominio de la solución radial y la caída en el olvido de las soluciones tangencial y no radial estuvieron justificados. ABSTRACT This work focused on the helical staircase, also known as mallorca staircase, in the late 15th and the early 16th centuries. This seemingly simple element, presents however a wide variety of geometrical designs. Still to date, there is no explanation of why some of them were limited use, while others had a wide impact. The aim of this study was to assess the influence which comfort, safety and work economy –ease of construction and financial cost– had on their widespread. This study analysed, following these objective criteria, the geometry of the different designs, which solve the characteristic inner aperture of this type of staircase. And thus, find the reasons, which motivated their uneven spread. Once the theoretical framework was developed, two research lines were set up to address the problem. On one hand, this study analysed the theoretical helical staircases described in the early Spanish texts, which were written since the end of the 16th century. Although these texts were written after the Gothic Architecture system had already disappeared, some of its more representative elements like the helical staircase were still in use. The traces of the helical stair, which are included in these texts, describe the most frequently-used designs and even the most famous real examples which were usually constructed in the Late Gothic period. On the other hand, this study analysed some real helical staircases, which were constructed in the Ciudad y Tierra de Segovia. The reason for choosing these geographical limits is that most of the Gothic buildings of this area were constructed between the end of the 15th and the early 16th centuries, during the Late Gothic period. Both groups, theoretical and constructed samples, collect the Gothic construction tradition of the helical stair. Each of these research lines followed a specific methodology, which was adapted to the research object. Nevertheless, both are based on a first individual analysis of each selected example and a later on comparative one. These analysis allowed the identification of the different layouts which solve the inner aperture of the helical staircase, what made possible to set up a broad classification in three groups, according to the geometrical design strategy that solves the central aperture: the helical staircase by radial solution, the helical staircase by non-radial solution and the helical staircase by tangent solution. The research findings of the comparative analysis of their geometrical parameters, which have an impact in the comfort, safety and work economy, have shown that although all of them solve the helical staircase in a really similar way, the fade into oblivion of the non-radial and tangent approaches was objectively motivated.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La Fotogrametría, como ciencia y técnica de obtención de información tridimensional del espacio objeto a partir de imágenes bidimensionales, requiere de medidas de precisión y en ese contexto, la calibración geométrica de cámaras ocupa un lugar importante. El conocimiento de la geometría interna de la cámara es fundamental para lograr mayor precisión en las medidas realizadas. En Fotogrametría Aérea se utilizan cámaras métricas (fabricadas exclusivamente para aplicaciones cartográficas), que incluyen objetivos fotográficos con sistemas de lentes complejos y de alta calidad. Pero en Fotogrametría de Objeto Cercano se está trabajando cada vez con más asiduidad con cámaras no métricas, con ópticas de peor calidad que exigen una calibración geométrica antes o después de cada trabajo. El proceso de calibración encierra tres conceptos fundamentales: modelo de cámara, modelo de distorsión y método de calibración. El modelo de cámara es un modelo matemático que aproxima la transformación proyectiva original a la realidad física de las lentes. Ese modelo matemático incluye una serie de parámetros entre los que se encuentran los correspondientes al modelo de distorsión, que se encarga de corregir los errores sistemáticos de la imagen. Finalmente, el método de calibración propone el método de estimación de los parámetros del modelo matemático y la técnica de optimización a emplear. En esta Tesis se propone la utilización de un patrón de calibración bidimensional que se desplaza en la dirección del eje óptico de la cámara, ofreciendo así tridimensionalidad a la escena fotografiada. El patrón incluye un número elevado de marcas, lo que permite realizar ensayos con distintas configuraciones geométricas. Tomando el modelo de proyección perspectiva (o pinhole) como modelo de cámara, se realizan ensayos con tres modelos de distorsión diferentes, el clásico de distorsión radial y tangencial propuesto por D.C. Brown, una aproximación por polinomios de Legendre y una interpolación bicúbica. De la combinación de diferentes configuraciones geométricas y del modelo de distorsión más adecuado, se llega al establecimiento de una metodología de calibración óptima. Para ayudar a la elección se realiza un estudio de las precisiones obtenidas en los distintos ensayos y un control estereoscópico de un panel test construido al efecto. ABSTRACT Photogrammetry, as science and technique for obtaining three-dimensional information of the space object from two-dimensional images, requires measurements of precision and in that context, the geometric camera calibration occupies an important place. The knowledge of the internal geometry of the camera is fundamental to achieve greater precision in measurements made. Metric cameras (manufactured exclusively for cartographic applications), including photographic lenses with complex lenses and high quality systems are used in Aerial Photogrammetry. But in Close Range Photogrammetry is working increasingly more frequently with non-metric cameras, worst quality optical components which require a geometric calibration before or after each job. The calibration process contains three fundamental concepts: camera model, distortion model and method of calibration. The camera model is a mathematical model that approximates the original projective transformation to the physical reality of the lenses. The mathematical model includes a series of parameters which include the correspondents to the model of distortion, which is in charge of correcting the systematic errors of the image. Finally, the calibration method proposes the method of estimation of the parameters of the mathematical modeling and optimization technique to employ. This Thesis is proposing the use of a pattern of two dimensional calibration that moves in the direction of the optical axis of the camera, thus offering three-dimensionality to the photographed scene. The pattern includes a large number of marks, which allows testing with different geometric configurations. Taking the projection model perspective (or pinhole) as a model of camera, tests are performed with three different models of distortion, the classical of distortion radial and tangential proposed by D.C. Brown, an approximation by Legendre polynomials and bicubic interpolation. From the combination of different geometric configurations and the most suitable distortion model, brings the establishment of a methodology for optimal calibration. To help the election, a study of the information obtained in the various tests and a purpose built test panel stereoscopic control is performed.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Debido al gran interés existente en el ahorro y recuperación de energía, y en el deseo de obtener productos que permitan usos beneficiosos del fango procedente de la depuración del agua residual, la digestión anaerobia es el proceso de estabilización de uso más extendido. El tiempo de retención de sólidos es un factor clave en el proceso de digestión anaerobia. En base al tiempo de retención de sólidos, se dimensiona el volumen de los digestores anaerobios para así obtener la reducción de materia orgánica deseada, con la correspondiente producción de biogás. La geometría del digestor y su sistema de agitación deben ser adecuados para alcanzar el tiempo de retención de sólidos de diseño. Los primeros trabajos sobre la agitación de los digestores realizaban únicamente experimentos con trazadores y otros métodos de medición. En otros casos, la mezcla era evaluada mediante la producción de biogás. Estas técnicas tenían el gran hándicap de no conocer lo que sucedía realmente dentro del digestor y sólo daban una idea aproximada de su funcionamiento. Mediante aplicación de la mecánica de fluidos computacional (CFD) es posible conocer con detalle las características del fluido objeto de estudio y, por lo tanto, simular perfectamente el movimiento del fango de un digestor anaerobio. En esta tesis se han simulado mediante CFD diferentes digestores a escala real (unos 2000 m3 de volumen) agitados con bomba/s de recirculación para alcanzar los siguientes objetivos: establecer la influencia de la relación entre el diámetro y la altura, de la pendiente de la solera, del número de bombas y del caudal de recirculación en dichos digestores, definir el campo de velocidades en la masa de fango y realizar un análisis energético y económico. Así, es posible conocer mejor cómo funciona el sistema de agitación de un digestor anaerobio a escala real equipado con bomba/s de recirculación. Los resultados obtenidos muestran que una relación diámetro/altura del digestor por encima de 1 empeora la agitación del mismo y que la pendiente en la solera del digestor favorece que la masa de fango esté mejor mezclada, siendo más determinante la esbeltez del tanque que la pendiente de su solera. No obstante, también es necesario elegir adecuadamente los parámetros de diseño del sistema de agitación, en este caso el caudal de recirculación de fango, para obtener una agitación completa sin apenas zonas muertas. En el caso de un digestor con una geometría inadecuada es posible mejorar su agitación aumentando el número de bombas de recirculación y el caudal de las mismas, pero no se llegará a alcanzar una agitación total de la masa de fango debido a su mal diseño original. Anaerobic digestion is the process for waste water treatment sludge stabilization of more widespread use due to the huge interest in saving and recovering energy and the wish to obtain products that allow beneficial uses for the sludge. The solids retention time is a key factor in the anaerobic digestion. Based on the solids retention time, volume anaerobic digester is sized to obtain the desired reduction in organic matter, with the corresponding production of biogas. The geometry of the digester and the stirring system should be adequate to achieve the design solid retention time. Early works on digesters stirring just performed tracer experiments and other measurement methods. In other cases, mixing was evaluated by biogas production. These techniques had the great handicap of not knowing what really happened inside the digester and they only gave a rough idea of its operation. By application of computational fluid dynamics (CFD), it is possible to know in detail the characteristics of the fluid under study and, therefore, simulate perfectly the sludge movement of an anaerobic digester. Different full-scale digesters (about 2000 m3 of volume) agitated with pump/s recirculation have been simulated by CFD in this thesis to achieve the following objectives: to establish the influence of the relationship between the diameter and height, the slope of the bottom, the number of pumps and the recirculation flow in such digesters, to define the velocity field in the mass of sludge and carry out an energy and economic analysis. Thus, it is possible to understand better how the agitation system of a full-scale anaerobic digester equipped with pump/s recirculation works. The results achieved show that a diameter/height ratio of the digester above 1 worsens its stirring and that the slope of the digester bottom favors that the mass of sludge is better mixed, being more decisive the tank slenderness than the slope of its bottom. However, it is also necessary to select properly the design parameters of the agitation system, in this case the sludge recirculation flow rate, for a complete agitation with little dead zones. In the case of a digester with inadequate geometry, its agitation can be improved by increasing the number of recirculation pumps and flow of them, but it will not reach a full agitation of the mass of sludge because of the poor original design.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La energía transportada por el oleaje a través de los océanos (energía undimotriz) se enmarca dentro de las denominadas energías oceánicas. Su aprovechamiento para generar energía eléctrica (o ser aprovechada de alguna otra forma) es una idea reflejada ya hace más de dos siglos en una patente (1799). Desde entonces, y con especial intensidad desde los años 70, ha venido despertando el interés de instituciones ligadas al I+D+i y empresas del sector energético y tecnológico, debido principalmente a la magnitud del recurso disponible. Actualmente se puede considerar al sector en un estado precomercial, con un amplio rango de dispositivos y tecnologías en diferente grado de desarrollo en los que ninguno destaca sobre los otros (ni ha demostrado su viabilidad económica), y sin que se aprecie una tendencia a converger un único dispositivo (o un número reducido de ellos). El recurso energético que se está tratando de aprovechar, pese a compartir la característica de no-controlabilidad con otras fuentes de energía renovable como la eólica o la solar, presenta una variabilidad adicional. De esta manera, diferentes localizaciones, pese a poder presentar recursos de contenido energético similar, presentan oleajes de características muy diferentes en términos de alturas y periodos de oleaje, y en la dispersión estadística de estos valores. Esta variabilidad en el oleaje hace que cobre especial relevancia la adecuación de los dispositivos de aprovechamiento de energía undimotriz (WEC: Wave Energy Converter) a su localización, de cara a mejorar su viabilidad económica. Parece razonable suponer que, en un futuro, el proceso de diseño de un parque de generación undimotriz implique un rediseño (en base a una tecnología conocida) para cada proyecto de implantación en una nueva localización. El objetivo de esta tesis es plantear un procedimiento de dimensionado de una tecnología de aprovechamiento de la energía undimotriz concreta: los absorbedores puntuales. Dicha metodología de diseño se plantea como un problema de optimización matemático, el cual se resuelve utilizando un algoritmo de optimización bioinspirado: evolución diferencial. Este planteamiento permite automatizar la fase previa de dimensionado implementando la metodología en un código de programación. El proceso de diseño de un WEC es un problema de ingería complejo, por lo que no considera factible el planteamiento de un diseño completo mediante un único procedimiento de optimización matemático. En vez de eso, se platea el proceso de diseño en diferentes etapas, de manera que la metodología desarrollada en esta tesis se utilice para obtener las dimensiones básicas de una solución de referencia de WEC, la cual será utilizada como punto de partida para continuar con las etapas posteriores del proceso de diseño. La metodología de dimensionado previo presentada en esta tesis parte de unas condiciones de contorno de diseño definidas previamente, tales como: localización, características del sistema de generación de energía eléctrica (PTO: Power Take-Off), estrategia de extracción de energía eléctrica y concepto concreto de WEC). Utilizando un algoritmo de evolución diferencial multi-objetivo se obtiene un conjunto de soluciones factibles (de acuerdo con una ciertas restricciones técnicas y dimensionales) y óptimas (de acuerdo con una serie de funciones objetivo de pseudo-coste y pseudo-beneficio). Dicho conjunto de soluciones o dimensiones de WEC es utilizado como caso de referencia en las posteriores etapas de diseño. En el documento de la tesis se presentan dos versiones de dicha metodología con dos modelos diferentes de evaluación de las soluciones candidatas. Por un lado, se presenta un modelo en el dominio de la frecuencia que presenta importantes simplificaciones en cuanto al tratamiento del recurso del oleaje. Este procedimiento presenta una menor carga computacional pero una mayor incertidumbre en los resultados, la cual puede traducirse en trabajo adicional en las etapas posteriores del proceso de diseño. Sin embargo, el uso de esta metodología resulta conveniente para realizar análisis paramétricos previos de las condiciones de contorno, tales como la localización seleccionada. Por otro lado, la segunda metodología propuesta utiliza modelos en el domino estocástico, lo que aumenta la carga computacional, pero permite obtener resultados con menos incertidumbre e información estadística muy útil para el proceso de diseño. Por este motivo, esta metodología es más adecuada para su uso en un proceso de dimensionado completo de un WEC. La metodología desarrollada durante la tesis ha sido utilizada en un proyecto industrial de evaluación energética preliminar de una planta de energía undimotriz. En dicho proceso de evaluación, el método de dimensionado previo fue utilizado en una primera etapa, de cara a obtener un conjunto de soluciones factibles de acuerdo con una serie de restricciones técnicas básicas. La selección y refinamiento de la geometría de la solución geométrica de WEC propuesta fue realizada a posteriori (por otros participantes del proyecto) utilizando un modelo detallado en el dominio del tiempo y un modelo de evaluación económica del dispositivo. El uso de esta metodología puede ayudar a reducir las iteraciones manuales y a mejorar los resultados obtenidos en estas últimas etapas del proyecto. ABSTRACT The energy transported by ocean waves (wave energy) is framed within the so-called oceanic energies. Its use to generate electric energy (or desalinate ocean water, etc.) is an idea expressed first time in a patent two centuries ago (1799). Ever since, but specially since the 1970’s, this energy has become interesting for R&D institutions and companies related with the technological and energetic sectors mainly because of the magnitude of available energy. Nowadays the development of this technology can be considered to be in a pre-commercial stage, with a wide range of devices and technologies developed to different degrees but with none standing out nor economically viable. Nor do these technologies seem ready to converge to a single device (or a reduce number of devices). The energy resource to be exploited shares its non-controllability with other renewable energy sources such as wind and solar. However, wave energy presents an additional short-term variability due to its oscillatory nature. Thus, different locations may show waves with similar energy content but different characteristics such as wave height or wave period. This variability in ocean waves makes it very important that the devices for harnessing wave energy (WEC: Wave Energy Converter) fit closely to the characteristics of their location in order to improve their economic viability. It seems reasonable to assume that, in the future, the process of designing a wave power plant will involve a re-design (based on a well-known technology) for each implementation project in any new location. The objective of this PhD thesis is to propose a dimensioning method for a specific wave-energy-harnessing technology: point absorbers. This design methodology is presented as a mathematical optimization problem solved by using an optimization bio-inspired algorithm: differential evolution. This approach allows automating the preliminary dimensioning stage by implementing the methodology in programmed code. The design process of a WEC is a complex engineering problem, so the complete design is not feasible using a single mathematical optimization procedure. Instead, the design process is proposed in different stages, so the methodology developed in this thesis is used for the basic dimensions of a reference solution of the WEC, which would be used as a starting point for the later stages of the design process. The preliminary dimensioning methodology presented in this thesis starts from some previously defined boundary conditions such as: location, power take-off (PTO) characteristic, strategy of energy extraction and specific WEC technology. Using a differential multi-objective evolutionary algorithm produces a set of feasible solutions (according to certain technical and dimensional constraints) and optimal solutions (according to a set of pseudo-cost and pseudo-benefit objective functions). This set of solutions or WEC dimensions are used as a reference case in subsequent stages of design. In the document of this thesis, two versions of this methodology with two different models of evaluation of candidate solutions are presented. On the one hand, a model in the frequency domain that has significant simplifications in the treatment of the wave resource is presented. This method implies a lower computational load but increased uncertainty in the results, which may lead to additional work in the later stages of the design process. However, use of this methodology is useful in order to perform previous parametric analysis of boundary conditions such as the selected location. On the other hand, the second method uses stochastic models, increasing the computational load, but providing results with smaller uncertainty and very useful statistical information for the design process. Therefore, this method is more suitable to be used in a detail design process for full dimensioning of the WEC. The methodology developed throughout the thesis has been used in an industrial project for preliminary energetic assessment of a wave energy power plant. In this assessment process, the method of previous dimensioning was used in the first stage, in order to obtain a set of feasible solutions according to a set of basic technical constraints. The geometry of the WEC was refined and selected subsequently (by other project participants) using a detailed model in the time domain and a model of economic evaluation of the device. Using this methodology can help to reduce the number of design iterations and to improve the results obtained in the last stages of the project.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La fusión nuclear es, hoy en día, una alternativa energética a la que la comunidad internacional dedica mucho esfuerzo. El objetivo es el de generar entre diez y cincuenta veces más energía que la que consume mediante reacciones de fusión que se producirán en una mezcla de deuterio (D) y tritio (T) en forma de plasma a doscientos millones de grados centígrados. En los futuros reactores nucleares de fusión será necesario producir el tritio utilizado como combustible en el propio reactor termonuclear. Este hecho supone dar un paso más que las actuales máquinas experimentales dedicadas fundamentalmente al estudio de la física del plasma. Así pues, el tritio, en un reactor de fusión, se produce en sus envolturas regeneradoras cuya misión fundamental es la de blindaje neutrónico, producir y recuperar tritio (fuel para la reacción DT del plasma) y por último convertir la energía de los neutrones en calor. Existen diferentes conceptos de envolturas que pueden ser sólidas o líquidas. Las primeras se basan en cerámicas de litio (Li2O, Li4SiO4, Li2TiO3, Li2ZrO3) y multiplicadores neutrónicos de Be, necesarios para conseguir la cantidad adecuada de tritio. Los segundos se basan en el uso de metales líquidos o sales fundidas (Li, LiPb, FLIBE, FLINABE) con multiplicadores neutrónicos de Be o el propio Pb en el caso de LiPb. Los materiales estructurales pasan por aceros ferrítico-martensíticos de baja activación, aleaciones de vanadio o incluso SiCf/SiC. Cada uno de los diferentes conceptos de envoltura tendrá una problemática asociada que se estudiará en el reactor experimental ITER (del inglés, “International Thermonuclear Experimental Reactor”). Sin embargo, ITER no puede responder las cuestiones asociadas al daño de materiales y el efecto de la radiación neutrónica en las diferentes funciones de las envolturas regeneradoras. Como referencia, la primera pared de un reactor de fusión de 4000MW recibiría 30 dpa/año (valores para Fe-56) mientras que en ITER se conseguirían <10 dpa en toda su vida útil. Esta tesis se encuadra en el acuerdo bilateral entre Europa y Japón denominado “Broader Approach Agreement “(BA) (2007-2017) en el cual España juega un papel destacable. Estos proyectos, complementarios con ITER, son el acelerador para pruebas de materiales IFMIF (del inglés, “International Fusion Materials Irradiation Facility”) y el dispositivo de fusión JT-60SA. Así, los efectos de la irradiación de materiales en materiales candidatos para reactores de fusión se estudiarán en IFMIF. El objetivo de esta tesis es el diseño de un módulo de IFMIF para irradiación de envolturas regeneradoras basadas en metales líquidos para reactores de fusión. El módulo se llamará LBVM (del inglés, “Liquid Breeder Validation Module”). La propuesta surge de la necesidad de irradiar materiales funcionales para envolturas regeneradoras líquidas para reactores de fusión debido a que el diseño conceptual de IFMIF no contaba con esta utilidad. Con objeto de analizar la viabilidad de la presente propuesta, se han realizado cálculos neutrónicos para evaluar la idoneidad de llevar a cabo experimentos relacionados con envolturas líquidas en IFMIF. Así, se han considerado diferentes candidatos a materiales funcionales de envolturas regeneradoras: Fe (base de los materiales estructurales), SiC (material candidato para los FCI´s (del inglés, “Flow Channel Inserts”) en una envoltura regeneradora líquida, SiO2 (candidato para recubrimientos antipermeación), CaO (candidato para recubrimientos aislantes), Al2O3 (candidato para recubrimientos antipermeación y aislantes) y AlN (material candidato para recubrimientos aislantes). En cada uno de estos materiales se han calculado los parámetros de irradiación más significativos (dpa, H/dpa y He/dpa) en diferentes posiciones de IFMIF. Estos valores se han comparado con los esperados en la primera pared y en la zona regeneradora de tritio de un reactor de fusión. Para ello se ha elegido un reactor tipo HCLL (del inglés, “Helium Cooled Lithium Lead”) por tratarse de uno de los más prometedores. Además, los valores también se han comparado con los que se obtendrían en un reactor rápido de fisión puesto que la mayoría de las irradiaciones actuales se hacen en reactores de este tipo. Como conclusión al análisis de viabilidad, se puede decir que los materiales funcionales para mantos regeneradores líquidos podrían probarse en la zona de medio flujo de IFMIF donde se obtendrían ratios de H/dpa y He/dpa muy parecidos a los esperados en las zonas más irradiadas de un reactor de fusión. Además, con el objetivo de ajustar todavía más los valores, se propone el uso de un moderador de W (a considerar en algunas campañas de irradiación solamente debido a que su uso hace que los valores de dpa totales disminuyan). Los valores obtenidos para un reactor de fisión refuerzan la idea de la necesidad del LBVM, ya que los valores obtenidos de H/dpa y He/dpa son muy inferiores a los esperados en fusión y, por lo tanto, no representativos. Una vez demostrada la idoneidad de IFMIF para irradiar envolturas regeneradoras líquidas, y del estudio de la problemática asociada a las envolturas líquidas, también incluida en esta tesis, se proponen tres tipos de experimentos diferentes como base de diseño del LBVM. Éstos se orientan en las necesidades de un reactor tipo HCLL aunque a lo largo de la tesis se discute la aplicabilidad para otros reactores e incluso se proponen experimentos adicionales. Así, la capacidad experimental del módulo estaría centrada en el estudio del comportamiento de litio plomo, permeación de tritio, corrosión y compatibilidad de materiales. Para cada uno de los experimentos se propone un esquema experimental, se definen las condiciones necesarias en el módulo y la instrumentación requerida para controlar y diagnosticar las cápsulas experimentales. Para llevar a cabo los experimentos propuestos se propone el LBVM, ubicado en la zona de medio flujo de IFMIF, en su celda caliente, y con capacidad para 16 cápsulas experimentales. Cada cápsula (24-22 mm de diámetro y 80 mm de altura) contendrá la aleación eutéctica LiPb (hasta 50 mm de la altura de la cápsula) en contacto con diferentes muestras de materiales. Ésta irá soportada en el interior de tubos de acero por los que circulará un gas de purga (He), necesario para arrastrar el tritio generado en el eutéctico y permeado a través de las paredes de las cápsulas (continuamente, durante irradiación). Estos tubos, a su vez, se instalarán en una carcasa también de acero que proporcionará soporte y refrigeración tanto a los tubos como a sus cápsulas experimentales interiores. El módulo, en su conjunto, permitirá la extracción de las señales experimentales y el gas de purga. Así, a través de la estación de medida de tritio y el sistema de control, se obtendrán los datos experimentales para su análisis y extracción de conclusiones experimentales. Además del análisis de datos experimentales, algunas de estas señales tendrán una función de seguridad y por tanto jugarán un papel primordial en la operación del módulo. Para el correcto funcionamiento de las cápsulas y poder controlar su temperatura, cada cápsula se equipará con un calentador eléctrico y por tanto el módulo requerirá también ser conectado a la alimentación eléctrica. El diseño del módulo y su lógica de operación se describe en detalle en esta tesis. La justificación técnica de cada una de las partes que componen el módulo se ha realizado con soporte de cálculos de transporte de tritio, termohidráulicos y mecánicos. Una de las principales conclusiones de los cálculos de transporte de tritio es que es perfectamente viable medir el tritio permeado en las cápsulas mediante cámaras de ionización y contadores proporcionales comerciales, con sensibilidades en el orden de 10-9 Bq/m3. Los resultados son aplicables a todos los experimentos, incluso si son cápsulas a bajas temperaturas o si llevan recubrimientos antipermeación. Desde un punto de vista de seguridad, el conocimiento de la cantidad de tritio que está siendo transportada con el gas de purga puede ser usado para detectar de ciertos problemas que puedan estar sucediendo en el módulo como por ejemplo, la rotura de una cápsula. Además, es necesario conocer el balance de tritio de la instalación. Las pérdidas esperadas el refrigerante y la celda caliente de IFMIF se pueden considerar despreciables para condiciones normales de funcionamiento. Los cálculos termohidráulicos se han realizado con el objetivo de optimizar el diseño de las cápsulas experimentales y el LBVM de manera que se pueda cumplir el principal requisito del módulo que es llevar a cabo los experimentos a temperaturas comprendidas entre 300-550ºC. Para ello, se ha dimensionado la refrigeración necesaria del módulo y evaluado la geometría de las cápsulas, tubos experimentales y la zona experimental del contenedor. Como consecuencia de los análisis realizados, se han elegido cápsulas y tubos cilíndricos instalados en compartimentos cilíndricos debido a su buen comportamiento mecánico (las tensiones debidas a la presión de los fluidos se ven reducidas significativamente con una geometría cilíndrica en lugar de prismática) y térmico (uniformidad de temperatura en las paredes de los tubos y cápsulas). Se han obtenido campos de presión, temperatura y velocidad en diferentes zonas críticas del módulo concluyendo que la presente propuesta es factible. Cabe destacar que el uso de códigos fluidodinámicos (e.g. ANSYS-CFX, utilizado en esta tesis) para el diseño de cápsulas experimentales de IFMIF no es directo. La razón de ello es que los modelos de turbulencia tienden a subestimar la temperatura de pared en mini canales de helio sometidos a altos flujos de calor debido al cambio de las propiedades del fluido cerca de la pared. Los diferentes modelos de turbulencia presentes en dicho código han tenido que ser estudiados con detalle y validados con resultados experimentales. El modelo SST (del inglés, “Shear Stress Transport Model”) para turbulencia en transición ha sido identificado como adecuado para simular el comportamiento del helio de refrigeración y la temperatura en las paredes de las cápsulas experimentales. Con la geometría propuesta y los valores principales de refrigeración y purga definidos, se ha analizado el comportamiento mecánico de cada uno de los tubos experimentales que contendrá el módulo. Los resultados de tensiones obtenidos, han sido comparados con los valores máximos recomendados en códigos de diseño estructural como el SDC-IC (del inglés, “Structural Design Criteria for ITER Components”) para así evaluar el grado de protección contra el colapso plástico. La conclusión del estudio muestra que la propuesta es mecánicamente robusta. El LBVM implica el uso de metales líquidos y la generación de tritio además del riesgo asociado a la activación neutrónica. Por ello, se han estudiado los riesgos asociados al uso de metales líquidos y el tritio. Además, se ha incluido una evaluación preliminar de los riesgos radiológicos asociados a la activación de materiales y el calor residual en el módulo después de la irradiación así como un escenario de pérdida de refrigerante. Los riesgos asociados al módulo de naturaleza convencional están asociados al manejo de metales líquidos cuyas reacciones con aire o agua se asocian con emisión de aerosoles y probabilidad de fuego. De entre los riesgos nucleares destacan la generación de gases radiactivos como el tritio u otros radioisótopos volátiles como el Po-210. No se espera que el módulo suponga un impacto medioambiental asociado a posibles escapes. Sin embargo, es necesario un manejo adecuado tanto de las cápsulas experimentales como del módulo contenedor así como de las líneas de purga durante operación. Después de un día de después de la parada, tras un año de irradiación, tendremos una dosis de contacto de 7000 Sv/h en la zona experimental del contenedor, 2300 Sv/h en la cápsula y 25 Sv/h en el LiPb. El uso por lo tanto de manipulación remota está previsto para el manejo del módulo irradiado. Por último, en esta tesis se ha estudiado también las posibilidades existentes para la fabricación del módulo. De entre las técnicas propuestas, destacan la electroerosión, soldaduras por haz de electrones o por soldadura láser. Las bases para el diseño final del LBVM han sido pues establecidas en el marco de este trabajo y han sido incluidas en el diseño intermedio de IFMIF, que será desarrollado en el futuro, como parte del diseño final de la instalación IFMIF. ABSTRACT Nuclear fusion is, today, an alternative energy source to which the international community devotes a great effort. The goal is to generate 10 to 50 times more energy than the input power by means of fusion reactions that occur in deuterium (D) and tritium (T) plasma at two hundred million degrees Celsius. In the future commercial reactors it will be necessary to breed the tritium used as fuel in situ, by the reactor itself. This constitutes a step further from current experimental machines dedicated mainly to the study of the plasma physics. Therefore, tritium, in fusion reactors, will be produced in the so-called breeder blankets whose primary mission is to provide neutron shielding, produce and recover tritium and convert the neutron energy into heat. There are different concepts of breeding blankets that can be separated into two main categories: solids or liquids. The former are based on ceramics containing lithium as Li2O , Li4SiO4 , Li2TiO3 , Li2ZrO3 and Be, used as a neutron multiplier, required to achieve the required amount of tritium. The liquid concepts are based on molten salts or liquid metals as pure Li, LiPb, FLIBE or FLINABE. These blankets use, as neutron multipliers, Be or Pb (in the case of the concepts based on LiPb). Proposed structural materials comprise various options, always with low activation characteristics, as low activation ferritic-martensitic steels, vanadium alloys or even SiCf/SiC. Each concept of breeding blanket has specific challenges that will be studied in the experimental reactor ITER (International Thermonuclear Experimental Reactor). However, ITER cannot answer questions associated to material damage and the effect of neutron radiation in the different breeding blankets functions and performance. As a reference, the first wall of a fusion reactor of 4000 MW will receive about 30 dpa / year (values for Fe-56) , while values expected in ITER would be <10 dpa in its entire lifetime. Consequently, the irradiation effects on candidate materials for fusion reactors will be studied in IFMIF (International Fusion Material Irradiation Facility). This thesis fits in the framework of the bilateral agreement among Europe and Japan which is called “Broader Approach Agreement “(BA) (2007-2017) where Spain plays a key role. These projects, complementary to ITER, are mainly IFMIF and the fusion facility JT-60SA. The purpose of this thesis is the design of an irradiation module to test candidate materials for breeding blankets in IFMIF, the so-called Liquid Breeder Validation Module (LBVM). This proposal is born from the fact that this option was not considered in the conceptual design of the facility. As a first step, in order to study the feasibility of this proposal, neutronic calculations have been performed to estimate irradiation parameters in different materials foreseen for liquid breeding blankets. Various functional materials were considered: Fe (base of structural materials), SiC (candidate material for flow channel inserts, SiO2 (candidate for antipermeation coatings), CaO (candidate for insulating coatings), Al2O3 (candidate for antipermeation and insulating coatings) and AlN (candidate for insulation coating material). For each material, the most significant irradiation parameters have been calculated (dpa, H/dpa and He/dpa) in different positions of IFMIF. These values were compared to those expected in the first wall and breeding zone of a fusion reactor. For this exercise, a HCLL (Helium Cooled Lithium Lead) type was selected as it is one of the most promising options. In addition, estimated values were also compared with those obtained in a fast fission reactor since most of existing irradiations have been made in these installations. The main conclusion of this study is that the medium flux area of IFMIF offers a good irradiation environment to irradiate functional materials for liquid breeding blankets. The obtained ratios of H/dpa and He/dpa are very similar to those expected in the most irradiated areas of a fusion reactor. Moreover, with the aim of bringing the values further close, the use of a W moderator is proposed to be used only in some experimental campaigns (as obviously, the total amount of dpa decreases). The values of ratios obtained for a fission reactor, much lower than in a fusion reactor, reinforce the need of LBVM for IFMIF. Having demonstrated the suitability of IFMIF to irradiate functional materials for liquid breeding blankets, and an analysis of the main problems associated to each type of liquid breeding blanket, also presented in this thesis, three different experiments are proposed as basis for the design of the LBVM. These experiments are dedicated to the needs of a blanket HCLL type although the applicability of the module for other blankets is also discussed. Therefore, the experimental capability of the module is focused on the study of the behavior of the eutectic alloy LiPb, tritium permeation, corrosion and material compatibility. For each of the experiments proposed an experimental scheme is given explaining the different module conditions and defining the required instrumentation to control and monitor the experimental capsules. In order to carry out the proposed experiments, the LBVM is proposed, located in the medium flux area of the IFMIF hot cell, with capability of up to 16 experimental capsules. Each capsule (24-22 mm of diameter, 80 mm high) will contain the eutectic allow LiPb (up to 50 mm of capsule high) in contact with different material specimens. They will be supported inside rigs or steel pipes. Helium will be used as purge gas, to sweep the tritium generated in the eutectic and permeated through the capsule walls (continuously, during irradiation). These tubes, will be installed in a steel container providing support and cooling for the tubes and hence the inner experimental capsules. The experimental data will consist of on line monitoring signals and the analysis of purge gas by the tritium measurement station. In addition to the experimental signals, the module will produce signals having a safety function and therefore playing a major role in the operation of the module. For an adequate operation of the capsules and to control its temperature, each capsule will be equipped with an electrical heater so the module will to be connected to an electrical power supply. The technical justification behind the dimensioning of each of these parts forming the module is presented supported by tritium transport calculations, thermalhydraulic and structural analysis. One of the main conclusions of the tritium transport calculations is that the measure of the permeated tritium is perfectly achievable by commercial ionization chambers and proportional counters with sensitivity of 10-9 Bq/m3. The results are applicable to all experiments, even to low temperature capsules or to the ones using antipermeation coatings. From a safety point of view, the knowledge of the amount of tritium being swept by the purge gas is a clear indicator of certain problems that may be occurring in the module such a capsule rupture. In addition, the tritium balance in the installation should be known. Losses of purge gas permeated into the refrigerant and the hot cell itself through the container have been assessed concluding that they are negligible for normal operation. Thermal hydraulic calculations were performed in order to optimize the design of experimental capsules and LBVM to fulfill one of the main requirements of the module: to perform experiments at uniform temperatures between 300-550ºC. The necessary cooling of the module and the geometry of the capsules, rigs and testing area of the container were dimensioned. As a result of the analyses, cylindrical capsules and rigs in cylindrical compartments were selected because of their good mechanical behavior (stresses due to fluid pressure are reduced significantly with a cylindrical shape rather than prismatic) and thermal (temperature uniformity in the walls of the tubes and capsules). Fields of pressure, temperature and velocity in different critical areas of the module were obtained concluding that the proposal is feasible. It is important to mention that the use of fluid dynamic codes as ANSYS-CFX (used in this thesis) for designing experimental capsules for IFMIF is not direct. The reason for this is that, under strongly heated helium mini channels, turbulence models tend to underestimate the wall temperature because of the change of helium properties near the wall. Therefore, the different code turbulence models had to be studied in detail and validated against experimental results. ANSYS-CFX SST (Shear Stress Transport Model) for transitional turbulence model has been identified among many others as the suitable one for modeling the cooling helium and the temperature on the walls of experimental capsules. Once the geometry and the main purge and cooling parameters have been defined, the mechanical behavior of each experimental tube or rig including capsules is analyzed. Resulting stresses are compared with the maximum values recommended by applicable structural design codes such as the SDC- IC (Structural Design Criteria for ITER Components) in order to assess the degree of protection against plastic collapse. The conclusion shows that the proposal is mechanically robust. The LBVM involves the use of liquid metals, tritium and the risk associated with neutron activation. The risks related with the handling of liquid metals and tritium are studied in this thesis. In addition, the radiological risks associated with the activation of materials in the module and the residual heat after irradiation are evaluated, including a scenario of loss of coolant. Among the identified conventional risks associated with the module highlights the handling of liquid metals which reactions with water or air are accompanied by the emission of aerosols and fire probability. Regarding the nuclear risks, the generation of radioactive gases such as tritium or volatile radioisotopes such as Po-210 is the main hazard to be considered. An environmental impact associated to possible releases is not expected. Nevertheless, an appropriate handling of capsules, experimental tubes, and container including purge lines is required. After one day after shutdown and one year of irradiation, the experimental area of the module will present a contact dose rate of about 7000 Sv/h, 2300 Sv/h in the experimental capsules and 25 Sv/h in the LiPb. Therefore, the use of remote handling is envisaged for the irradiated module. Finally, the different possibilities for the module manufacturing have been studied. Among the proposed techniques highlights the electro discharge machining, brazing, electron beam welding or laser welding. The bases for the final design of the LBVM have been included in the framework of the this work and included in the intermediate design report of IFMIF which will be developed in future, as part of the IFMIF facility final design.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Radon gas (Rn) is a natural radioactive gas present in some soils and able to penetrate buildings through the building envelope in contact with the soil. Radon can accumulate within buildings and consequently be inhaled by their occupants. Because it is a radioactive gas, its disintegration process produces alpha particles that, in contact with the lung epithelia, can produce alterations potentially giving rise to cancer. Many international organizations related to health protection, such as WHO, confirm this causality. One way to avoid the accumulation of radon in buildings is to use the building envelope as a radon barrier. The extent to which concrete provides such a barrier is described by its radon diffusion coefficient (DRn), a parameter closely related to porosity (ɛ) and tortuosity factor (τ). The measurement of the radon diffusion coefficient presents challenges, due to the absence of standard procedures, the requirement to establish adequate airtightness in testing apparatus (referred to here as the diffusion cell), and due to the fact that measurement has to be carried out in an environment certified for use of radon calibrated sources. In addition to this calibrated radon sources are costly. The measurement of the diffusion coefficient for non-radioactive gas is less complex, but nevertheless retains a degree of difficulty due to the need to provide reliably airtight apparatus for all tests. Other parameters that can characterize and describe the process of gas transport through concrete include the permeability coefficient (K) and the electrical resistivity (ρe), both of which can be measured relatively easily with standardized procedure. The use of these parameters would simplify the characterization of concrete behaviour as a radon barrier. Although earlier studies exist, describing correlation among these parameters, there is, as has been observed in the literature, little common ground between the various research efforts. For precisely this reason, prior to any attempt to measure radon diffusion, it was deemed necessary to carry out further research in this area, as a foundation to the current work, to explore potential relationships among the following parameters: porosity-tortuosity, oxygen diffusion coefficient, permeability coefficient and resistivity. Permeability coefficient measurement (m2) presents a more straightforward challenge than diffusion coefficient measurement. Some authors identify a relationship between both coefficients, including Gaber (1988), who proposes: k= a•Dn Equation 1 Where: a=A/(8ΠD020), A = sample cross-section, D020 = diffusion coefficient in air (m2/s). Other studies (Klink et al. 1999, Gaber and Schlattner 1997, Gräf and Grube et al. 1986), experimentally relate both coefficients of different types of concrete confirming that this relationship exists, as represented by the simplified expression: k≈Dn Equation 2 In each particular study a different value for n was established, varying from 1.3 to 2.5, but this requires determination of a value for n in a more general way because these proposed models cannot estimate diffusion coefficient. If diffusion coefficient has to be measured to be able to establish n, these relationships are not interesting. The measurement of electric resistivity is easier than diffusion coefficient measurement. Correlation between the parameters can be established via Einstein´s law that relates movement of electrical charges to media conductivity according to the expression: D_e=k/ρ Equation 3 Where: De = diffusion coefficient (cm2/s), K = constant, ρ = electric resistivity (Ω•cm). The tortuosity factor is used to represent the uneven geometry of concrete pores, which are described as being not straight, but tortuous. This factor was first introduced in the literature to relate global porosity with fluid transport in a porous media, and can be formulated in a number of different ways. For example, it can take the form of equation 4 (Mason y Malinauskas), which combines molecular and Knudsen diffusion using the tortuosity factor: D=ε^τ (3/2r √(πM/8RT+1/D_0 ))^(-1) Equation 4 Where: r = medium radius obtained from MIP (µm), M = gas molecular mass, R = ideal gases constant, T = temperature (K), D0 = coefficient diffusion in the air (m2/s). Few studies provide any insight as to how to obtain the tortuosity factor. The work of Andrade (2012) is exceptional in this sense, as it outlines how the tortuosity factor can be deduced from pore size distribution (from MIP) from the equation: ∅_th=∅_0•ε^(-τ). Equation 5 Where: Øth = threshold diameter (µm), Ø0 = minimum diameter (µm), ɛ = global porosity, τ = tortuosity factor. Alternatively, the following equation may be used to obtain the tortuosity factor: DO2=D0*ɛτ Equation 6 Where: DO2 = oxygen diffusion coefficient obtained experimentally (m2/s), DO20 = oxygen diffusion coefficient in the air (m2/s). This equation has been inferred from Archie´s law ρ_e=〖a•ρ〗_0•ɛ^(-m) and from the Einstein law mentioned above, using the values of oxygen diffusion coefficient obtained experimentally. The principal objective of the current study was to establish correlations between the different parameters that characterize gas transport through concrete. The achievement of this goal will facilitate the assessment of the useful life of concrete, as well as open the door to the pro-active planning for the use of concrete as a radon barrier. Two further objectives were formulated within the current study: 1.- To develop a method for measurement of gas coefficient diffusion in concrete. 2.- To model an analytic estimation of radon diffusion coefficient from parameters related to concrete porosity and tortuosity factor. In order to assess the possible correlations, parameters have been measured using the standardized procedures or purpose-built in the laboratory for the study of equations 1, 2 y 3. To measure the gas diffusion coefficient, a diffusion cell was designed and manufactured, with the design evolving over several cycles of research, leading ultimately to a unit that is reliably air tight. The analytic estimation of the radon diffusion coefficient DRn in concrete is based on concrete global porosity (ɛ), whose values may be experimentally obtained from a mercury intrusion porosimetry test (MIP), and from its tortuosity factor (τ), derived using the relations expressed in equations 5 y 6. The conclusions of the study are: Several models based on regressions, for concrete with a relative humidity of 50%, have been proposed to obtain the diffusion coefficient following the equations K=Dn, K=a*Dn y D=n/ρe. The final of these three relations is the one with the determination coefficient closest to a value of 1: D=(19,997*LNɛ+59,354)/ρe Equation 7 The values of the obtained oxygen diffusion coefficient adjust quite well to those experimentally measured. The proposed method for the measurement of the gas coefficient diffusion is considered to be adequate. The values obtained for the oxygen diffusion coefficient are within the range of those proposed by the literature (10-7 a 10-8 m2/s), and are consistent with the other studied parameters. Tortuosity factors obtained using pore distribution and the expression Ø=Ø0*ɛ-τ are inferior to those from resistivity ρ=ρ0*ɛ-τ. The closest relationship to it is the one with porosity of pore diameter 1 µm (τ=2,07), being 7,21% inferior. Tortuosity factors obtained from the expression DO2=D0*ɛτ are similar to those from resistivity: for global tortuosity τ=2,26 and for the rest of porosities τ=0,7. Estimated radon diffusion coefficients are within the range of those consulted in literature (10-8 a 10-10 m2/s).ABSTRACT El gas radón (Rn) es un gas natural radioactivo presente en algunos terrenos que puede penetrar en los edificios a través de los cerramientos en contacto con el mismo. En los espacios interiores se puede acumular y ser inhalado por las personas. Al ser un gas radioactivo, en su proceso de desintegración emite partículas alfa que, al entrar en contacto con el epitelio pulmonar, pueden producir alteraciones del mismo causando cáncer. Muchos organismos internacionales relacionados con la protección de la salud, como es la OMS, confirman esta causalidad. Una de las formas de evitar que el radón penetre en los edificios es utilizando las propiedades de barrera frente al radón de su propia envolvente en contacto con el terreno. La principal característica del hormigón que confiere la propiedad de barrera frente al radón cuando conforma esta envolvente es su permeabilidad que se puede caracterizar mediante su coeficiente de difusión (DRn). El coeficiente de difusión de un gas en el hormigón es un parámetro que está muy relacionado con su porosidad (ɛ) y su tortuosidad (τ). La medida del coeficiente de difusión del radón resulta bastante complicada debido a que el procedimiento no está normalizado, a que es necesario asegurar una estanquidad a la celda de medida de la difusión y a que la medida tiene que ser realizada en un laboratorio cualificado para el uso de fuentes de radón calibradas, que además son muy caras. La medida del coeficiente de difusión de gases no radioactivos es menos compleja, pero sigue teniendo un alto grado de dificultad puesto que tampoco está normalizada, y se sigue teniendo el problema de lograr una estanqueidad adecuada de la celda de difusión. Otros parámetros que pueden caracterizar el proceso son el coeficiente de permeabilidad (K) y la resistividad eléctrica (ρe), que son más fáciles de determinar mediante ensayos que sí están normalizados. El uso de estos parámetros facilitaría la caracterización del hormigón como barrera frente al radón, pero aunque existen algunos estudios que proponen correlaciones entre estos parámetros, en general existe divergencias entre los investigadores, como se ha podido comprobar en la revisión bibliográfica realizada. Por ello, antes de tratar de medir la difusión del radón se ha considerado necesario realizar más estudios que puedan clarificar las posibles relaciones entre los parámetros: porosidad-tortuosidad, coeficiente de difusión del oxígeno, coeficiente de permeabilidad y resistividad. La medida del coeficiente de permeabilidad (m2) es más sencilla que el de difusión. Hay autores que relacionan el coeficiente de permeabilidad con el de difusión. Gaber (1988) propone la siguiente relación: k= a•Dn Ecuación 1 En donde: a=A/(8ΠD020), A = sección de la muestra, D020 = coeficiente de difusión en el aire (m2/s). Otros estudios (Klink et al. 1999, Gaber y Schlattner 1997, Gräf y Grube et al. 1986) relacionan de forma experimental los coeficientes de difusión de radón y de permeabilidad de distintos hormigones confirmando que existe una relación entre ambos parámetros, utilizando la expresión simplificada: k≈Dn Ecuación 2 En cada estudio concreto se han encontrado distintos valores para n que van desde 1,3 a 2,5 lo que lleva a la necesidad de determinar n porque no hay métodos que eviten la determinación del coeficiente de difusión. Si se mide la difusión ya deja de ser de interés la medida indirecta a través de la permeabilidad. La medida de la resistividad eléctrica es muchísimo más sencilla que la de la difusión. La relación entre ambos parámetros se puede establecer a través de una de las leyes de Einstein que relaciona el movimiento de cargas eléctricas con la conductividad del medio según la siguiente expresión: D_e=k/ρ_e Ecuación 3 En donde: De = coeficiente de difusión (cm2/s), K = constante, ρe = resistividad eléctrica (Ω•cm). El factor de tortuosidad es un factor de forma que representa la irregular geometría de los poros del hormigón, al no ser rectos sino tener una forma tortuosa. Este factor se introduce en la literatura para relacionar la porosidad total con el transporte de un fluido en un medio poroso y se puede formular de distintas formas. Por ejemplo se destaca la ecuación 4 (Mason y Malinauskas) que combina la difusión molecular y la de Knudsen utilizando el factor de tortuosidad: D=ε^τ (3/2r √(πM/8RT+1/D_0 ))^(-1) Ecuación 4 En donde: r = radio medio obtenido del MIP (µm), M = peso molecular del gas, R = constante de los gases ideales, T = temperatura (K), D0 = coeficiente de difusión de un gas en el aire (m2/s). No hay muchos estudios que proporcionen una forma de obtener este factor de tortuosidad. Destaca el estudio de Andrade (2012) en el que deduce el factor de tortuosidad de la distribución del tamaño de poros (curva de porosidad por intrusión de mercurio) a partir de la ecuación: ∅_th=∅_0•ε^(-τ) Ecuación 5 En donde: Øth = diámetro umbral (µm), Ø0 = diámetro mínimo (µm), ɛ = porosidad global, τ = factor de tortuosidad. Por otro lado, se podría utilizar también para obtener el factor de tortuosidad la relación: DO2=D0*-τ Ecuación 6 En donde: DO2 = coeficiente de difusión del oxígeno experimental (m2/s), DO20 = coeficiente de difusión del oxígeno en el aire (m2/s). Esta ecuación está inferida de la ley de Archie ρ_e=〖a•ρ〗_0•ɛ^(-m) y la de Einstein mencionada anteriormente, utilizando valores del coeficiente de difusión del oxígeno DO2 obtenidos experimentalmente. El objetivo fundamental de la tesis es encontrar correlaciones entre los distintos parámetros que caracterizan el transporte de gases a través del hormigón. La consecución de este objetivo facilitará la evaluación de la vida útil del hormigón así como otras posibilidades, como la evaluación del hormigón como elemento que pueda ser utilizado en la construcción de nuevos edificios como barrera frente al gas radón presente en el terreno. Se plantean también los siguientes objetivos parciales en la tesis: 1.- Elaborar una metodología para la medida del coeficiente de difusión de los gases en el hormigón. 2.- Plantear una estimación analítica del coeficiente de difusión del radón a partir de parámetros relacionados con su porosidad y su factor de tortuosidad. Para el estudio de las correlaciones posibles, se han medido los parámetros con los procedimientos normalizados o puestos a punto en el propio Instituto, y se han estudiado las reflejadas en las ecuaciones 1, 2 y 3. Para la medida del coeficiente de difusión de gases se ha fabricado una celda que ha exigido una gran variedad de detalles experimentales con el fin de hacerla estanca. Para la estimación analítica del coeficiente de difusión del radón DRn en el hormigón se ha partido de su porosidad global (ɛ), que se obtiene experimentalmente del ensayo de porosimetría por intrusión de mercurio (MIP), y de su factor de tortuosidad (τ), que se ha obtenido a partir de las relaciones reflejadas en las ecuaciones 5 y 6. Las principales conclusiones obtenidas son las siguientes: Se proponen modelos basados en regresiones, para un acondicionamiento con humedad relativa de 50%, para obtener el coeficiente de difusión del oxígeno según las relaciones: K=Dn, K=a*Dn y D=n/ρe. La propuesta para esta última relación es la que tiene un mejor ajuste con R2=0,999: D=(19,997*LNɛ+59,354)/ρe Ecuación 7 Los valores del coeficiente de difusión del oxígeno así estimados se ajustan a los obtenidos experimentalmente. Se considera adecuado el método propuesto de medida del coeficiente de difusión para gases. Los resultados obtenidos para el coeficiente de difusión del oxígeno se encuentran dentro del rango de los consultados en la literatura (10-7 a 10-8 m2/s) y son coherentes con el resto de parámetros estudiados. Los resultados de los factores de tortuosidad obtenidos de la relación Ø=Ø0*ɛ-τ son inferiores a la de la resistividad (ρ=ρ0*ɛ-τ). La relación que más se ajusta a ésta, siendo un 7,21% inferior, es la de la porosidad correspondiente al diámetro 1 µm con τ=2,07. Los resultados de los factores de tortuosidad obtenidos de la relación DO2=D0*ɛτ son similares a la de la resistividad: para la porosidad global τ=2,26 y para el resto de porosidades τ=0,7. Los coeficientes de difusión de radón estimados mediante estos factores de tortuosidad están dentro del rango de los consultados en la literatura (10-8 a 10-10 m2/s).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El atrio incorporado en los edificios ha sido un recurso espacial que tempranamente se difundió a nivel global, siendo adoptado por las distintas arquitecturas locales en gran parte del mundo. Su masificación estuvo favorecida primero por la rápida evolución de la tecnología del acero y el vidrio, a partir del siglo XIX, y en segundo termino por el posterior desarrollo del hormigón armado. Otro aspecto que explica tal aceptación en la arquitectura contemporánea, es de orden social y radica en la llamativa cavidad del espacio describiendo grandes dimensiones y favoreciendo con ello, el desarrollo de una multiplicidad de usos en su interior que antes eran impensados. Al interior del atrio, la luz natural es clave en las múltiples vivencias que alberga y sea tal vez la condición ambiental más valorada, ya que entrega una sensación de bienestar al conectarnos visualmente con el ambiente natural. Por esta razón de acuerdo al método hipotético deductivo, se evaluaron los efectos de la configuración geométrica, la cubierta y la orientación en el desempeño de la iluminación natural en la planta baja, a partir un modelo extraído desde el inventario de los edificios atrio construidos en Santiago de Chile, en los últimos 30 años que fue desarrollado en el capitulo 2. El análisis cuantitativo de los edificios inventariados se elaboró en el capítulo 3, considerando las dimensiones de los atrios. Simultáneamente fueron clasificados los aspectos constructivos, los materiales y las características del ambiente interior de cada edificio. En esta etapa además, fueron identificadas las variables de estudio de las proporciones geométricas de la cavidad del atrio con los coeficientes de aspecto de las proporciones, en planta (PAR), en corte (SAR) y de la cavidad según (WI), (AR) y (RI). Del análisis de todos estos parámetros se extrajo el modelo de prueba. El enfoque del estudio del capítulo 4 fue la iluminación natural, se revisaron los conceptos y el comportamiento en el atrio, a partir de un modelo físico construido a escala para registro de la iluminancia bajo cielo soleado de la ciudad. Más adelante se construyó el modelo en ambiente virtual, relacionando las variables determinadas por la geometría de la cavidad y el cerramiento superior; examinándose de esta manera distintas transparencias, proporciones de apertura, en definitiva se evaluó un progresivo cerramiento de las aberturas, verificando el ingreso de la luz y disponibilidad a nivel de piso con la finalidad, de proveer lineamientos útiles en una primera etapa del diseño arquitectónico. Para el análisis de la iluminación natural se revisaron diferentes métodos de cálculo con el propósito de evaluar los niveles de iluminancia en un plano horizontal al interior del atrio. El primero de ellos fue el Factor de Luz Día (FLD) que corresponde, a la proporción de la iluminancia en un punto de evaluación interior respecto, la cantidad proveniente del exterior bajo cielo nublado, a partir de la cual se obtuvo resultados que revelaron la alta luminosidad del cielo nublado de la ciudad. Además fueron evaluadas las recientes métricas dinámicas que dan cuenta, de la cantidad de horas en las cuales de acuerdo a los extensos registros meteorológico de la ciudad, permitieron obtener el porcentajes de horas dentro de las cuales se cumplió el estándar de iluminancia requerido, llamado autonomía lumínica (DA) o mejor aún se permanece dentro de un rango de comodidad visual en el interior del atrio referido a la iluminancia diurna útil (UDI). En el Capítulo 5 se exponen los criterios aplicados al modelo de estudio y cada una de las variantes de análisis, además se profundizó en los antecedentes y procedencia de las fuentes de los registros climáticos utilizados en las simulaciones llevadas a cabo en el programa Daysim operado por Radiance. Que permitieron evaluar el desempeño lumínico y la precisión, de cada uno de los resultados para comprobar la disponibilidad de iluminación natural a través de una matriz. En una etapa posterior se discutieron los resultados, mediante la comparación de los datos logrados según cada una de las metodologías de simulación aplicada. Finalmente se expusieron las conclusiones y futuras lineas de trabajo, las primeras respecto el dominio del atrio de cuatro caras, la incidencia del control de cerramiento de la cubierta y la relación establecida con la altura; indicando en lo específico que las mediciones de iluminancia bajo el cielo soleado de verano, permitieron aclarar, el uso de la herramienta de simulación y método basado en el clima local, que debido a su reciente desarrollo, orienta a futuras líneas de trabajo profundizando en la evaluación dinámica de la iluminancia contrastado con monitorización de casos. ABSTRACT Atriums incorporated into buildings have been a spatial resource that quickly spread throughout the globe, being adopted by several local architecture methods in several places. Their widespread increase was highly favored, in the first place, with the rapid evolution of steel and glass technologies since the nineteen century, and, in second place, by the following development of reinforced concrete. Another issue that explains this success into contemporary architecture is associated with the social approach, and it resides in the impressive cavity that describes vast dimensions, allowing the development of multiple uses in its interior that had never been considered before. Inside the atrium, daylight it is a key element in the many experiences that involves and it is possibly the most relevant environmental factor, since it radiates a feeling of well-being by uniting us visually with the natural environment. It is because of this reason that, following the hypothetical deductive method, the effects in the performance of daylight on the floor plan were evaluated considering the geometric configuration, the deck and orientation factors. This study was based in a model withdrawn from the inventory of atrium buildings that were constructed in Santiago de Chile during the past thirty years, which will be explained later in chapter 2. The quantitative analysis of the inventory of those buildings was elaborated in chapter 3, considering the dimensions of the atriums. Simultaneously, several features such as construction aspects, materials and environmental qualities were identified inside of each building. At this stage, it were identified the variables of the geometric proportions of the atrium’s cavity with the plan aspect ratio of proportions in first plan (PAR), in section (SAR) and cavity according to well index (WI), aspect ratio (AR) and room index (RI). An experimental model was obtained from the analysis of all the mentioned parameters. The main focus of the study developed in chapter 4 is daylight. The atrium’s concept and behavior were analyzed from a physical model built under scale to register the illuminances under clear, sunny sky of the city. Later on, this physical model was built in a virtual environment, connecting the variables determined by the geometry of the cavity and the superior enclosure, allowing the examination of transparencies and opening proportions. To summarize, this stage consisted on evaluating a progressive enclosure of the openings, checking the access of natural light and its availability at the atrium floor, in an effort to provide useful guidelines during the first stage of the architectural design. For the analysis of natural lighting, several calculations methods were used in order to determine the levels of illuminances in a horizontal plane inside of the atrium. The first of these methods is the Daylight Factor (DF), which consists in the proportion of light in an evaluation interior place with the amount of light coming from the outside in a cloudy day. Results determined that the cloudy sky of the city has high levels of luminosity. In addition, the recent dynamic metrics were evaluated which reflects the hours quantity. According to the meteorological records of the city’s climate, the standard of illuminance- a standard measure called Daylight Autonomy (DA) – was met. This is even better when the results stay in the line of visual convenience within the atrium, which is referred to as Useful Daylight Illuminance (UDI). In chapter 5, it was presented the criteria applied to the study model and on each of the variants of the analysis. Moreover, the information of the climate records used for the simulations - carried out in the Daysim program managed by Radiance – are detailed. These simulations allowed the observation of the daylight performance and the accuracy of each of the results to confirm the availability of natural light through a matrix. In a later stage, the results were discussed comparing the collected data in each of the methods of simulation used. Finally, conclusions and further discussion are presented. Overall, the four side atrium’s domain and the effect of the control of the cover’s enclosure. Specifically, the measurements of the daylight under summer’s clear, sunny sky allowing clarifying the use of the simulation tool and the method based on the local climate. This method allows defining new and future lines of work deepening on the dynamic of the light in contrast with the monitoring of the cases.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The pressure variation inside the launch vehicle fairing during climb through the atmosphere induces structural loads on the walls of closed-type spacecrafts or equipment boxes. If the evacuation of the air is not fast enough, excessive pressure loading can result in damage of elements exposed to the rising pressure jump, which depends mainly on the geometry of venting holes, the effective volume of air to be evacuated, and the characteristic time of pressure variation under the fairing. A theoretical study of the reservoir discharge forced by the fairing time-dependent pressure variation is presented. The basic mathematical model developed can yield both a numerical solution for the pressure jump and an asymptotic solution for the most relevant case, the small-prcssurc-jump limit, showing the dependence on a single nondimensional parameter: the ratio of the reservoir discharge to the fairing pressure profile characteristic times. The asymptotic solution validity range upper limit, obtained by comparison with the numerical solution, is determined by the starting of choked operation. Very high sensitivity of the maximum pressure jump to the ratio of characteristic times has been observed. Another relevant finding is that the pressure profiles for different launchers can be considered similar when rewritten in appropriate form and only their characteristic times are required for the analysis. The simple expressions of the asymptotic solution are a useful tool for preliminarily sizing the reservoir discharge geometry and estimating depressurization loads

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La hipótesis de partida de esta tesis es que existe una influencia directa entre la técnica que se desarrolla durante el segundo período del s. XIX y el cambio sustancial de los conceptos y de la teoría arquitectónica que se da en esos mismos años. Dicha influencia genera nuevos modelos constructivos que serán la base de la arquitectura moderna. Para llegar a la confirmación de la hipótesis, se han planteado tres objetivos principales que responden a los tres capítulos principales de la misma. En primera instancia, se establecen las condiciones teóricas del debate arquitectónico entre las fechas estudiadas. Se analiza el concepto de modelo y «estilo» para evaluar si, efectivamente, hubo cambio o no. También se analizará si los arquitectos eran conscientes de la necesidad de una nueva arquitectura que respondiese a la funcionalidad que el progreso requería. Para comprobar que dicho cambio se ha producido a todos los niveles hasta el punto de redefinir el modelo constructivo se escoge un ejemplo práctico que cumpla las condiciones necesarias para sustentar o no la tesis y se investiga sobre si sucede o no el cambio. A continuación, se analizará la situación de la técnica y de los avances tecnológicos en el período estudiado. Es importante contrastar que realmente hay un conocimiento y una conciencia verdadera de cambio entre los teóricos y los arquitectos que están construyendo en ese momento. Confirmar que dicha conexión existe es vital para la investigación; para eso, se analizará y se profundizará en las conexiones entre la arquitectura y la ingeniería (o los avances tecnológicos) para entender la implicación de uno con el otro. Con este fin, se han estudiado las distintas publicaciones periódicas de la época; sobre todo la más relevante y la que primero se editó, que fue La revue générale de l’architecture; me he apoyado en ella. Es un documento que mensualmente recoge cambios, avances y debates. Tuvo una grandísima divulgación; todo docente, arquitecto e ingeniero de la época tenía un acceso fácil y directo a dicha publicación. Por último, a raíz de una construcción ideal proyectada por uno de los grandes arquitectos teóricos de la época, se reflexiona sobre si esa arquitectura supone realmente una comprensión y una conciencia de los nuevos modelos arquitectónicos, definidos por una técnica en progreso, o si responde exclusivamente a una utopía arquitectónica como tantas otras se habían esbozado con anterioridad por grandes teóricos. Para poder definir la geometría de este elemento estructural, se ha realizado un modelado tridimensional que permite calcular la estructura a través de un proceso de elementos finitos. El propósito de este cálculo no es exclusivamente saber si la estructura era viable o no en aquella época, sino también comprender si la definición de estos originales elementos estructurales implicaba una concepción nueva de las estructuras tridimensionales y eso significa que empezaba a germinar un cambio sustancial en la teoría de la arquitectura, con la búsqueda de un nuevo modelo constructivo derivado de los avances técnicos. De este modo queda demostrado que el modelo constructivo ha cambiado definitivamente por un modelo mucho más versátil y sobre todo con una gran capacidad de adaptación, esto combinado a su vez con una proliferación de patentes que intentan y buscan una estandarización del modelo constructivo y que no son, en ningún caso, un modelo en sí. Como última conclusión, queda argumentado que en aquella época ya se tenía una gran intuición estructural; a pesar de que el cálculo matemático era todavía algo relativamente nuevo, se manejaban de forma instintiva líneas de cargas, combinación de materiales y nuevas formas, que ayudarán a crear los modelos de los próximos años y que serán la base del cálculo numérico posterior. ABSTRACT The hypothesis of this thesis is that there is a direct influence between the technique developed during the second period of the XIX century and the substantial change in the concepts and in the architectural theory that occurs in those years. This influence develops new building models that will be the basis of modern architecture. To confirm this hypothesis, we present three principal objectives that corresponds to the three principals chapsters of the text. First, we establish the theoretical conditions of the architectural debate between the dates studied. We analyze the concepts of model and “style” to assess whether there was a change or not. We consider as well if architects were aware of the need for a new architecture to respond to the functionality needs that progress demanded. To verify that the change occurred at all levels to the extent of redefining the building model we choose a practical example that fulfills the necessary conditions to support or not the thesis and we investigate whether or not the change happens. Next, we analyze the status of technical and technological advances in the study period of study. It is important to contrast that there is a real knowledge and awareness of change between the theorists and architects who are building at the time. Confirming that that connection exists is vital for the research; for that, we will analyze and deepen into the connections between architecture and engineering (or technological progress) to understand the implication of one into the other. To this end, we have studied various publications of the time; especially the most relevant and the first published, La Revue générale de l’architecture; I have relied on it. This is a monthly document that includes changes, developments and debates. It had a very great disclosure; every teacher, architect and engineer of the time had a direct and easy access to this publication. Finally, following theoretical ideal construction projected by one of the great architects of the time, we reflect on whether that architecture really represents an understanding and awareness of the new architectural models defined by a technique in progress, or if it only responds to an architectural utopia as the ones outlined earlier by the great theorists. To be able to define the geometry of this structural item, we have carried out a three-dimensional modeling that enables us to calculate the structure through a process of finite elements. The purpose of this calculation is not exclusively understanding whether the structure was viable or not at the time, but also understanding if the definition of these original structural elements involved a new concept of three-dimensional structures and if that involved the beginning of a substantial change in theory of architecture, with the search for a new construction model derived from technical advances. In this way it is demonstrated that the building model has definitely changed for a much more versatile one and above all with a high adaptation capacity, this combined in turn with a proliferation of patents that try and seek a standardization of the building model and are not, in any case, a model in itself. As a final conclusion, it is argued that at the time a major structural intuition was present; even though the math calculation was still relatively new, in an instinctively way load lines, combination of materials and new forms were taken into account, that will help to create models in the coming years and which will form the basis of subsequent numerical calculation.