987 resultados para Cálculo do momento resistente


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Educação Matemática - IGCE

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Educação Matemática - IGCE

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La importancia de la seguridad en la aplicación de la tecnología nuclear impregna todas las tareas asociadas a la utilización de esta fuente de energía, comenzando por la fase de diseño, explotación y posterior desmantelamiento o gestión de residuos. En todos estos pasos, las herramientas de simulación computacional juegan un papel esencial como guía para el diseño, apoyo durante la operación o predicción de la evolución isotópica de los materiales del reactor. Las constantes mejoras en cuanto a recursos computacionales desde mediados del siglo XX hasta este momento así como los avances en los métodos de cálculo utilizados, permiten tratar la complejidad de estas situaciones con un detalle cada vez mayor, que en ocasiones anteriores fue simplemente descartado por falta de capacidad de cálculo o herramientas adecuadas. El presente trabajo se centra en el desarrollo de un método de cálculo neutrónico para reactores de agua ligera basado en teoría de difusión corregida con un nivel de detalle hasta la barra de combustible, considerando un número de grupos de energía mayor que los tradicionales rápido y térmico, y modelando la geometría tridimensional del núcleo del reactor. La capacidad de simular tanto situaciones estacionarias con posible búsqueda de criticidad, como la evolución durante transitorios del flujo neutrónico ha sido incluida, junto con un algoritmo de cálculo de paso de tiempo adaptativo para mejorar el rendimiento de las simulaciones. Se ha llevado a cabo un estudio de optimización de los métodos de cálculo utilizados para resolver la ecuación de difusión, tanto en el lazo de iteración de fuente como en los métodos de resolución de sistemas lineales empleados en las iteraciones internas. Por otra parte, la cantidad de memoria y tiempo de computación necesarios para resolver problemas de núcleo completo en malla fina obliga a introducir un método de paralelización en el cálculo; habiéndose aplicado una descomposición en subdominios basada en el método alternante de Schwarz acompañada de una aceleración nodal. La aproximación de difusión debe ser corregida si se desea reproducir los valores con una precisión cercana a la obtenida con la ecuación de transporte. Los factores de discontinuidad de la interfase utilizados para esta corrección no pueden en la práctica ser calculados y almacenados para cada posible configuración de una barra de combustible de composición determinada en el interior del reactor. Por esta razón, se ha estudiado una parametrización del factor de discontinuidad según la vecindad que permitiría tratar este factor como una sección eficaz más, parametrizada en función de valores significativos del entorno de la barra de material. Por otro lado, también se ha contemplado el acoplamiento con códigos termohidráulicos, lo que permite realizar simulaciones multifísica y producir resultados más realistas. Teniendo en cuenta la demanda creciente de la industria nuclear para que los resultados realistas sean suministrados junto con sus márgenes de confianza, se ha desarrollado la posibilidad de obtener las sensibilidades de los resultados mediante el cálculo del flujo adjunto, para posteriormente propagar las incertidumbres de las secciones eficaces a los cálculos de núcleo completo. Todo este trabajo se ha integrado en el código COBAYA3 que forma parte de la plataforma de códigos desarrollada en el proyecto europeo NURESIM del 6º Programa Marco. Los desarrollos efectuados han sido verificados en cuanto a su capacidad para modelar el problema a tratar; y la implementación realizada en el código ha sido validada numéricamente frente a los datos del benchmark de transitorio accidental en un reactor PWR con combustible UO2/MOX de la Agencia de Energía Nuclear de la OCDE, así como frente a otros benchmarks de LWR definidos en los proyectos europeos NURESIM y NURISP.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Con objeto de minimizar la fricción y desgaste, la industria diseña sus máquinas para que estas funcionen en régimen elastohidrodinámico durante el mayor tiempo posible. Científicos de todos los tiempos han dedicado sus vidas al estudio de la lubricación en régimen de película gruesa. Con especial interés, Ingenieros del último siglo y medio han realizado multitud de experimentos y, con los medios disponibles en su momento, han analizado y tabulado resultados, con objeto de disponer de herramientas que permitieran calcular la fuerza de fricción en contactos EHD. En el presente trabajo de tesis se ha elaborado un modelo propio de lubricación en régimen elastohidrodinámico. Este modelo permite la resolución del problema EHD por dos vías. En primer lugar la resolución analítica del problema EHD permite obtener de forma rápida valores aproximados de coeficiente de fricción y espesor de película, comprobar las hipótesis de cada modelo, y estudiar la influencia de los parámetros. En segundo lugar es posible resolver el problema EHD de forma numérica, realizándose un cálculo totalmente paramétrico de coeficiente de fricción y de la película lubricante. El cálculo se realiza de forma interactiva y a través de una herramienta informática. El objetivo del trabajo es disponer de una herramienta que aplicada a cualquier contacto tribológico (engranajes, rodamientos, etc), permita estudiar su eficiencia, predecir flash de temperatura, posibilidad de fallo por desgaste o gripado. Para el ajuste del modelo ha sido necesaria la realización de unos experimentos previos de ajuste de los equipos de ensayo. Los equipos de ensayo de laboratorio nos ofrecen unos resultados de coeficiente de fricción. Estos valores son introducidos en los modelos de la teoría elastohidrodinámica clásica disponibles en la literatura. Los modelos nos permiten estimar valores teóricos de coeficiente de fricción y espesor de película, que son contrastados con los valores de coeficiente de fricción obtenidos experimentalmente. Por repetición de experiencias ha sido posible ajustar los parámetros de material y lubricante que definen los modelos, hasta ajustar los resultados calculados con los obtenidos por vía experimental. Este ajuste ha permitido comprobar los cálculos y validar las hipótesis de los regímenes y condiciones de operación de los equipos de ensayo. Finalmente se han empleado los parámetros de material y lubricante obtenidos, para formar el modelo EHD propio. Introduciendo en el modelo los resultados obtenidos, es posible calcular el espesor de película y el coeficiente de fricción, para cualquier condición de velocidad, temperatura y carga. Para la elaboración de este modelo se ha partido de las ecuaciones de estado de la hidrodinámica (Ley de Continuidad de Reynols). Este modelo predice el comportamiento ideal en régimen hidrodinámico. Para aproximarnos al régimen elastohidrodinámico no es posible considerar a los cuerpos en contacto como sólidos rígidos que mantienen su geometría inalterada, y por tanto se introducen en este modelo las leyes que consideran la deformación elástica de los materiales. Por último es necesario tener en cuenta que sólo cuando el fluido lubricante está sometido a bajas velocidades de deformación y las condiciones de carga no son elevadas, es posible considerar su comportamiento ideal newtoniano, según el cual la tensión tangencial que ofrece es proporcional al gradiente de velocidad al que se encuentra sometido. Para el ajuste del modelo y adecuada predicción de la película lubricante es necesario introducir modelos de comportamiento del lubricante más complejos que tienen en cuenta las propiedades viscoelásticas de este, tales como Newton/Barus, Tensión Cortante Límite y Carreau. Para ello se han tomado medidas reológicas de los fluidos a distintas presiones y temperaturas. Se ha demostrado que los modelos isotermos no predicen adecuadamente el coeficiente de fricción en condiciones de funcionamiento con deslizamientos elevados, debido al calentamiento del aceite por compresión y cizalla. Es estos casos es necesario emplear un modelo termoelastohidrodinámico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente documento se ha titulado “Evolución del conocimiento del hormigón estructural hasta 1970”. El lector puede caer en la tentación de considerarlo como una mera recopilación de información, sin embargo, nada más lejano. Esta destinado a ser un manual de uso para los Ingenieros que tengan que tratar con patrimonio construido, Ingenieros que tengan que pronunciarse sobre su capacidad resistente, para lo cual, necesitan los criterios con que se proyecto y construyo de modo que puedan adoptar hoy las soluciones adecuadas. Conociendo el año de construcción de una estructura, debe poder determinar los factores que la perfilaron y a la inversa, partiendo de una determinada estructura deben ser capaces de determinar los criterios con que se proyecto. El desarrollo de este documento de apoyo ha implicado hacer una traducción de las unidades, nomenclatura y costumbres que se empleaban en aquella época, que además ha evolucionado a lo largo de los años y según los autores, a las unidades y nomenclatura que se emplean hoy, suponiendo una labor ardua para el autor de este documento. Conociendo la evolución de la curva de resistencias en todo momento, se puede determinar la distancia existente entre el valor de las solicitaciones y las resistencias del hormigón, obteniendo el correspondiente coeficiente de seguridad y vida útil de la estructura. Es el estudio que recoge este documento. Inicialmente se pensó en hacer un estudio de los métodos de calculo y condicionantes de seguridad, pero a medida que se fue ahondando en todos los criterios que utilizaban, se opto por desarrollar el calculo a flexión simple de secciones rectangulares y secciones en T así como el cálculo de soportes (el resto de los casos que no se recogen abren nuevas e importantes líneas de investigación), y la inclusión de todos los criterios con que diseñaban estructuras, incluyendo los materiales, y los criterios de seguridad que empleaban. Por tanto, el alcance del presente documento es absolutamente técnico, pretende contraponer los métodos de calculo de antaño con los actuales convirtiéndose en una guía obligada del pasado para los ingenieros de hoy. A su vez, dentro del extenso marco del conocimiento, este trabajo se ha centrado en puentes, pudiendo generalizar estos conocimientos para cualquier otra tipología de estructura de la época.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se presenta el algoritmo implementado para probar la estabilidad de pilas de puente de forma global, es decir, integradas en la estructura más general del puente. El método planteado constituye una alternativa más general al método habitual de leyes momento-curvatura. Se describe su aplicación al puente atirantado de Bucaramanga de 292 m de luz y pilas de 50 y 70 m de altura (altura total de la torre mayor de 133 m). Su aplicación, considerando confinamiento en determinadas secciones de pilas permite tener en cuenta la generación de rótulas plásticas y demostrar el grado de ductilidad alcanzado en la estructura, constituyendo una aplicación practica del método de calculo sísmico por capacidad o push-over a pilas de puente.The relevance of this article is threefold: 1st It presents in detail the algorithm used to test the stability of bridge piers in a global model, i.e., integrated in the most general structure of the bridge. 2nd The method put forward represents a more general alternative to the commonly used moment-curvature method of sectional analysis for biaxial bending under constant axial force. 3rd It describes the algorithm’s application to a 292 m span cable-stayed bridge with piers of 50 and 70 m in height (total height of the biggest tower 133 m). Its application, considering confinement in some particular cross-sections of piers permits the taking into account of “plastic hinges” phenomena due to earthquakes and demonstrates the degree of ductility achieved in the structure. This constitutes a practical application of the push-over method to bridge piers.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En los últimos años ha aumentado el interés en el desarrollo de proyectos en el ámbito de las centrales hidroeléctricas y en concreto en las centrales reversibles. Estas centrales están diseñadas para grandes caudales y saltos, lo cual conlleva túneles de gran diámetro y alta presión y a menudo son esquemas subterráneos. Por ello, los estudios relativos a revestimientos de túneles en presión y los referentes a los blindajes de acero han cobrado una mayor relevancia. En las décadas de los 60 y 70 se realizó una importante labor de investigación coincidiendo con el desarrollo hidroeléctrico en Europa y Norteamérica, que sin embargo ha quedado sin continuidad hasta esta década, en la que se ha experimentado un impulso debido al desarrollo de nuevos proyectos hidroeléctricos de gran magnitud. La adecuación de los métodos de cálculo de blindajes supone una herramienta imprescindible en el correcto desarrollo técnico de los nuevos proyectos hidroeléctricos, así como para la evaluación de la seguridad de los saltos hidroeléctricos existentes en operación. En la presente Tesis se realiza un análisis del comportamiento estructural de las galerías en presión de saltos hidroeléctricos, así como una discusión y revisión de los métodos de cálculo existentes. En concreto se analizan los siguientes aspectos: •Descripción y comparación de las formulaciones existentes para el cálculo de blindajes tanto a presión exterior como interior. •Aplicación del Método de Elementos Finitos para la modelización y cálculo resistente y frente a inestabilidad de blindajes sometidos a presión exterior. •Análisis de un caso real, en el que se ha producido un fallo estructural en un blindaje sometido a presión exterior. Discusión sobre el comportamiento de blindajes con rigidizadores. Estudio paramétrico de la capacidad resistente y de la estabilidad de los blindajes con rigidizadores. •Estudio del comportamiento diferenciado entre un rigidizador y un conector. •Detalles constructivos y de durabilidad de las galerías en presión. •Desarrollo de una metodología para el cálculo de blindajes y tuberías forzadas a fatiga derivada de las variaciones de presión de la conducción. •Análisis de un caso real de una tubería forzada sometida a procesos de variación de carga, evaluando su seguridad frente a la fatiga. El cálculo de blindajes en galerías forzadas presenta una serie de aspectos complejos, y que no permiten la definición del problema con exactitud, tales como las características del macizo rocoso y su permeabilidad, la determinación del nivel freático, la holgura existente entre el blindaje y el revestimiento del trasdós y sus posibles defectos geométricos. Por estas incertidumbres, el cálculo de blindajes supone una materia compleja y que debe ser abordada desde la cautela y el análisis de otros trabajos y/o análisis realizados con anterioridad. En cualquier caso, debe realizarse un análisis de sensibilidad de los diversos parámetros que intervienen en el cálculo. En esta tesis se han descrito las principales formulaciones de cálculo de blindajes de galerías forzadas sometidas a presión interior y exterior; se ha constatado que existe una gran diversidad y que de su aplicación no se llega a resultados concluyentes. Las formulaciones clásicas utilizadas en el cálculo de blindajes lisos y con rigidizadores sometidos a presión exterior (Amstutz y Jacobsen) no resultan del todo adecuadas ni son de aplicación general. Además, pueden arrojar resultados no conservadores o conducir a un sobredimensionamiento del blindaje en otros casos. En las formulaciones tradicionales de diseño se han tenido en cuenta como imperfecciones la holgura del blindaje y la ovalidad del mismo. En la presente tesis, se han analizado imperfecciones de tipo ondulatorio derivadas de los procesos de soldadura y la existencia de espesores reducidos en zonas de corrosión. En el caso práctico analizado sometido a presión exterior, se ha comprobado el funcionamiento real del blindaje mediante los modelos realizados con elementos finitos. Se desprende que los rigidizadores no han funcionado como tales, puesto que para blindajes lisos se obtienen presiones más bajas de pandeo y para el caso de funcionamiento correcto de los rigidizadores se habría obtenido un coeficiente de seguridad suficiente. Por este motivo, se ha analizado el posible funcionamiento de los rigidizadores, que en determinados casos pueden actuar como conectores. En estos casos deben dimensionarse de forma adecuada las soldaduras para soportar las tensiones entre chapa y conector. Por otra parte, tradicionalmente no se han tenido en cuenta los efectos de fatiga que pueden ocasionar los golpes de ariete y las pulsaciones de presión debidas a la regulación secundaria de la red. En esta tesis se ha establecido un procedimiento de comprobación de tuberías forzadas y blindajes sometidos a procesos de fatiga. Adicionalmente, se ha estudiado el caso real de las tuberías forzadas de una central reversible real (Bolarque II) en funcionamiento de regulación secundaria. Se ha concluido, como en otros casos analizados en la bibliografía, que las pulsaciones derivadas de la regulación secundaria no son significativas como para tener en cuenta la fatiga del acero. Por otra parte, las maniobras de arranque y parada (golpe de ariete) suponen una variación importante de la presión en la conducción. Sin embargo, el moderado número de ciclos permite asegurar la integridad de la tubería frente a fenómenos de fatiga. Nowadays, there is a significant concern in the development of projects in the field of hydroelectric power plants, particularly in the pump-storage projects. These plants are designed for high flow rates and heads, which entails large-diameter tunnels and high pressure ratios), and often as underground schemes. Therefore, this concern has reactivated studies about penstocks and in particular those related to steel liners. During the 1960s and 1970s due to hydropower-engineering development in Europe and North America, a major research effort was done. However, the increasing development of new large-scale hydropower projects has involved a renewed research effort during this decade. The adequacy of steel liner calculation methods is a very important issue in the proper technical development of new hydroelectric projects, and for the safety assessment of existing hydroelectric power plants in operation. In this work, an analysis of the structural behavior of pressure galleries in hydroelectric schemes was carried out. Also, a discussion and a review of existing calculation methods are included. In particular, the following issues have been considered: •Description and comparison of existing formulations for calculating the liner response to both external and internal pressure. •Analysis of an actual case study of a steel liner which failed due to external pressure. •Application of the Finite Element Method to liner modeling and analysis subjected to external pressure. •A parametric study of the shielding with stiffeners and discussion about the behavior of liner with stiffeners. •Constructive aspects and durability of pressure galleries. •Development of a methodology for estimating fatigue effects on penstocks and liners sue to pressure changes. •Analysis of an actual case study of a penstock under varying load and assessment of its safety against fatigue. The project of a hydropower penstock is a complex issue, due to the uncertainties in the definition of the problem data, such as the characteristics of the rock mass and its permeability, the determination of the water table, the existing gap between the steel liner and the concrete of the backfill, the geometric imperfections... Hence, the design and analysis of a steel liner must be addressed cautiously and take into account a review of previous studies performed. Ever, a sensitivity analysis of the various parameters involved in the calculation should be performed. In this work, some of the most relevant formulations for liner design subjected to inside and outside pressure have been studied. As a whole, there is a wide variety and its application does not lead to conclusive results. The classical formulations used in the steel liner calculation either with or without stiffeners under external pressure (Amstutz and Jacobsen) are not entirely adequate Also, those can yield both conservative and non-conservative results in large ranges of application. Traditionally design approaches only considered initial gap and ovality as the most relevant geometric imperfections. Thus, little attention was paid to those caused either by welding or by thickness loss in corroded areas. In the case study analyzed in this thesis, the actual working of the liner under external pressure has been simulated by the Finite Element Method. Results show that the stiffeners have not performed as such, since for unstiffened liner lower buckling pressures are obtained and for proper performance of the stiffeners would give a sufficient safety factor. Hence, it must be pointed out that stiffeners may perform either as such or as connectors. For the latter, welding must be designed to properly withstand stresses between the shell and the stiffener. Likewise, the potential fatigue effects due to both water hammer and pressure pulsations due to secondary regulation of the network have not been considered in many studies. It has been included in this work a procedure for checking penstocks and liners under fatigue processes. Additionally, the penstock fatigue response of an actual pump storage project (Bolarque II, Spain) subjected to secondary control operation has been assessed. As in other cases discussed in the literature, pulsations derived from the secondary control are not significant to account for fatigue of steel. Moreover, the start and stop manoeuvres (water hammer) cause a significant change in penstock pressure. However, the moderate number of cycles ensures the integrity of the penstock against fatigue phenomena.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En los últimos años, las sociedades industrializadas han tomado una mayor conciencia sobre el problema que suponen las emisiones indiscriminadas de gases de efecto invernadero a la atmósfera. El hormigón, cuyo principal componente es el cemento, es probablemente el material más utilizado en construcción. En la actualidad, las emisiones globales de CO2 debidas a la combustión del CaCO3 del cemento Pórtland representan entre el 5% y el 10% respecto del total. Estos valores son de gran interés si se considera que el compromiso aceptado al firmar el Protocolo de Kioto es de una reducción del 5% antes del año 2020, sobre el total de gases producidos. El principal objetivo del presente trabajo es el estudio microestructural y de los procesos de hidratación de los cementos con adiciones. Para ello se propone contribuir a la investigación sobre nuevos productos cementicios basados en micropartículas esféricas vítreas que pueden adicionarse al cemento antes del proceso de amasado. Los resultados obtenidos se han contrastado con las adiciones convencionales de más uso en la actualidad. El nuevo material basa su composición en la química del aluminio y el silicio. Al disminuir la cantidad de CaCO3, se contribuye al desarrollo sostenible y a la reducción de emisiones de CO2. La patente creada por el Grupo Cementos Pórtland Valderrivas (GCPV), describe el proceso de producción de las cemesferas (WO 2009/007470, 2010). Los productos que forman la materia prima para la elaboración de las cemesferas son arcillas, calizas, margas o productos o subproductos industriales, que tras su molienda, son fundidos mediante un fluido gaseoso a elevada temperatura (entre 1250ºC y 1600ºC). Este proceso permite obtener un producto final en forma esférica maciza o microesfera, que tras estabilizarse mediante un enfriamiento rápido, consigue una alta vitrificación idónea para su reactividad química, con una mínima superficie específica en relación a su masa. El producto final obtenido presenta prácticamente la finura requerida y no precisa ser molido, lo que reduce las emisiones de CO2 por el ahorro de combustible durante el proceso de molienda. El proceso descrito permite obtener un amplio abanico de materiales cementantes que, no solo pueden dar respuesta a los problemas generados por las emisiones de CO2, sino también a la disponibilidad de materiales en países donde hasta el momento no se puede fabricar cemento debido a la falta de calizas. Complementariamente se ha optimizado el método de cálculo del grado de hidratación a partir de los resultados del ensayo de ATD-TG en base a los modelos de cálculo de Bhatty y Pane. El método propuesto permite interpretar el comportamiento futuro del material a partir de la interpolación numérica de la cantidad de agua químicamente enlazada. La evolución del grado de hidratación tiene una relación directa con el desarrollo de la resistencia mecánica del material. Con el fin de caracterizar los materiales de base cemento, se ha llevado a cabo una amplia campaña experimental en pasta de cemento, mortero y hormigón. La investigación abarca tres niveles: caracterización microestructural, macroestructural y caracterización del comportamiento a largo plazo, fundamentalmente durabilidad. En total se han evaluado ocho adiciones diferentes: cuatro adiciones convencionales y cuatro tipos de cemesferas con diferente composición química. Los ensayos a escala microscópica comprenden la caracterización química, granulométrica y de la superficie específica BET de los materiales anhidros, análisis térmico diferencial y termogravimétrico en pasta de cemento y mortero, resonancia magnética de silicio en pasta de cemento, difracción de rayos X de los materiales anhidros y de las probetas de pasta, microscopía electrónica de barrido con analizador de energía dispersiva por rayos X en pasta y mortero, y porosimetría por intrusión de mercurio en mortero. La caracterización macroscópica del material comprende ensayos de determinación del agua de consistencia normal y de los tiempos de inicio y fin de fraguado en pasta de cemento, ensayos de resistencia mecánica a flexión y compresión en probetas prismáticas de mortero, y ensayos de resistencia a compresión en probetas de hormigón. Para caracterizar la durabilidad se han desarrollado ensayos de determinación del coeficiente de migración de cloruros y ensayos de resistividad eléctrica en probetas de mortero. Todos los ensayos enumerados permiten clarificar el comportamiento de las cemesferas y compararlo con las distintas adiciones de uso convencional. Los resultados reflejan un buen comportamiento resistente y durable de los materiales con adición de cemesferas. La caracterización microscópica refleja su relación con las propiedades mesoscópicas y permite comprender mejor la evolución en los procesos de hidratación de las cemesferas. In recent years industrialised societies have become increasingly aware of the problem posed by indiscriminate emission of greenhouse gases into the atmosphere. Concrete, with a main component being cement, is arguably the most widely used construction material. At present, global emissions of CO2 due to the combustion of CaCO3 from Portland cement represent between 5% and 10% of the total. If the requirement of the Kyoto Protocol of a reduction of 5% of the total gas produced before 2020 is considered, then such values are of significant interest. The main objective of this work is the assessment of the microstructure and the hydration processes of cements with additions. Such an examination proposes research into new cementitious products based on vitreous spherical microparticles that may be added to the cement before the mixing process. The results are compared with the most commonly used conventional additions. The new material bases its composition on the chemistry of aluminium and silicates. By decreasing the amount of CaCO3, it is possible both to contribute to sustainable development and reduce CO2 emissions. The patent created by Grupo Cementos Portland Valderrivas (GCPV) describes the production process of microspheres (WO 2009/007470, 2010). The products that form the raw material for manufacture are clays, lime-stone, marl and industrial products or by-products that melt after being ground and fed into a gaseous fluid at high temperatures (1250°C and 1600°C). This process allows the obtaining of a product with a solid-spherical or micro-spherical shape and which, after being stabilised in a solid state by rapid cooling, obtains a high vitrification suitable for chemical reactivity, having a minimal surface in relation to its mass. Given that the final product has the fineness required, it prevents grinding that reduces CO2 emissions by saving fuel during this process. The process, which allows a wide range of cementitious materials to be obtained, not only addresses the problems caused by CO2 emissions but also enhances the availability of materials in countries that until the time of writing have not produced cement due to a lack of limestone. In addition, the calculation of the degree of hydration from the test results of DTA-TG is optimised and based on Bhatty and Pane calculation models. The proposed method allows prediction of the performance of the material from numerical interpolation of the amount of chemically bound water. The degree of hydration has a direct relationship with the development of material mechanical strength. In order to characterise the cement-based materials, an extensive experimental campaign in cement paste, concrete and mortar is conducted. The research comprises three levels: micro-structural characterisation, macro-structural and long-term behaviour (mainly durability). In total, eight additions are assessed: four conventional additions and four types of microspheres with different chemical compositions. The micro-scale tests include characterisation of chemical composition, particle size distribution and the BET specific surface area of anhydrous material, differential thermal and thermogravimetric analysis in cement paste and mortar, silicon-29 nuclear magnetic resonance in cement paste, X-ray diffraction of the anhydrous materials and paste specimens, scanning of electron microscopy with energy dispersive X-ray analyser in cement paste and mortar, and mercury intrusion porosimetry in mortar. The macroscopic material characterisation entails determination of water demand for normal consistency, and initial and final setting times of cement paste, flexural and compressive mechanical strength tests in prismatic mortar specimens, and compressive strength tests in concrete specimens. Tests for determining the chloride migration coefficient are performed to characterise durability, together with electrical resistivity tests in mortar specimens. All the tests listed allow clarification of the behaviour of the microspheres and comparison with the various additions of conventional use. The results show good resistance and durable behaviour of materials with a microsphere addition. Microscopic characterisation reflects their relationship with mesoscopic properties and provides insights into the hydration processes of the microspheres.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis analiza los criterios con que fueron proyectadas y construidas las estructuras de hormigón hasta 1973, fecha coincidente con la Instrucción EH-73, que en contenido, formato y planteamiento, consagró la utilización de los criterios modernamente utilizados hasta ahora. Es heredera, además, de las CEB 1970. Esos años marcan el cambio de planteamiento desde la Teoría Clásica hacia los Estados Límite. Los objetivos perseguidos son, sintéticamente: 1) Cubrir un vacío patente en el estudio de la evolución del conocimiento. Hay tratados sobre la historia del hormigón que cubren de manera muy completa el relato de personajes y realizaciones, pero no, al menos de manera suficiente, la evolución del conocimiento. 2) Servir de ayuda a los técnicos de hoy para entender configuraciones estructurales, geometrías, disposiciones de armado, formatos de seguridad, etc, utilizados en el pasado, lo que servirá para la redacción más fundada de dictámenes preliminares sobre estructuras existentes. 3) Ser referencia para la realización de estudios de valoración de la capacidad resistente de construcciones existentes, constituyendo la base de un documento pre-normativo orientado en esa dirección. En efecto, esta tesis pretende ser una ayuda para los ingenieros de hoy que se enfrentan a la necesidad de conservar y reparar estructuras de hormigón armado que forman parte del patrimonio heredado. La gran mayoría de las estructuras, fueron construidas hace más de 40 años, por lo que es preciso conocer los criterios que marcaron su diseño, su cálculo y su construcción. Pretende determinar cuáles eran los límites de agotamiento y por tanto de seguridad, de estructuras dimensionadas con criterios de antaño, analizadas por la metodología de cálculo actual. De este modo, se podrá determinar el resguardo existente “real” de las estructuras dimensionadas y calculadas con criterios “distintos” a los actuales. Conocer el comportamiento de las estructuras construidas con criterios de la Teoría Clásica, según los criterios actuales, permitirá al ingeniero de hoy tratar de la forma más adecuada el abanico de necesidades que se puedan presentar en una estructura existente. Este trabajo se centra en la evolución del conocimiento por lo que no se encuentran incluidos los procesos constructivos. En lo relativo a los criterios de proyecto, hasta mediados del siglo XX, éstos se veían muy influidos por los ensayos y trabajos de autor consiguientes, en los que se basaban los reglamentos de algunos países. Era el caso del reglamento prusiano de 1904, de la Orden Circular francesa de 1906, del Congreso de Lieja de 1930. A partir de la segunda mitad del siglo XX, destacan las aportaciones de ingenieros españoles como es el caso de Alfredo Páez Balaca, Eduardo Torroja y Pedro Jiménez Montoya, entre otros, que permitieron el avance de los criterios de cálculo y de seguridad de las estructuras de hormigón, hasta los que se conocen hoy. El criterio rector del proyecto de las estructuras de hormigón se fundó, como es sabido, en los postulados de la Teoría Clásica, en particular en el “momento crítico”, aquel para el que hormigón y acero alcanzan sus tensiones admisibles y, por tanto, asegura el máximo aprovechamiento de los materiales y sin pretenderlo conscientemente, la máxima ductilidad. Si el momento solicitante es mayor que el crítico, se dispone de armadura en compresión. Tras el estudio de muchas de las estructuras existentes de la época por el autor de esta tesis, incluyendo entre ellas las Colecciones Oficiales de Puentes de Juan Manuel de Zafra, Eugenio Ribera y Carlos Fernández Casado, se concluye que la definición geométrica de las mismas no se corresponde exactamente con la resultante del momento crítico, dado que como ahora resultaba necesario armonizar los criterios de armado a nivel sección con la organización de la ferralla a lo largo de los diferentes elementos estructurales. Los parámetros de cálculo, resistencias de los materiales y formatos de seguridad, fueron evolucionando con los años. Se fueron conociendo mejor las prestaciones de los materiales, se fue enriqueciendo la experiencia de los propios procesos constructivos y, en menor medida, de las acciones solicitantes y, consiguientemente, acotándose las incertidumbres asociadas lo cual permitió ir ajustando los coeficientes de seguridad a emplear en el cálculo. Por ejemplo, para el hormigón se empleaba un coeficiente de seguridad igual a 4 a finales del siglo XIX, que evolucionó a 3,57 tras la publicación de la Orden Circular francesa de 1906, y a 3, tras la Instrucción española de 1939. En el caso del acero, al ser un material bastante más conocido por cuanto se había utilizado muchísimo previamente, el coeficiente de seguridad permaneció casi constante a lo largo de los años, con un valor igual a 2. Otra de las causas de la evolución de los parámetros de cálculo fue el mejor conocimiento del comportamiento de las estructuras merced a la vasta tarea de planificación y ejecución de ensayos, con los estudios teóricos consiguientes, realizados por numerosos autores, principalmente austríacos y alemanes, pero también norteamericanos y franceses. En cuanto a los criterios de cálculo, puede sorprender al técnico de hoy el conocimiento que tenían del comportamiento del hormigón desde los primeros años del empleo del mismo. Sabían del comportamiento no lineal del hormigón, pero limitaban su trabajo a un rango de tensióndeformación lineal porque eso aseguraba una previsión del comportamiento estructural conforme a las hipótesis de la Elasticidad Lineal y de la Resistencia de Materiales, muy bien conocidas a principios del s. XX (no así sucedía con la teoría de la Plasticidad, aún sin formular, aunque estaba implícita en los planteamientos algunos ingenieros especializados en estructuras de fábrica (piedra o ladrillo) y metálicas. Además, eso permitía independizar un tanto el proyecto de los valores de las resistencias reales de los materiales, lo que liberaba de la necesidad de llevar a cabo ensayos que, en la práctica, apenas se podían hacer debido a la escasez de los laboratorios. Tampoco disponían de programas informáticos ni de ninguna de las facilidades de las que hoy se tienen, que les permitiera hacer trabajar al hormigón en un rango no lineal. Así, sabia y prudentemente, limitaban las tensiones y deformaciones del material a un rango conocido. El modus operandi seguido para la elaboración de esta tesis, ha sido el siguiente: -Estudio documental: se han estudiado documentos de autor, recomendaciones y normativa generada en este ámbito, tanto en España como con carácter internacional, de manera sistemática con arreglo al índice del documento. En este proceso, se han detectado lagunas del conocimiento (y su afección a la seguridad estructural, en su caso) y se han identificado las diferencias con los procedimientos de hoy. También ha sido necesario adaptar la notación y terminología de la época a los criterios actuales, lo que ha supuesto una dificultad añadida. -Desarrollo del documento: A partir del estudio previo se han ido desarrollando los siguientes documentos, que conforman el contenido de la tesis: o Personajes e instituciones relevantes por sus aportaciones al conocimiento de las estructuras de hormigón (investigación, normativa, docencia). o Caracterización de las propiedades mecánicas de los materiales (hormigón y armaduras), en relación a sus resistencias, diagramas tensión-deformación, módulos de deformación, diagramas momento-curvatura, etc. Se incluye aquí la caracterización clásica de los hormigones, la geometría y naturaleza de las armaduras, etc. o Formatos de seguridad: Se trata de un complejo capítulo del que se pretende extraer la información suficiente que permita a los técnicos de hoy entender los criterios utilizados entonces y compararlos con los actuales. o Estudio de secciones y piezas sometidas a tensiones normales y tangenciales: Se trata de presentar la evolución en el tratamiento de la flexión simple y compuesta, del cortante, del rasante, torsión, etc. Se tratan también en esta parte del estudio aspectos que, no siendo de preocupación directa de los técnicos de antaño (fisuración y deformaciones), tienen hoy mayor importancia frente a cambios de usos y condiciones de durabilidad. o Detalles de armado: Incluye el tratamiento de la adherencia, el anclaje, el solapo de barras, el corte de barras, las disposiciones de armado en función de la geometría de las piezas y sus solicitaciones, etc. Es un capítulo de importancia obvia para los técnicos de hoy. Se incluye un anejo con las referencias más significativas a los estudios experimentales en que se basaron las propuestas que han marcado hito en la evolución del conocimiento. Finalmente, junto a las conclusiones más importantes, se enuncian las propuestas de estudios futuros. This thesis analyzes the criteria with which structures of reinforced concrete have been designed and constructed prior to 1973. Initially, the year 1970 was chosen as starting point, coinciding with the CEB recommendations, but with the development of the thesis it was decided that 1973 was the better option, coinciding with the Spanish regulations of 1973, whose content, format and description introduced the current criteria. The studied period includes the Classic Theory. The intended goals of this thesis are: 1) To cover a clear gap in the study of evolution of knowledge about reinforced concrete. The concept and accomplishments achieved by reinforced concrete itself has been treated in a very complete way by the main researchers in this area, but not the evolution of knowledge in this subject area. 2) To help the engineers understand structural configurations, geometries, dispositions of steel, safety formats etc, that will serve as preliminary judgments by experts on existing structures. To be a reference to the existing studies about the valuation of resistant capacity of existing constructions, constituting a basic study of a pre-regulation document. This thesis intends to be a help for the current generation of engineers who need to preserve and repair reinforced concrete structures that have existed for a significant number of years. Most of these structures in question were constructed more than 40 years ago, and it is necessary to know the criteria that influenced their design, the calculation and the construction. This thesis intends to determine the safety limits of the old structures and analyze them in the context of the current regulations and their methodology. Thus, it will then be possible to determine the safety of these structures, after being measured and calculated with the current criteria. This will allow the engineers to optimize the treatment of such a structure. This work considers the evolution of the knowledge, so constructive methods are not included. Related to the design criteria, there existed until middle of the 20th century a large number of diverse European tests and regulations, such as the Prussian norm of 1904, the Circular French Order of 1906, the Congress of Liège of 1930, as well as individual engineers’ own notes and criteria which incorporated the results of their own tests. From the second half of the 20th century, the contributions of Spanish engineers as Alfredo Páez Balaca, Eduardo Torroja and Pedro Jiménez Montoya, among others, were significant and this allowed the advancement of the criteria of the calculation of safety standards of concrete structures, many of which still exist to the present day. The design and calculation of reinforced concrete structures by the Classic Theory, was based on the ‘Critical Bending Moment’, when concrete and steel achieve their admissible tensions, that allows the best employment of materials and the best ductility. If the bending moment is major than the critical bending moment, will be necessary to introduce compression steel. After the study of the designs of many existing structures of that time by the author of this thesis, including the Historical Collections of Juan Manuel de Zafra, Eugenio Ribera and Carlos Fernandez Casado, the conclusion is that the geometric definition of the structures does not correspond exactly with the critical bending moment inherent in the structures. The parameters of these calculations changed throughout the years. The principal reason that can be outlined is that the materials were improving gradually and the number of calculated uncertainties were decreasing, thus allowing the reduction of the safety coefficients to use in the calculation. For example, concrete used a coefficient of 4 towards the end of the 19th century, which evolved to 3,57 after the publication of the Circular French Order of 1906, and then to 3 after the Spanish Instruction of 1939. In the case of the steel, a much more consistent material, the safety coefficient remained almost constant throughout the years, with a value of 2. Other reasons related to the evolution of the calculation parameters were that the tests and research undertaken by an ever-increasing number of engineers then allowed a more complete knowledge of the behavior of reinforced concrete. What is surprising is the extent of knowledge that existed about the behavior of the concrete from the outset. Engineers from the early years knew that the behavior of the concrete was non-linear, but they limited the work to a linear tension-deformation range. This was due to the difficulties of work in a non-linear range, because they did not have laboratories to test concrete, or facilities such as computers with appropriate software, something unthinkable today. These were the main reasons engineers of previous generations limited the tensions and deformations of a particular material to a known range. The modus operandi followed for the development of this thesis is the following one: -Document study: engineers’ documents, recommendations and regulations generated in this area, both from Spain or overseas, have been studied in a systematic way in accordance with the index of the document. In this process, a lack of knowledge has been detected concerning structural safety, and differences to current procedures have been identified and noted. Also, it has been necessary to adapt the notation and terminology of the Classic Theory to the current criteria, which has imposed an additional difficulty. -Development of the thesis: starting from the basic study, the next chapters of this thesis have been developed and expounded upon: o People and relevant institutions for their contribution to the knowledge about reinforced concrete structures (investigation, regulation, teaching). Determination of the mechanical properties of the materials (concrete and steel), in relation to their resistances, tension-deformation diagrams, modules of deformation, moment-curvature diagrams, etc. Included are the classic characterizations of concrete, the geometry and nature of the steel, etc. Safety formats: this is a very difficult chapter from which it is intended to provide enough information that will then allow the present day engineer to understand the criteria used in the Classic Theory and then to compare them with the current theories. Study of sections and pieces subjected to normal and tangential tensions: it intends to demonstrate the evolution in the treatment of the simple and complex flexion, shear, etc. Other aspects examined include aspects that were not very important in the Classic Theory but currently are, such as deformation and fissures. o Details of reinforcement: it includes the treatment of the adherence, the anchorage, the lapel of bars, the cut of bars, the dispositions of reinforcement depending on the geometry of the pieces and the solicitations, etc. It is a chapter of obvious importance for current engineers. The document will include an annex with the most references to the most significant experimental studies on which were based the proposals that have become a milestone in the evolution of knowledge in this area. Finally, there will be included conclusions and suggestions of future studies. A deep study of the documentation and researchers of that time has been done, juxtaposing their criteria and results with those considered relevant today, and giving a comparison between the resultant safety standards according to the Classic Theory criteria and currently used criteria. This thesis fundamentally intends to be a guide for engineers who have to treat or repair a structure constructed according to the Classic Theory criteria.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En el presente trabajo de tesis se desarrolla, en primer lugar, un estudio de peligrosidad sísmica en Ecuador continental, siguiendo una metodología probabilista zonificada. El estudio se plantea a escala regional y presenta como principales aportaciones: 1) la elaboración de un Estado del Arte sobre Tectónica y Geología de Ecuador, concluyendo con la identificación de las principales fuentes sísmicas; 2) La confección de un Catálogo Sísmico de proyecto, recopilando información de distintas agencias, que ha sido homogeneizado a magnitud momento, Mw, depurado de réplicas y premonitores y corregido por la falta de completitud para la estimación de tasas en diferentes rangos de magnitud; 3) la propuesta de un nueva zonificación sísmica, definiendo las zonas sismogenéticas en tres regímenes tectónicos: cortical, subducción interfase y subducción in-slab; 4) la caracterización sísmica de cada zona estimando los parámetros de recurrencia y Magnitud Máxima (Mmax), considerando para este último parámetro una distribución de valores posibles en función de la sismicidad y tectónica, tras un exhaustivo análisis de los datos existentes; 5) la generación de mapas de peligrosidad sísmica de Ecuador continental en términos de aceleración pico (PGA) y espectral SA (T= 1s) , en ambos casos para periodos de retorno (PR) de 475, 975 y 2475 años; 6) La estimación de espectros de peligrosidad uniforme (UHS) y sismos de control mediante desagregación de la peligrosidad, para PR de 475 y 2475 años en 4 capitales de provincia: Quito, Esmeraldas, Guayaquil y Loja. Una segunda parte del trabajo se destina al cálculo del riesgo sísmico en el Barrio Mariscal Sucre de Quito, lo que supone incidir ya a una escala municipal. Como principales contribuciones de este trabajo se destacan: 1) definición del escenario sísmico que más contribuye a la peligrosidad en Quito, que actuará como input de cálculo del riesgo; 2) caracterización de la acción sísmica asociada a ese escenario, incluyendo resultados de microzonación y efecto local en la zona de estudio; 3) Elaboración de una Base de Datos partiendo de información catastral e identificación de las tipologías dominantes; 4) Asignación de clases de vulnerabilidad y obtención de porcentajes de daño esperado en cada clase ante la acción sísmica definida previamente, con la consiguiente representación de mapas de vulnerabilidad y daño; 5) mapas de indicadores globales del riesgo sísmico; 6) Base de datos georreferenciada con toda la información generada en el estudio. Cabe destacar que el trabajo, aunque no formula nuevos métodos, si plantea una metodología integral de cálculo del riesgo sísmico, incorporando avances en cada fase abordada, desde la estimación de la peligrosidad o la definición de escenarios sísmicos con carácter hibrido (probabilista-determinista), hasta la asignación de vulnerabilidades y estimación de escenarios de daño. Esta tesis trata de presentar contribuciones hacia el mejor conocimiento de la peligrosidad sísmica en Ecuador y el riesgo sísmico en Quito, siendo uno de los primeros estudios de tesis que se desarrolla sobre estos temas en el país. El trabajo puede servir de ejemplo y punto de partida para estudios futuros; además de ser replicable en otras ciudades y municipios de Ecuador. -------------------- ABSTRACT: ------------------ This thesis first develops a study of seismic hazard in mainland Ecuador, following a zoned, probabilistic methodology. The study considers a regional scale and presents as main contributions: 1) The development of a State of Art on the Tectonics and Geology of Ecuador, concluding with the identification of the main seismic sources; 2) The creation of a Seismic Catalog project, collecting information from different agencies, which has been homogenized to Moment magnitude, Mw, purged from aftershocks and premonitories and corrected for the lack of completeness to estimate rates in different maggnitude ranges; 3) The proposal of a new seismic zoning, defining the seismogenic zones in three tectonic regimes: cortical, subduction interface and subduction in-slab; 4) The seismic characterization of each zone, estimating the parameters of recurrence and Maximum Magnitude (Mmax), considering the latter as a distribution of possible values, depending on the seismicity and tectonics, and after a thorough analysis of the existing data; 5) Seismic hazard maps of continental Ecuador in terms of peak ground acceleration (PGA) and spectral SA(T=1), and return periods (PR) of 475, 975 and 2475 years; 6) Uniform hazard spectra (UHS) and control earthquakes obtained by hazard disaggregation, for PR 475 and 2475 years in four provincial capitals: Quito, Esmeraldas, Guayaquil and Loja. The second section focuses on the calculation of seismic risk in the Quito Mariscal Sucre parish, which is already supposed to be influencing at a municipal level. The main contributions here are the: 1) Definition of the seismic scenario that contributes most to the hazard in Quito, which acts as an input in the risk calculation; 2) Characterization of the seismic action associated with that scenario, including results of micro-zoning and local effect in the study area; 3) Development of a database, based on cadastral data and identification of key typologies; 4) Allocation of vulnerability classes and obtaining percentages of damage expected in each class faced with the seismic action previously defined, with the consequent representation of maps of vulnerability and damage; 5) Global maps of seismic risk indicators; 6) Geo-referenced database with all the information generated in the study. It should be noted that although new methods are not prescribed, this study does set a comprehensive methodology for the calculation of seismic risk, incorporating advances in each phase approached, from the hazard estimation, or definition of seismic scenarios applying a hybrid (deterministic-probabilistic) method, to the allocation of vulnerabilities and estimation of damage scenarios. This thesis aims to present contributions leading to a better understanding of seismic hazard in Ecuador and seismic risk in Quito, and is one of the first studies in the country to develop such themes. This study can serve as an example and starting point for future studies, which could replicate this methodology in other cities and municipalities.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los puentes atirantados son una de las tipologías estructurales con mas desarrollo en los últimos años ya que cuentan con un ámbito de aplicación que se ha extendido en gran medida, llegando hasta el rango de luces de más de 1000 m. Por otra parte, para el caso de luces medias, este tipo de puentes aporta unas características resistentes y formales que los hacen muy adecuados en gran número de situaciones. Simultaneamente al importante número de realizaciones llevadas a cabo con esta tipología en los últimos años, se ha producido un gran desarrollo del conocimiento teórico de diferentes aspectos técnicos específicos de estos puentes, tanto a nivel de su comportamiento estructural como de la simulación y mejora de sus procesos constructivos. Estos desarrollos se han producido en gran parte gracias al avance en las capacidad de computación disponible hoy en día con los numerosos y cada vez más sofisticados programas comerciales de cálculo estructural, los cuales permiten la realización de análisis que hasta hace poco tiempo eran muy complicados de desarrollar. Una de las principales características de este tipo de estructuras, además de su elevado hiperestatismo, es la importancia del proceso constructivo, y en concreto del proceso de tesado de los cables, a la hora de conseguir alcanzar una situación final con la estructura en servicio que cumpla los requisitos establecidos a priori. Por este motivo se han llevado a cabo bastantes investigaciones orientadas a la optimización de los axiles a aplicar a los cables en el momento de su colocación y en su situación final. Parte de estos análisis se han centrado en particular en la posible influencia de ciertos parámetros geométricos y mecánicos aleatorios sobre los esfuerzos provocados sobre la estructura. Por otra parte, el propio comportamiento resistente de un tirante introduce ciertas incertidumbres en los formatos de seguridad asociados a los esfuerzos generados sobre ellos, en concreto en relación a la dependencia de estas fuerzas respecto de las cargas permanentes y a su consideración a nivel de coeficientes de seguridad asociados a dichas acciones. En vista de estos aspectos particulares se ha procedido a desarrollar la investigación que se expone a continuación, en la que se ha pretendido obtener un conocimiento adicional de algunos de estos aspectos para así poder contrastar la validez de las hipótesis que hoy en día son establecidas por la normativa vigente. De esta forma el planteamiento adoptado en esta tesis ha sido en primer lugar proponer un método novedoso de introducción de errores aleatorios sobre los esfuerzos o deformaciones de tesado de los cables, de tal manera que se pueda aplicar dicha técnica a distintas tipologías de puentes atirantados. Se pretende con ello conocer la influencia de dichos errores sobre el comportamiento de estas estructuras y valorar la magnitud de las desviaciones finalmente creadas respecto de la situación teórica. Una vez conocida la implicación que supone la aleatoriedad aplicada en la colocación de los tirantes, tanto cualitativa como cuantitativamente, se ha procedido a realizar un análisis de las consecuencias respecto de los formatos de seguridad que de estos datos se deducen. Señalar que esta tesis se ha centrado en el caso concreto de puentes atirantados construidos por voladizos sucesivos y con tableros de hormigón, dado el gran numero de puentes ejecutados con estas características, y con el objetivo de concentrar el estudio realizado en una tipología particular, pero de gran aplicación. Cable-stayed bridges represent one of the most developed structural typologies being used recently as it has a span range that can extend beyond 1000m. Furthermore, when it comes to bridges that span to a medium range we could say their shape and resistance are features that make this kind of bridge suitable for many different applications. Moreover, due to this type of bridge being used newly more extensively it has allowed for a better understanding of the theoretical knowledge of the various technical aspects both at a structural and simulation level in order to improve the constructions process of this type of bridge. Knowledge and development of these bridges can be attributed to the increasing apprehension of I.T. skills and the development of more advanced computer software with regards to structural calculations. The latter can aide more demanding analysis that was previously difficult to ascertain Defining features of this type of structure, besides its hyper static attributes, is the importance of the construction process, namely the cable tensioning process, which determines whether the requirements set out in the construction process will be met once the bridge is finished and traffic loads are applied. This is why much research has been conducted into the optimization of the axial forces to be applied to the cables. Focus, of part of this research, goes into the possible influences of random geometrical and mechanical parametres on the forces applied to the structure. We have therefore proceeded to develop research in which we have tried to gain more in depth knowledge which considers these aspects so that we can validate the hypothesis which are currently established in the regulations Firstly, the purpose of this thesis is to provide a new method to introduce random errors on the forces or deformations of cable tensioning so that this technique can be extended to various models of cable-staying bridges. It is important to highlight that this thesis has focused on cable-stayed bridges built through the balanced cantilever method and with concrete girders and considering there are many actual bridges with these characteristics the research has focused on a specific yet extensively applied method.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de esta tesis es poner de relieve cómo el desarrollo del cálculo de estructuras ha influido en la manera de concebir la forma arquitectónica y qué relaciones se establecen entre estructura (formal) y estructura resistente. Este modo de explicar el hecho arquitectónico, desde la relación arte-estructura, no es el más generalizado. Por lo que profundizar en él podría llegar a enriquecer la manera en la que se comprende la arquitectura. Por tanto, se parte de la base de que la técnica no es sólo un instrumento, un medio del que disponer, sino que es un proceso mediante el cual la abstracción se hace tangible. Con lo que se produce una retroalimentación entre lo universal, es decir, lo abstracto, y lo concreto, o sea, lo real. Además, esta investigación se centra en la estructura resistente, en tanto que se trata del único principio sine qua non de la tríada vitruviana. Sin embargo, no se incurre en el error de pensar que la arquitectura depende únicamente de la tecnología para su desarrollo; hay muchos más condicionantes que intervienen en ella, que van desde la expresión, hasta cuestiones sociológicas. La manera en la que los proyectistas diseñan se desarrolla en paralelo a la evolución de la técnica. Ahora bien, la meta de esta investigación consiste en dilucidar hasta qué punto la voluntad de los arquitectos e ingenieros es independiente de la tecnología. Para ello, se lleva a cabo un análisis desde dos puntos de vista. El primero plantea un desarrollo histórico de la evolución de la teoría del cálculo de estructuras en el que, a través del tiempo, se analizan las repercusiones formales que se han ido derivando de él, tanto en ingeniería, como en arquitectura. Se pretende, así, llevar a cabo una lectura de la historia para entender el presente y proyectar el futuro. La segunda visión que se plantea estudia el modo en el que los historiadores de la arquitectura moderna han entendido la noción de estructura resistente. Dado que se entiende que los críticos de arquitectura inf uyen en la manera de pensar y entender dicha disciplina. Para desarrollarla se tomó como referencia a Panayotis Tournikiotis y su libro La historiografía de la arquitectura moderna. Finalmente, se elabora una lectura transversal de ambos puntos de vista, con la intención de discernir la influencia de la técnica en la génesis de la arquitectura en el siglo XX. En ella se estudian algunos de los ejemplos más importantes de la arquitectura moderna, así como se intentan esclarecer las distintas maneras de proyectar en relación a la estructura resistente. A partir de todo lo anterior se pretende responder a la siguiente pregunta: ¿la manera en que los proyectistas plantean la relación entre estructura (formal) y estructura resistente ha sido la misma a lo largo de la Historia? Podría decirse que no. Dicha relación ha evolucionado desde el empirismo a la invención, pasando por la ciencia. En cada una de esas etapas el entendimiento, no sólo del comportamiento estructural de las construcciones, sino también del Imago Mundi, ha ido variando; lo que se ha plasmado en la relación entre estructura (formal) y estructura resistente en los edificios. RECENSIONE L’obiettivo della presente tesi è mettere in evidenza come lo sviluppo del calcolo strutturale ha inf uenzato il modo di concepire la forma architettonica e, che relazioni si stabiliscono tra struttura (formale) e struttura resistente. Questo modo di spiegare la questione architettonica, partendo dalla relazione arte-struttura, non è il più comune. Quindi, approfondire la ricerca su questo aspetto potrebbe arrivare ad arricchire la maniera in cui si capisce l’architettura. Per tanto, si parte da un principio di base ovvero che la tecnica non è soltanto uno strumento, un medio di cui disporre, ma che è un processo mediante il quale l’astrazione si fa tangibile. Con cui si produce una retroalimentazione tra l’universale, cioè, l’astratto e il concreto, ossia, il reale. Inoltre, questa ricerca si centra nella struttura resistente, in quanto si tratta dell’unico principio sine qua non della triade vitruviana. Eppure, non s’incorre nell’errore di pensare che l’architettura dipenda unicamente della tecnologia per il suo sviluppo; ci sono molti altri condizionanti che intervengono in essa, che vanno dalla espressione f no a questioni sociologiche. La maniera in cui i progettisti disegnano si sviluppa in parallelo alla evoluzione della tecnica. Tuttavia, l’obbiettivo della ricerca consiste nel cercare di chiarire f no che punto la volontà progettuale e ideativa degli architetti e degli ingegneri è indipendente della tecnologia. Per questo, si realizza un’analisi da due punti di vista. Il primo ipotizza uno sviluppo storico dell’evoluzione della teoria del calcolo strutturale in cui, attraverso del tempo, si analizzano le ripercussioni formali che si sono derivate da questo, sia in ingegneria sia in architettura. Si pretende così, realizzare una lettura della storia per capire il presente e progettare il futuro. La seconda visione che s’ ipotizza, studia il modo in cui gli storici dell’architettura moderna hanno capito la nozione di struttura resistente. Poiché si capisce che i critici di architettura inf uiscono nella maniera di pensare e capire questa disciplina. Per svilupparla si prese come riferimento Panayotis Tournikiotis e il suo libro La storiograf a dell’architettura moderna. Finalmente, si elabora una lettura trasversale di ambedue punti di vista, con l’intenzione di discernere l’inf uenza della tecnica nella genesi dell’architettura nel XX secolo. In questa si studiano alcuni degli esempi più importanti dell’architettura moderna, così come si tentano chiarif care le diverse maniere di progettare in relazione alla struttura resistente. Oltretutto quello precedente, si pretende rispondere alla seguente domanda: La maniera in cui i progettisti ipotizzano la relazione tra struttura (formale) e struttura resistente è stata la stessa lungo la storia? Potrebbe dirsi di no. Essa relazione si è evoluta dall’empirismo all’invenzione, passando per la scienza. In ogni una di queste tappe si cerca di comprendere, non soltanto il comportamento strutturale delle costruzioni, ma anche l’aspetto del Imago Mundi. Ció che é cambiato è la coesistenza tra struttura (formale) e struttura resistente negli edifici. ABSTRACT T e objective of this thesis is to highlight how the development of structural analysis has influenced the way of conceiving architectural form and what relationship exists between (formal) structure and resistant structure. T is way of explaining architecture, from the relationship between art and structure, is not the most generalized, which is why increasing our understanding of it can enrich the way in which architecture is understood. Therefore, the basis is that technique is not only an instrument, a medium to have, but rather a process through which abstraction becomes tangible. Because of this, a type of feedback is produced between what is universal, in other words, abstract, and concrete, real. Additionally, this research focuses on resistant structure in that it refers to the unique principal sine qua non of the Vitruvian triad. However, it does not err by accepting the idea that architecture depends only on technology for its development; there are many conditioners which intervene which include everything from expression to sociological issues. T e way in which builders design is developed parallel to the evolution of technique. T e goal of this investigation consists of explaining to what point the will of architects and engineers is independent from technology. For this, an analysis of two points of view is helpful. T e f rst proposes a historical development of the theory of structures in which, through time, formal repercussions that have derived from it, in engineering as well as in architecture, are analyzed. In this way, a historical reading is attempted in order to understand the present and predict the future. T e second vision that is proposed studies the manner in which historians of modern architecture have understood the notion of resistant structure, given that it is understood that the critics of architecture inf uence the way of thinking about and understanding this discipline. In order to develop it, Panayotis Tournikiotis and his book La historiografía de la arquitectura moderna was used as a reference. Finally, a transversal reading of both points of view is done with the intention of discerning the influence of technique in the genesis of architecture in the 20th century. In this reading, several of the most important examples of modern architecture are studied and an attempt is made at shedding light on the different ways of designing in relation to resistant structure. Using the previous discussion, one can attempt to respond to the following question: Has the way in which designers conceive the relationship between (formal) structure and resistant structure been the same throughout history? In fact, the answer is no, this relationship has evolved from empiricism into invention, while incorporating scientific elements. At each of the stages of understanding, structural behavior of constructions as well as that of the Imago Mundi has continually changed, which has been captured in the relationship between (formal) structure and resistant structure in buildings.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las nuevas tecnologías aplicadas a la enseñanza permiten la visualización de fenómenos físicos y su relación con la base matemática utilizada en la modelización de los mismos. En este trabajo se ha utilizado el programa Mathematica para realizar aplicaciones ilustrativas de distintos conceptos básicos para el cálculo de estructuras de ingeniería civil y edificación. Se han tratado temas como la reología, la plastificación de los materiales, la relación entre tensiones y deformaciones de los sólidos elásticos o la dinámica estructural, siempre desde un punto de vista teórico-práctico y tratando de mantener en todo momento un carácter interactivo que permita la participación activa de los estudiantes. Cada aplicación compagina los fundamentos teóricos y la influencia de los parámetros implicados, con la visualización en forma de gráfico animado de la función resultante.