1000 resultados para Ingeniería térmica
Resumo:
En esta obra se recoge el discurso que pronunció D. Roberto Fernández de Caleya al ser nombrado miembro de la Academia de Ingeniería y la contestación de Martín Pereda, donde recuerda y analiza la trayectoria vital y académica del nuevo académico.
Resumo:
La Academia de Ingeniería fue fundada como Corporación de Derecho Público por Real Decreto de S. M. Juan Carlos I el 29 de abril de 1994 y recibió el título de «real» el 14 de julio de 2003. Según indican sus estatutos, se trataba de crear una entidad activa y cualificada en la prospección y análisis crítico de la evolución científica y técnica con capacidad de aconsejar tanto a organismos del Estado como a la sociedad en general. La promoción de la calidad y la competencia de la ingeniería es el objetivo permanente de la RAI. Se intenta cumplir con él actuando en varios frentes. En primer lugar reconociendo el mérito: el de las personas mediante su elección como miembros de la Academia, el de las empresas mediante el Premio Academiae Dilecta, y el de los estudiosos mediante el Premio a los Investigadores Jóvenes. Se han creado foros de discusión, siguiendo diferentes formatos, para tratar sobre grandes temas de actualidad, tales como la aventura aeroespacial, la biotecnología, la seguridad frente a incendios en los túneles, la energía, el impacto medioambiental de las obras de ingeniería y el futuro de las grandes infraestructuras. También es una labor de estímulo de la calidad y competencia la edición de las Comunicaciones a la Academia, donde se remarca la importancia de la innovación invitando a equipos jóvenes a que presenten logros de la ingeniería española que hayan dado lugar a algún resultado tangible y no meramente especulativo. Satélites, nanotecnología, bioingeniería, comunicaciones, etc., son algunos de los temas de las comunicaciones publicadas hasta ahora. Otro delos fines de la Academia, según el artículo 3 de sus estatutos fundacionales es "elaborar y mantener actualizado un lexicón en lengua castellana de términos relativos a la ingeniería", y sobre ello trata este capítulo.
Resumo:
Los métodos numéricos aplicados al estudio de estructuras sometidas a esfuezos de origen sísmico han sido utilizados habitualmente en ingeniería. La limitación tradicional con que se encontraba el analista radicaba en el enorme esfuerzo de cálculo mecánico necesario para obtener respuestas significativas tan pronto como el modelo matemático a analizar presentaba una cierta complejidad. Esta situación se vió sustancialmente modificada por la aparición del ordenador que, justamente, libera al proyectista del trabajo repetitivo irracional y permite dedicar tiempo a la reflexión, a la par que aumenta espectacularmente la capacidad de modelado. No es extraño pues, que en los ultimos 30 años se haya asistido a un renacimiento de una rama de la Matemática que parecía agostada y que ,fecundada por la nueva herramienta ha florecido en un sinf{n de técnicas y procedimientos que ponen al alcance del ingeniero el análisis de virtualmente, cualquier problema estructural. En este capítulo se pretende exponer algunas de las ideas subyacentes en estos métodos nuevos así como su posible aplicación al campo que nos interesa. Evidentemente, la limitación de espacio impedirá profundizar adecuadamente en los temas, pero la finalidad última será dotar al estudioso de un marco general en el que situar posteriores aventuras intelectuales. El contenido se articula en tres grupos principales que se refieren, respectivamente al modelado de la solicitación sísmica, de la estructura y cimiento, y al análisis de la respuesta. Tras lo dicho anteriormente, una exposición que no incluyese alguna manifestación palpable de la influencia de la máquina, estaría indefectiblemente esviada. Por ello, se incluyen como apéndices cuatro bloques de subrutinas; dos de ellas, en lenguaje Basic de microordenador, se refeiren a la transformada rápida de Fourier de la que se hablará más adelante, y al cálculo de autovalores de estructuras formadas por barras; la tercera es un pequeño programa en Fortran IV, que permite obtener la respuesta de un sistema de un grado de libertad por un método de integracidn paso a paso. En el primer apartado se inserta tambien un programa de determinación de hipocentros. Todas las subrutinas son elementales y ampliamente mejorables. Creemos sin embargo que ello las hace especialmente legibles lo que puede impeler su uso y mejora par el estudiante ; intervención, en definitiva ,deseada y que es el más importante objetivo al que aspiramos.
Resumo:
El comportamiento estructural de las presas de embalse es difícil de predecir con precisión. Los modelos numéricos para el cálculo estructural resuelven bien las ecuaciones de la mecánica de medios continuos, pero están sujetos a una gran incertidumbre en cuanto a la caracterización de los materiales, especialmente en lo que respecta a la cimentación. Así, es difícil discernir si un estado que se aleja en cierta medida de la normalidad supone o no una situación de riesgo estructural. Por el contrario, muchas de las presas en operación cuentan con un gran número de aparatos de auscultación, que registran la evolución de diversos indicadores como los movimientos, el caudal de filtración, o la presión intersticial, entre otros. Aunque hoy en día hay muchas presas con pocos datos observados, hay una tendencia clara hacia la instalación de un mayor número de aparatos que registran el comportamiento con mayor frecuencia [1]. Como consecuencia, se tiende a disponer de un volumen creciente de datos que reflejan el comportamiento de la presa. En la actualidad, estos datos suelen tratarse con métodos estadísticos para extraer información acerca de la relación entre variables, detectar anomalías y establecer umbrales de emergencia. El modelo general más común es el denominado HST (Hydrostatic-Season-Time), que calcula la predicción de una variable determinada de una presa a partir de una serie de funciones que tienen en cuenta los factores que teóricamente más influyen en la respuesta: la carga del embalse, el efecto térmico (en función de la época del año) y un término irreversible. Puntualmente se han aplicado modelos más complejos, en algunos casos introduciendo un número mayor de variables, como la precipitación [2], y en otros con otras expresiones como la función impulso-respuesta [3]. En otros campos de la ciencia, como la medicina o las telecomunicaciones el volumen de datos es mucho mayor, lo que ha motivado el desarrollo de numerosas herramientas para su tratamiento y para el desarrollo de modelos de predicción. Algunas de ellas, como las redes neuronales, ya han sido aplicadas al caso de la auscultación de presas [4], [5] con resultados prometedores. El trabajo que se presenta es una revisión de las herramientas disponibles en los campos de la minería de datos, inteligencia artificial y estadística avanzada, potencialmente útiles para el análisis de datos de auscultación. Se describen someramente, indicando sus ventajas e inconvenientes. Se presenta además el resultado de aplicar un modelo basado en bosques aleatorios [6] para la predicción del caudal de filtración en un caso piloto. Los bosques aleatorios están basados en los árboles de decisión [7], que son modelos que dividen el conjunto de datos observados en grupos de observaciones “similares”. Posteriormente, se ajusta un modelo sencillo (típicamente lineal, o incluso un valor constante) que se aplica a los nuevos casos pertenecientes a cada grupo.
Resumo:
Los cortes de alimentación eléctrica del pasado verano han enfrentado a grandes masas de población con la estupefacción que se siente si hay accidentes en sistemas cuya fiabilidad es tan grande que el uso consuetudinario nos ha acostumbrado a indignarnos si la probabilidad de fallo se convierte en certeza y descubrimos que esa fiabilidad no es infinita. Quiero decir con ello que hemos ido incorporando a nuestros hábitos las ventajas que produce el uso de nuevas aplicaciones de los avances científicos y técnicos que la ingeniería, siguiendo su tradición de progreso continuo y protagonismo público nulo, ha ido poniendo a nuestra disposición y, como pasa siempre, solo valoramos lo que damos por descontado que tenemos cuando dejamos de poseerlo.
Resumo:
En el primer capítulo se analizan las generalidades relativas al sismo. Tras algunas consideraciones sobre los fenómenos que aparecen durante un terremoto se describen algunos ejemplos históricos que han sido determinantes en el desarrollo del conocimiento y, finalmente, se plantean algunos problemas típicos de la ingeniería sísmica. En el siguiente capítulo se resumen algunos conceptos utilizados en la descripción física de la acción. Se trata de una presentación muy somera de temas en continua evolución. Se comienza con unas indicaciones sobre tectónica global que permiten hacerse una idea del origen de los terremotos en un marco general. A continuación se recuerdan algunos conceptos imprescindibles sobre propagación de ondas en medios elásticos, lo que permite comentar la composición de los acelerogramas, la estructura interna de la tierra y la localización de terremotos. Finalmente se incluyen las definiciones fenomenológicas e instrumentales utilizadas para describir el sismo, así como algunas correlaciones habituales entre ellas. En el capítulo posterior se desarrollan los criterios que permiten fijar la importancia de la acción sísmica en un emplazamiento determinado. Aunque aquéllos son semejantes para una cuantificación global y local se va a poner especial énfasis en la explicación de los métodos que han llevado al establecimiento del mapa sísmico español. En general cabe decir que el proyectista necesita evaluar los riesgos de diferentes niveles de daño con objeto de comparar soluciones alternativas. Para ello se precisa ser capaz de cuantificar y localizar la importancia de los sismos, el daño que producen en las estructuras así como cuantificar el coste generalizado (coste inicial+ beneficios+ coste de reparación) de la construcción. Tradicionalmente se ha empleado un enfoque determinista en que la solicitación sísmica se tomaba semejante a la máxima registrada históricamente. Tan solo en épocas recientes se ha impuesto una filosofía probabilista basada fundamentalmente en ideas expuestas por Cornell y Esteva en los años sesenta. En ambos casos se recurre a un estudio detallado de la estructura geotectónica de la región, en especial sus fallas activas, así como a la historia sísmica con localización de epicentros y asignación de intensidades que en nuestro país se puede basar en los catálogos existentes. En el caso determinista se postula que el máximo sismo histórico de cada falla se produce en la zona más próxima al emplazamiento, y utilizando fórmulas de atenuación se obtiene la característica de interés en aquel. En el último capítulo se van a describir métodos que, además de su aplicabilidad a sismos concretos han permitido la identificación de propiedades globales y, por tanto, la definición de la acción en función de un número limitado de parámetros. Aunque en un principio la descripción temporal fue la más usada, se ha observado que el contenido en frecuencias tiene una importancia capital y por ello se presentan sucesivamente ambos enfoques. Se dedica un apartado especial al concepto de espectro de respuesta elástica ya que está en la base de la mayoría de las recomendaciones de la normativa y recoge en forma muy sencilla una impresionante cantidad de información. Finalmente, se realizan breves indicaciones sobre los procedimientos utilizados para generar acelerogramas sintéticos que gocen de algunas de las propiedades globales puestas de manifiesto por las representaciones anteriores. Conviene remarcar que la importancia de los conceptos de densidad espectral o espectro de respuesta, radican no sólo en su capacidad para representar propiedades de un sismo dado sino, a través de su correspondiente normalización y promediación. En el último capítulo se incluyen algunas observaciones de interés sobre las modificaciones que las condiciones locales del suelo introducen en el movimiento sísmico.
Resumo:
El objetivo del presente proyecto es realizar el pre-diseño de una instalación solar mixta fotovoltaica-térmica para satisfacer la demanda eléctrica para iluminación y para parte de las necesidades de energía térmica para agua caliente de una vivienda. El proyecto define las condiciones técnicas de la instalación a partir de la radiación solar registrada en la localización elegida. Además de incluir el estudio económico y los planos correspondientes que indican la viabilidad del mismo. Como puntos a destacar en el proyecto, se puede tomar los datos obtenidos de generación eléctrica y térmica, la viabilidad técnica y económica y el análisis de la incipiente tecnología de paneles híbridos fotovoltaicos-térmicos. La incorporación de las energías renovables es ya una realidad para las viviendas de nueva construcción, en cambio son pocas las nuevas instalaciones en edificios o viviendas ya construidas. Es importante promover este tipo de tecnologías con objetivo de reducir la dependencia actual de los combustibles fósiles y evitar así sus efectos nocivos al medio ambiente. ABSTRACT The purpose of this project is to carry out the draft design of a solar mixed photovoltaic-thermal installation to satisfy the electrical and thermal demand in a building, for lighting as well as for some of the energy required for water heating. The project defines the technical conditions of the system, given the solar radiation registered in the chosen location. It also includes the economic analysis and the respective plans that indicates the viability of the project. The highlights of the project are the following: electricity and thermal energy generation data, the technical and financial viability and the analysis of the new technology of the Photovoltaic-Thermal hybrid solar collectors. The inclusion of renewable energies is already a living reality for newly constructed buildings. By contrast, they are rarely implemented in old buildings. In order to be able to reduce the fossil fuels dependency, and in doing so, avoid its damaging effects on the environment, it is very important to promote the use of these cleaner technologies.
Resumo:
La Ingeniería del Software (IS) Empírica adopta el método científico a la IS para facilitar la generación de conocimiento. Una de las técnicas empleadas, es la realización de experimentos. Para que el conocimiento obtenido experimentalmente adquiera el nivel de madurez necesario para su posterior uso, es necesario que los experimentos sean replicados. La existencia de múltiples replicaciones de un mismo experimento conlleva la existencia de numerosas versiones de los distintos productos generados durante la realización de cada replicación. Actualmente existe un gran descontrol sobre estos productos, ya que la administración se realiza de manera informal. Esto causa problemas a la hora de planificar nuevas replicaciones, o intentar obtener información sobre las replicaciones ya realizadas. Para conocer con detalle la dimensión del problema a resolver, se estudia el estado actual de la gestión de materiales experimentales y su uso en replicaciones, así como de las herramientas de gestión de materiales experimentales. El estudio concluye que ninguno de los enfoques estudiados proporciona una solución al problema planteado. Este trabajo persigue como objetivo mejorar la administración de los materiales experimentales y replicaciones de experimentos en IS para dar soporte a la replicación de experimentos. Para satisfacer este objetivo, se propone la adopción en experimentación de los paradigmas de Gestión de Configuración del Software (GCS) y Línea de Producto Software (LPS). Para desarrollar la propuesta se decide utilizar el método de investigación acción (en inglés action research). Para adoptar la GCS a experimentación, se comienza realizando un estudio del proceso experimental como transformación de productos; a continuación, se realiza una adopción de conceptos fundamentada en los procesos del desarrollo software y de experimentación; finalmente, se desarrollan un conjunto de instrumentos, que se incorporan a un Plan de Gestión de Configuración de Experimentos (PGCE). Para adoptar la LPS a experimentación, se comienza realizando un estudio de los conceptos, actividades y fases que fundamentan la LPS; a continuación, se realiza una adopción de los conceptos; finalmente, se desarrollan o adoptan las técnicas, simbología y modelos para dar soporte a las fases de la Línea de Producto para Experimentación (LPE). La propuesta se valida mediante la evaluación de su: viabilidad, flexibilidad, usabilidad y satisfacción. La viabilidad y flexibilidad se evalúan mediante la instanciación del PGCE y de la LPE en experimentos concretos en IS. La usabilidad se evalúa mediante el uso de la propuesta para la generación de las instancias del PGCE y de LPE. La satisfacción evalúa la información sobre el experimento que contiene el PGCE y la LPE. Los resultados de la validación de la propuesta muestran mejores resultados en los aspectos de usabilidad y satisfacción a los experimentadores. ABSTRACT Empirical software engineering adapts the scientific method to software engineering (SE) in order to facilitate knowledge generation. Experimentation is one of the techniques used. For the knowledge generated experimentally to acquire the level of maturity necessary for later use, the experiments have to be replicated. As the same experiment is replicated more than once, there are numerous versions of all the products generated during a replication. These products are generally administered informally without control. This is troublesome when it comes to planning new replications or trying to gather information on replications conducted in the past. In order to grasp the size of the problem to be solved, this research examines the current state of the art of the management and use of experimental materials in replications, as well as the tools managing experimental materials. The study concludes that none of the analysed approaches provides a solution to the stated problem. The aim of this research is to improve the administration of SE experimental materials and experimental replications in support of experiment replication. To do this, we propose the adaptation of software configuration management (SCM) and software product line (SPL) paradigms to experimentation. The action research method was selected in order to develop this proposal. The first step in the adaptation of the SCM to experimentation was to analyse the experimental process from the viewpoint of the transformation of products. The concepts were then adapted based on software development and experimentation processes. Finally, a set of instruments were developed and added to an experiment configuration management plan (ECMP). The first step in the adaptation of the SPL to experimentation is to analyse the concepts, activities and phases underlying the SPL. The concepts are then adapted. Finally, techniques, symbols and models are developed or adapted in support of the experimentation product line (EPL) phases. The proposal is validated by evaluating its feasibility, flexibility, usability and satisfaction. Feasibility and flexibility are evaluated by instantiating the ECMP and the EPL in specific SE experiments. Usability is evaluated by using the proposal to generate the instances of the ECMP and EPL. The results of the validation of the proposal show that the proposal performs better with respect to usability issues and experimenter satisfaction.
Resumo:
Las cargas de origen térmico causadas por las acciones medioambientales generan esfuerzos apreciables en estructuras hiperestáticas masivas, como es el caso de las presas bóvedas. Ciertas investigaciones apuntan que la variación de la temperatura ambiental es la segunda causa de reparaciones en las presas del hormigón en servicio. Del mismo modo, es una causa de fisuración en un porcentaje apreciable de casos. Las presas son infraestructuras singulares por sus dimensiones, su vida útil, su impacto sobre el territorio y por el riesgo que implica su presencia. La evaluación de ese riesgo requiere, entre otras herramientas, de modelos matemáticos de predicción del comportamiento. Los modelos han de reproducir la realidad del modo más fidedigno posible. Además, en un escenario de posible cambio climático en el que se prevé un aumento de las temperaturas medias, la sociedad ha de conocer cuál será el comportamiento estructural de las infraestructuras sensibles en los futuros escenarios climáticos. No obstante, existen escasos estudios enfocados a determinar el campo de temperaturas de las presas de hormigón. Así, en esta investigación se han mejorado los modelos de cálculo térmico existentes con la incorporación de nuevos fenómenos físicos de transferencia de calor entre la estructura y el medio ambiente que la rodea. También se han propuesto nuevas metodologías más eficientes para cuantificar otros mecanismos de transferencia de calor. La nueva metodología se ha aplicado a un caso de estudio donde se disponía de un amplio registro de temperaturas de su hormigón. Se ha comprobado la calidad de las predicciones realizadas por los diversos modelos térmicos en el caso piloto. También se han comparado los resultados de los diversos modelos entre sí. Finalmente, se ha determinado las consecuencias de las predicciones de las temperaturas por algunos de los modelos térmicos sobre la respuesta estructural del caso de estudio. Los modelos térmicos se han empleado para caracterizar térmicamente las presas bóveda. Se ha estudiado el efecto de ciertas variables atmosféricas y determinados aspectos geométricos de las presas sobre su respuesta térmica. También se ha propuesto una metodología para evaluar la respuesta térmica y estructural de las infraestructuras frente a los posibles cambios meteorológicos inducidos por el cambio climático. La metodología se ha aplicado a un caso de estudio, una presa bóveda, y se ha obtenido su futura respuesta térmica y estructural frente a diversos escenarios climáticos. Frente a este posible cambio de las variables meteorológicas, se han detallado diversas medidas de adaptación y se ha propuesto una modificación de la normativa española de proyecto de presas en el punto acerca del cálculo de la distribución de temperaturas de diseño. Finalmente, se han extraído una serie de conclusiones y se han sugerido posibles futuras líneas de investigación para ampliar el conocimiento del fenómeno de la distribución de temperaturas en el interior de las presas y las consecuencias sobre su respuesta estructural. También se han propuesto futuras investigaciones para desarrollar nuevos procedimiento para definir las cargas térmicas de diseño, así como posibles medidas de adaptación frente al cambio climático. Thermal loads produced by external temperature variations may cause stresses in massive hyperstatic structures, such as arch dams. External temperature changes are pointed out as the second most major repairs in dams during operation. Moreover, cracking is caused by thermal loads in a quite number of cases. Dams are unique infrastructures given their dimensions, lifetime, spatial impacts and the risks involve by their presence. The risks are assessed by means of mathematical models which compute the behavior of the structure. The behavior has to be reproduced as reliable as possible. Moreover, since mean temperature on Earth is expected to increase, society has to know the structural behavior of sensitive structures to climate change. However, few studies have addressed the assessment of the thermal field in concrete dams. Thermal models are improved in this research. New heat transfer phenomena have been accounted for. Moreover, new and more efficient methodologies for computing other heat transfer phenomena have been proposed. The methodology has been applied to a case study where observations from thermometers embedded in the concrete were available. Recorded data were predicted by several thermal models and the quality of the predictions was assessed. Furthermore, predictions were compared between them. Finally, the consequences on the stress calculations were analyzed. Thermal models have been used to characterize arch dams from a thermal point of view. The effect of some meteorological and geometrical variables on the thermal response of the dam has been analyzed. Moreover, a methodology for assessing the impacts of global warming on the thermal and structural behavior of infrastructures has been proposed. The methodology was applied to a case study, an arch dam, and its thermal and structural response to several future climatic scenarios was computed. In addition, several adaptation strategies has been outlined and a new formulation for computing design thermal loads in concrete dams has been proposed. Finally, some conclusions have been reported and some future research works have been outlined. Future research works will increase the knowledge of the concrete thermal field and its consequences on the structural response of the infrastructures. Moreover, research works will develope a new procedure for computing the design thermal loads and will study some adaptation strategies against the climate change.
Resumo:
El control de las centrales hidroeléctricas ha venido siendo motivo continuo de estudio. Más aún en el caso de centrales que proporcionan la energía a Islas donde se intenta sustituir la generación térmica por la convivencia de los parques eólicos y una central hidroeléctrica, puesto que el control es fundamental para el correcto funcionamiento del sistema. Varios son los trabajos que se han desarrollado en esta materia hasta la fecha pero no se han prodigado en analizar la influencia que la longitud de las conducciones forzadas tiene en el ajuste del controlador. El objetivo principal de este estudio es desarrollar unas recomendaciones relativas al ajuste de los reguladores de velocidad de los grupos hidroeléctricos en sistemas aislados con conducciones de gran longitud, aportando así valores alternativos a los propuestos por otros autores; entre otras razones porque éstos estudiaban centrales cuyas conducciones no exigían el análisis de la elasticidad de la conducción y del fluido. Dichas recomendaciones están basadas en la oportuna ubicación de los polos que representan la respuesta dinámica de los principales componentes de la central. Así, encontramos los valores de las ganancias del controlador PI que mejoran la respuesta de la central dado que la longitud de la tubería forzada es lo suficientemente grande como para que sea preciso incluir su efecto en el ajuste. Para tener en cuenta la compresibilidad del agua y de la tubería se ha empleado el modelo de parámetros concentrados. Dicho modelo se simplifica y se linealiza para su estudio, mientras que el ajuste propuesto es aplicado al modelo no lineal original.
Resumo:
En este trabajo se estudia el comportamiento de elementos de hormigón estructural sometidos a deformaciones impuestas, en donde la fisuración se produce, general y fundamentalmente, en secciones en las que los esfuerzos, y por tanto las fisuras, debidos a las acciones exteriores son inexistentes o prácticamente inexistentes. Se estudia la fisuración producida, a edades tempranas, por las deformaciones debidas al calor de fraguado y la retracción autógena y a lo largo de la vida útil de la estructura, por los fenómenos reológicos del hormigón y la variación de temperatura. Se han estudiado los resultados experimentales disponibles. Se ha identificado un programa de elementos finitos, ATENA, que permite el estudio de fenómenos no lineales, especialmente la fisuración. Se ha contrastado este programa de forma detallada con los resultados experimentales disponibles. Se han estudiado las fuentes de deformaciones impuestas para su caracterización: calor de hidratación, fenómenos reológicos del hormigón y variaciones de temperaturas. Se han estudiado la evolución de las características mecánicas y de conductividad térmica del hormigón a lo largo del tiempo y especialmente a edades tempranas. Se han estudiado las evidencias experimentales disponibles y las estimaciones teóricas propuestas. Se han estudiado las recomendaciones de la CIRIA 660, que es el documento de referencia para tener en cuenta, desde el punto de vista del proyecto este tipo de fenómenos. Con el programa ATENA se han estudiado distintos ejemplos. El objetivo principal ha sido, por un lado, entender el fenómeno y, por otro, contrastar los criterios expuestos en la CIRA 660. This document studies the behavior of structural reinforced concrete structures subjected to imposed deformations, where the cracking occurs, mostly, in sections where the stresses, and thus cracks, due to the exterior actions are none-existent or practically zero. Early age cracking produced by the imposed deformations, due to heat of hydration and autogenous shrinkage, and long term effects, due to the drying shrinkage and the thermal variation, is studied. Available experimental results have been studied. A finite element program has been identified, ATENA, which allows the study of non-lineal phenomena, especially cracking. This software has been contrasted with the available experimental results. The imposed deformation sources have been studied for its characteristically sources: heat of hydration, concrete shrinkage and thermal variation. Also the evolution of the mechanical properties and the thermal conductivity of concrete in time and especially at early age have also been studied. The available experimental evidence and the proposal theoretical estimates have been studied. CIRIA 660 recommendations have been studied, which is the reference document to take into account, form the design point of view, this kind of phenomena. With the ATENA software different examples have been studied. On the one hand the main objective has been to understand the phenomena and, on the other, to contrast the CIRIA 660 proposal.
Resumo:
En la actualidad, y en todo el mundo, hay en desarrollo un muy importante número de proyectos de obras hidráulicas de diversa naturaleza (presas, canales, desaladoras, tanques de tormentas, centrales hidroeléctricas, obras de saneamiento, etc.), donde España es, en muchas ocasiones, el marco de referencia. En este artículo, se presentan algunas de las principales investigaciones en curso en el campo de la modelación física y numérica de la ingeniería de presas, con el objetivo de mejorar el conocimiento de los fenómenos hidráulicos que intervienen en su gestión y desarrollar nuevas herramientas de diseño que permitan dar solución a problemas hidráulicos complejos.
Resumo:
Esta conferencia pertenece a la primera parte del curso de la Universidad Internacional Menéndez Pelayo "Impacto del computador y riesgos naturales en la ingeniería" celebrado en Santander del 16 al 27 de agosto de 1982. Se analiza la influencia del computador en el cálculo de estructuras, no sólo, en la velocidad de resolución y cálculo, sino en el grado de generalidad del análisis. El computador ha supuesto un importante cambio de planteamiento de todas las teorías de estructuras continuas con la introducción del método de los elementos finitos, que permite unificar y ampliar el tratamiento dado a las estructuras discretas (compuestas por barras) con los procedimientos de cálculo de placas y láminas