981 resultados para Ações (Finanças) - Preços - Modelos matemáticos
Resumo:
La microbiología predictiva desarrolla modelos matemáticos que describen el comportamiento microbiano en alimentos. Su eficiencia es limita da en alimentos con algún grado de estructura, que son la mayoría, porque estos modelos están basados en datos experimentales obtenidos en cultivos líquidos, mucho más homogéneos. En este trabajo se evalúa la técnica de análisis hiperespectral como una nueva tecnología para la detección precoz de levaduras en alimentos sólidos mediante análisis de componentes principales. Las imágenes hiperespectrales (400-1000 nm) de placas de Petri inoculadas con Zygosaccharomyces rouxii Bch a diferentes tiempos, muestran que el primer componente discrimina entre el agar y las colonias, mientras que el segundo revela una mayor variabilidad en las colonias. Esta herramienta no invasiva caracteriza el estado de desarrollo, número y tamaño de las colonias, por lo que permitiría obtener datos para el aborar modelos más fiables para predecir el riesgo de deterioro y la vida útil de los alimentos.
Resumo:
Esta Tesis plantea la pregunta de si el uso de morteros con parafinas microencapsuladas combinado con colectores solares térmicos puede reducir el consumo de energías convencionales, en un sistema tradicional de suelo radiante. Se pretende contribuir al conocimiento acerca del efecto que produce en el edificio, el calor latente acumulado en suelos radiantes, utilizando morteros de cemento Portland con material de cambio de fase (PCM), en conjunto con la energía solar. Para cumplir con este propósito, la investigación se desarrolla considerando diversos aspectos. En primer lugar, se revisa y analiza la documentación disponible en la actualidad, de almacenamiento de energía mediante calor latente en la construcción, y en particular la aplicación de microcápsulas de PCM en morteros y suelos radiantes. También se revisa la documentación relacionada con la aplicación de la energía solar térmica y en suelo radiante. Se analiza la normativa vigente respecto al material, a los colectores solares y al suelo radiante. Se verifica que no hay normativa relacionada con mortero-PCM, debido a esto se aplica en la investigación una adaptación de la existente. La fase experimental desarrollada esta principalmente dirigida a la cuantificación, caracterización y evaluación de las propiedades físicas, mecánicas y térmicas del mortero de cemento Portland con parafinas microencapsuladas. Los resultados obtenidos y su análisis, permiten conocer el comportamiento de este tipo de morteros, con las diferentes variables aplicadas en la investigación. Además, permite disponer de la información necesaria, para crear una metodología para el diseño de morteros con parafina microencapsulada, tanto del punto de vista de su resistencia a la compresión y contenido de PCM, como de su comportamiento térmico como acumulador de calor. Esto se logra procesando la información obtenida y generando modelos matemáticos, para dosificar mezclas, y predecir la acumulación de calor en función de su composición. Se determinan los tipos y cantidades de PCM, y el cemento más adecuado. Se obtienen importantes conclusiones respecto a los aspectos constructivos a considerar en la aplicación de morteros con PCM, en suelo radiante. Se analiza y evalúa la demanda térmica que se puede cubrir con el suelo radiante, utilizando morteros con parafina microencapsulada, a través de la acumulación de energía solar producida por colectores solares, para condiciones climáticas, técnicas y tipologías constructivas específicas. Se determina que cuando los paneles cubren más de 60 % de la demanda por calefacción, se puede almacenar en los morteros con PCM, el excedente generado durante el día. Se puede cubrir la demanda de acumulación de energía con los morteros con PCM, en la mayoría de los casos analizados. Con esto, se determina que el uso de morteros con PCM, aporta a la eficiencia energética de los edificios, disminuyendo el consumo de energías convencionales, reemplazándola por energía solar térmica. En esta investigación, el énfasis está en las propiedades del material mortero de cemento-PCM y en poder generar metodologías que faciliten su uso. Se aborda el uso de la energía solar, para verificar que es posible su acumulación en morteros con PCM aplicados en suelo radiante, posibilitando el reemplazo de energías convencionales. Quedan algunos aspectos de la aplicación de energía solar a suelo radiante con morteros con PCM, que no han sido tratados con la profundidad que requieren, y que resultan interesantes de evaluar en este tipo de aplicaciones constructivas, como entre otros, los relacionados con la cuantificación de los ahorros de energía en las diferentes estaciones del año, de la estabilización de temperaturas internas, su análisis de costo y la optimización de este tipo de sistemas para utilización en verano, los que dan pie para otras Tesis o proyectos de investigación. ABSTRACT This Thesis proposes the question of whether the use of mortars with microencapsulated paraffin combined with solar thermal collectors can reduce conventional energy consumption in a traditional heating floor system. It aims to contribute to knowledge about the effect that it has on the building, the latent heat accumulated in heating floor, using Portland cement mortars with phase change material (PCM), in conjunction with solar energy. To fulfill this purpose, the research develops it considering various aspects. First, it reviews and analyzes the documentation available today, about energy storage by latent heat in the building, and in particular the application of PCM microcapsules in mortars and heating floors. It also reviews the documentation related to the application of solar thermal energy and heating floor. Additionally, it analyzes the current regulations regarding to material, solar collectors and heating floors. It verifies that there aren’t regulations related to PCM mortar, due to this, it applies an adaptation in the investigation. The experimental phase is aimed to the quantification, mainly, characterization and evaluation of physical, mechanical and thermal properties of Portland cement mortar with microencapsulated paraffin. The results and analysis, which allow us to know the behavior of this type of mortars with different variables applied in research. It also allows having the information necessary to create a methodology for designing mortars with microencapsulated paraffin, both from the standpoint of its resistance to compression and PCM content, and its thermal performance as a heat accumulator. This accomplishes by processing the information obtained, and generating mathematical models for dosing mixtures, and predicting heat accumulation depending on their composition. The research determines the kinds and amounts of PCM, and the most suitable cement. Relevant conclusions obtain it regarding constructive aspects to consider in the implementation of PCM mortars in heating floor. Also, it analyzes and evaluates the thermal demand that it can be covered in heating floor using microencapsulated paraffin mortars, through the accumulation of solar energy produced by solar collectors to weather conditions, technical and specific building typologies. It determines that if the panels cover more than 60% of the demand for heating, the surplus generated during the day can be stored in PCM mortars. It meets the demand of energy storage with PCM mortars, in most of the cases analyzed. With this, it determines that the use of PCM mortars contributes to building energy efficiency, reducing consumption of conventional energy, replacing it with solar thermal energy. In this research approaches the use of solar energy to determine that it’s possible to verify its accumulation in PCM mortars applied in heating floor, enabling the replacement of conventional energy. The emphasis is on material properties of PCM mortar and, in order to generate methodologies to facilitate their use. There are some aspects of solar energy application in PCM mortars in heating floor, which have not been discussed with the depth required, and that they are relevant to evaluate in this kind of construction applications, including among others: the applications related to the energy savings quantification in different seasons of the year, the stabilizing internal temperatures, its cost analysis and optimization of these systems for use in summer, which can give ideas for other thesis or research projects.
Resumo:
Existe un creciente interés internacional por el ahorro energético y la sostenibilidad en la edificación con importantes repercusiones en la Arquitectura. La inercia térmica es un parámetro fundamental para poder valorar energéticamente un edificio en condiciones reales. Para ello es necesario cambiar el enfoque tradicional de transmisión de calor en régimen estacionario por otro en régimen dinámico en el que se analizan las ondas térmicas y el flujo de calor oscilante que atraviesan los cerramientos. Los parámetros que definen la inercia térmica son: el espesor, la difusividad y el ciclo térmico. A su vez la difusividad está determinada por la conductividad térmica, la densidad y el calor específico del material. De estos parámetros la conductividad es el más complejo, variable y difícil de medir, especialmente en los cerramientos de tierra debido a su heterogeneidad y complejidad higrotérmica. En general, los métodos de medida de la conductividad o transmitancias en los paramentos presentan inconvenientes a la hora de medir un edificio construido con tierra: dificultades de implementación, el elevado coste o la fiabilidad de los resultados, principalmente. El Método de la Aguja Térmica (MAT) se basa en el principio de la evolución en el tiempo del calor emitido por una fuente lineal al insertarse en el seno de un material. Se ha escogido este método porque resulta práctico, de bajo coste y de fácil aplicación a gran escala pero tiene serios problemas de fiabilidad y exactitud. En esta tesis se desarrolla un método de medida de la conductividad térmica para Piezas de Albañilería de Tierra Cruda en laboratorio basado en el MAT, se mejora su fiabilidad, se analiza su incertidumbre, se compara con otros métodos de referencia y se aplica en adobes, Bloques de Tierra Comprimida y probetas de tierra estabilizada con distintas proporciones de paja. Este método servirá de base a una posterior aplicación in situ. Finalmente se proponen modelos matemáticos para mejorar la exactitud del dispositivo utilizado y para la estimación de la conductividad de cerramientos de tierra en función de su densidad. Con los resultados obtenidos se analizan las posibilidades de amortiguación y retardo de las ondas térmicas y capacidad de almacenaje de energía de los cerramientos en función de su densidad y humedad. There is growing international interest in energy saving and sustainability in buildings with significant impact on Architecture. Thermal inertia is a key parameter to assess energy in buildings in real conditions. This requires changing the traditional approach to heat transfer in steady state by another in dynamic regime which analyzes the thermal waves and oscillating heat flux passing through the external walls. The parameters defining the thermal inertia are: the thickness, the diffusivity and the thermal cycle. In turn, the diffusivity is determined by the thermal conductivity, density and specific heat of the material. Of these parameters, thermal conductivity is the most complex, variable and difficult to measure, especially in earth walls due to their heterogeneity and hygrothermal complexity. In general, the methods of measurement of conductivity and transmittance in walls have drawbacks when measuring a building with earth: implementation difficulties, high cost, or reliability of the results, mainly. The Thermal Needle Procedure (TNP) is based on the principle of evolution in time of heat from a line source when inserted within a material. This method was chosen because it is a practical, low cost and easy to implement on a large scale but has serious problems of reliability and accuracy. This thesis develops a laboratory method for measuring the thermal conductivity of Masonry Units Unfire Earth-based based on TNP, its uncertainty is analyzed, compared to other reference methods and applies in adobes, Compressed Earth Blocks and stabilized soil specimens with different proportions of straw. This method will form the basis of a subsequent application in situ. Finally, mathematical models are proposed to improve the accuracy of the device used, and to estimate the conductivity of earth enclosures depending on its density. With the results obtained earth enclosures are analyzed to estimate their possibilities of delay and buffer of termal waves and energy storage capacity according to their density and moisture.
Resumo:
El objetivo de este proyecto de investigación es comparar dos técnicas matemáticas de aproximación polinómica, las aproximaciones según el criterio de mínimos cuadrados y las aproximaciones uniformes (“minimax”). Se describen tanto el mercado actual del cobre, con sus fluctuaciones a lo largo del tiempo, como los distintos modelos matemáticos y programas informáticos disponibles. Como herramienta informática se ha seleccionado Matlab®, cuya biblioteca matemática es muy amplia y de uso muy extendido y cuyo lenguaje de programación es suficientemente potente para desarrollar los programas que se necesiten. Se han obtenido diferentes polinomios de aproximación sobre una muestra (serie histórica) que recoge la variación del precio del cobre en los últimos años. Se ha analizado la serie histórica completa y dos tramos significativos de ella. Los resultados obtenidos incluyen valores de interés para otros proyectos. Abstract The aim of this research project is to compare two mathematical models for estimating polynomial approximation, the approximations according to the criterion of least squares approximations uniform (“Minimax”). Describes both the copper current market, fluctuating over time as different computer programs and mathematical models available. As a modeling tool is selected main Matlab® which math library is the largest and most widely used programming language and which is powerful enough to allow you to develop programs that are needed. We have obtained different approximating polynomials, applying mathematical methods chosen, a sample (historical series) which indicates the fluctuation in copper prices in last years. We analyzed the complete historical series and two significant sections of it. The results include values that we consider relevant to other projects
Resumo:
Se ha desarrollado un laboratorio virtual para la medida de ciclos indicados en un motor alternativo policombustible de encendido provocado. El laboratorio virtual desarrollado permite por una parte simular y obtener el ciclo indicado de un motor alternativo de cuatro tiempos, pudiendo modificar los parámetros más importantes de operación (régimen de giro, presiones de admisión y escape, temperaturas, etc.) y de diseño (parámetros geométricos del motor). Por otra parte, el laboratorio virtual permite simular el ensayo del motor en banco de pruebas y la medida del ciclo indicado. Los modelos matemáticos necesarios se han escrito en lenguaje Fortran, y estos interaccionan con un interfaz gráfico de usuario (GUI) programado en VEE®. El laboratorio virtual puede implementarse en una plataforma virtual de enseñanza de manera que los alumnos puedan tener acceso al sistema desde cualquier ordenador, en cualquier momento y desde cualquier lugar.
Resumo:
La seguridad verificada es una metodología para demostrar propiedades de seguridad de los sistemas informáticos que se destaca por las altas garantías de corrección que provee. Los sistemas informáticos se modelan como programas probabilísticos y para probar que verifican una determinada propiedad de seguridad se utilizan técnicas rigurosas basadas en modelos matemáticos de los programas. En particular, la seguridad verificada promueve el uso de demostradores de teoremas interactivos o automáticos para construir demostraciones completamente formales cuya corrección es certificada mecánicamente (por ordenador). La seguridad verificada demostró ser una técnica muy efectiva para razonar sobre diversas nociones de seguridad en el área de criptografía. Sin embargo, no ha podido cubrir un importante conjunto de nociones de seguridad “aproximada”. La característica distintiva de estas nociones de seguridad es que se expresan como una condición de “similitud” entre las distribuciones de salida de dos programas probabilísticos y esta similitud se cuantifica usando alguna noción de distancia entre distribuciones de probabilidad. Este conjunto incluye destacadas nociones de seguridad de diversas áreas como la minería de datos privados, el análisis de flujo de información y la criptografía. Ejemplos representativos de estas nociones de seguridad son la indiferenciabilidad, que permite reemplazar un componente idealizado de un sistema por una implementación concreta (sin alterar significativamente sus propiedades de seguridad), o la privacidad diferencial, una noción de privacidad que ha recibido mucha atención en los últimos años y tiene como objetivo evitar la publicación datos confidenciales en la minería de datos. La falta de técnicas rigurosas que permitan verificar formalmente este tipo de propiedades constituye un notable problema abierto que tiene que ser abordado. En esta tesis introducimos varias lógicas de programa quantitativas para razonar sobre esta clase de propiedades de seguridad. Nuestra principal contribución teórica es una versión quantitativa de una lógica de Hoare relacional para programas probabilísticos. Las pruebas de correción de estas lógicas son completamente formalizadas en el asistente de pruebas Coq. Desarrollamos, además, una herramienta para razonar sobre propiedades de programas a través de estas lógicas extendiendo CertiCrypt, un framework para verificar pruebas de criptografía en Coq. Confirmamos la efectividad y aplicabilidad de nuestra metodología construyendo pruebas certificadas por ordendor de varios sistemas cuyo análisis estaba fuera del alcance de la seguridad verificada. Esto incluye, entre otros, una meta-construcción para diseñar funciones de hash “seguras” sobre curvas elípticas y algoritmos diferencialmente privados para varios problemas de optimización combinatoria de la literatura reciente. ABSTRACT The verified security methodology is an emerging approach to build high assurance proofs about security properties of computer systems. Computer systems are modeled as probabilistic programs and one relies on rigorous program semantics techniques to prove that they comply with a given security goal. In particular, it advocates the use of interactive theorem provers or automated provers to build fully formal machine-checked versions of these security proofs. The verified security methodology has proved successful in modeling and reasoning about several standard security notions in the area of cryptography. However, it has fallen short of covering an important class of approximate, quantitative security notions. The distinguishing characteristic of this class of security notions is that they are stated as a “similarity” condition between the output distributions of two probabilistic programs, and this similarity is quantified using some notion of distance between probability distributions. This class comprises prominent security notions from multiple areas such as private data analysis, information flow analysis and cryptography. These include, for instance, indifferentiability, which enables securely replacing an idealized component of system with a concrete implementation, and differential privacy, a notion of privacy-preserving data mining that has received a great deal of attention in the last few years. The lack of rigorous techniques for verifying these properties is thus an important problem that needs to be addressed. In this dissertation we introduce several quantitative program logics to reason about this class of security notions. Our main theoretical contribution is, in particular, a quantitative variant of a full-fledged relational Hoare logic for probabilistic programs. The soundness of these logics is fully formalized in the Coq proof-assistant and tool support is also available through an extension of CertiCrypt, a framework to verify cryptographic proofs in Coq. We validate the applicability of our approach by building fully machine-checked proofs for several systems that were out of the reach of the verified security methodology. These comprise, among others, a construction to build “safe” hash functions into elliptic curves and differentially private algorithms for several combinatorial optimization problems from the recent literature.
Resumo:
Puesto que para determinar las demandas de ductilidad en puentes es aconsejable un método no lineal paso a paso y que un proceso de reacondicionamiento sísmico global raramente justifica estos altos costos, se propone un nuevo método simplificado que recoge las ventajas de los métodos no lineales con unos tiempos de resolución y requisitos de memoria similares a los modales-espectrales. Así, en este capítulo se muestra el método, su implementación en ordenador, sus ventajas, inconvenientes y rango de validez, y finalmente se proponen nuevas mejoras o variantes. De los resultados expuestos, al menos para la tipología de estructura analizada, se puede concluir que: 1)El método de la Rótula Plástica proporciona historias de desplazamientos, giros y energías bastantes buenos si se tiene en cuenta que se está en el campo de la Ingeniería Sísmica y que todas las características, propiedades, excitaciones, etc, contienen errores o incertidumbres grandes. 2) Gracias a ellos se puede conocer qué elementos necesitan medidas de reacondicionamiento y cuales no es necesario modificar. 3) Es un método eminentemente conservador, sobre todo en energías absorbidas y cluctiliclacles en los elementos con mayores demandas. 4) Permite obtener un mecanismo de degradación que proporcione una visión general del comportamiento del puente, muy útil en el caso de reaconclicionamiento sísmico.
Resumo:
La determinación no destructiva de la calidad interna de la fruta ha sido un objetivo prioritario en las investigaciones recientes (Abbott, 1999). La espectroscopia en el infrarrojo (NIR) es aplicable a la cuantificación de compuestos químicos en alimentos; por otro lado se ha comprobado que el uso de láseres es interesante para la estimación no destructiva de la firmeza de los frutos. Sin embargo estas técnicas ópticas más tradicionales tienen el inconveniente de que miden la intensidad de luz transmitida sin poder diferenciar el efecto de la absorción óptica del efecto de la dispersión espacial que sufre la luz en el interior de los tejidos, lo cual dificulta la estimación independiente de aspectos físicos y químicos. La espectroscopia con resolución temporal es una técnica óptica desarrollada para el diagnóstico en medicina, que permite diferenciar ambos fenómenos (absorción y dispersión), proporcionando una caracterización óptica completa de los tejidos. El objetivo del presente trabajo ha sido la aplicación de esta técnica a frutas y hortalizas, y el desarrollo de modelos matemáticos de estimación no destructiva de su calidad interna para su uso en procesos de clasificación.
Resumo:
El modelo matemático más sencillo para representar el sistema con un grado de libertad está formado por el acoplamiento de dos elementos: una masa que se mueve con respecto al sistema de referencia y unido a ella un muelle de comportamiento lineal. Hay otro modelo ligeramente más complicado en el que se halla presente, además de la masa y el muelle, un elemento que reacciona linealmente con una fuerza proporcional a la velocidad del desplazamiento, denominado émbolo. En el análisis de ambos modelos matemáticos, se consideran una serie de cuestiones complementarias: los movimientos inducidos por el soporte, la carga proporcional a la frecuencia de impulsión, la energía del sistema vibrante y el amortiguamiento.
Resumo:
El presente trabajo se propone determinar la distribución de tamaño y número de partículas nanométricas provenientes de motores diésel con equipos embarcados en tráfico extraurbano. Para ello, se utilizaron equipos de medición de última generación en condiciones promedio de conducción en tráfico extraurbano por más de 800 km a lo largo del trayecto Madrid-Badajoz-Madrid mediante un vehículo característico del parque automotor español y se implementaron métodos novedosos y pioneros en el registro de este tipo de emisiones. Todo ello abre el camino para líneas de investigación y desarrollo que contribuirán a entender, dimensionar y cualificar el comportamiento de las partículas, así como su impacto en la calidad de vida de la población. El estudio hace dos grandes aportes al campo. Primero, permite registrar las emisiones en condiciones transitorias propias del tráfico real. Segundo, permite mantener controladas las condiciones de medición y evita la formación aleatoria de partículas provenientes de material volátil, gracias al sistema de adecuación de la muestra de gases de escape incorporado. Como resultado, se obtuvo una muestra abundante y confiable que permitió construir modelos matemáticos para calcular la emisión de partículas nanométricas, ultrafinas, finas y totales sobre las bases volumétrica, espacial y temporal en función de la pendiente del perfil orográfico de la carretera, siempre y cuando esté dentro del intervalo ±5.0%. Estos modelos de cálculo de emisiones reducen tanto los costos de experimentación como la complejidad de los equipos necesarios, y fundamentaron el desarrollo de la primera versión de una aplicación informática que calcula las partículas emitidas por un motor diésel en condiciones de tráfico extraurbano ("Partículas Emitidas por Motores Diésel, PEMDI). ABSTRACT The purpose of this research is to determine the distribution of size and number of nanometric particles that come from diesel engines by means of on-board equipment in extra-urban traffic. In order to do this, cutting-edge measuring equipment was used under average driving conditions in extra-urban traffic for more than 800 km along the Madrid-Badajoz-Madrid route using a typical vehicle from Spain's automotive population and innovative, groundbreaking registering methods for this type of emissions were used. All this paves the way for lines of research and development which should help understand, measure and characterize the behavior of such particles, as well as their impact in the quality of life of the general population. The study makes two important contributions to the field. First, it makes it possible to register emissions under transient conditions, which are characteristic to real traffic. Secondly, it provides a means to keep the measuring conditions under control and prevents the random formation of particles of volatile origin through the built-in adjustment system of the exhaust gas sample. As a result, an abundant and reliable sample was gathered, which enabled the building of mathematical models to estimate the emission of nanometric, ultrafine, fine and total particles on volumetric, spatial and temporal bases as a function of the orographic outline of the road within a ±5.0% range. These emission estimating models lower both the experimentation costs and the required equipment's complexity, and they provided the basis for the development of a first software application version that estimates the particles emitted from diesel engines under extra-urban traffic conditions (Partículas Emitidas por Motores Diésel, PEMDI).
Resumo:
Este trabajo fin de grado es un estudio sobre la reconstrucción del espectro de irradiancia solar en la superficie de Marte y de la radiación solar recibida en lo alto de la atm´osfera. Se llevará a cabo a partir de los datos recogidos por “arrays” de fotodiodos, que se integran en unos sensores, y miden la intensidad de la radiación recibida del cuerpo negro (el Sol), en un rango de longitudes de onda del espectro electromagnético. Para lograr esta reconstrucción, se ha necesitado desarrollar técnicas de interpolación y modelos matemáticos. Estos m´etodos los he implementado con el lenguaje de programación Matlab y me he ayudado de Maple para conseguir distintos resultados. Estos procedimientos serán aplicados a tres configuraciones de sondas en las que cada una cuenta con un número determinado de fotodiodos. El objetivo es reconstruir este espectro de irradiancia aproximándolo lo máximo posible a unos conjuntos de datos estimados, según modelos de transferencia radiativa, que me han sido proporcionados para el cuerpo negro y que miden la radiación solar recibida en la superficie y en lo alto de la atmósfera del Planeta rojo. Este trabajo está basado en un proyecto de investigación que se está llevando a cabo desde hace varios años por un equipo de investigadores de varias universidades de Madrid, conjuntamente con el I.N.T.A. (Instituto Nacional de Técnica Aeroespacial), entre los que se encuentra mi tutor.
Resumo:
Es conocido que la variación del comportamiento dinámico de las estructuras puede ser empleado dentro de un sistema de monitorización de su integridad estructural. Así, este estudio tiene como objetivo comprender el comportamiento dinámico de edificios esbeltos, frente a diferentes agentes ambientales como la temperatura y/o dirección y velocidad del viento. En el marco de esta investigación, se estudian dos edificios: la Torre de la ETSI (Escuela Técnica Superior de Ingenieros) de Caminos, Canales y Puertos de la UPM (Universidad Politécnica de Madrid) y un edificio de viviendas situado en la calle de Arturo Soria de Madrid. Los datos medioambientales antes mencionados, se registraron con sendas estacionales meteorológicas situadas en las azoteas de ambos edificios. Se realiza el análisis modal operacional de ambas estructuras. Este análisis se realiza a partir de las mediciones de las aceleraciones ante excitaciones ambientales, es un análisis basado sólo en la respuesta de la estructura. Por tanto, no es necesario interrumpir el funcionamiento en servicio de la instalación, obteniendo su comportamientos en este estado. A partir de este análisis, se obtienen las frecuencias naturales, los amortiguamientos modales y las formas modales. Así, en este trabajo se ha estudiado la relación existente entre la variación en la estimación de las frecuencias naturales y la variación de los agentes ambientales (fundamentalmente la temperatura). Los ensayos dinámicos en los dos edificios mencionados anteriormente, se han realizado utilizando acelerómetros de alta sensibilidad sincronizados inalámbricamente, lo cual ha simplificado el trabajo experimental si lo comparamos con los sistemas tradicionales. Como resultado del trabajo realizado se pueden destacar los siguientes puntos: (i) se ha visto que con el equipamiento disponible se pueden realizar análisis dinámicos de edificios, (ii) se ha mejorado el conocimiento dinámico de estas estructuras, y (iii) se ha visto la importancia que pueden tener los agentes ambientales dependiendo por un lado del tipo estructura del edificio. A partir del trabajo, se podrían actualizar modelos matemáticos que sirvan para la predicción de daños en las estructuras, y por otro, se podrán eliminar los efectos de los agentes ambientales, lo cual es un punto vital si se quiere emplear los parámetros modales para el cálculo de indices de daño. La aplicación de este tipo de investigación ayudará a tener una información mayor sobre el comportamiento de las estructuras y así, en el futuro, poder realizar distintos tipos de procesos, como la formulación de modelos matemáticos que reflejen con mayor fidelidad el comportamiento real. De esta forma, la monitorización de los agentes medioambientales permitirán valorar la influencia de estas variaciones sobre la estructura pudiéndose eliminar estos efectos. Con ello, se mejora la incertidumbre en la variación de frecuencias que puede ser utilizada como un sistema de activación de alarmas frente a la detección de daños estructurales. It is known that the variation of the dynamic behavior of structures can be used within a system to monitor structural integrity. So, this study aims to understand the dynamic behavior of slender buildings, against different environmental agents such as temperature and / or wind direction and velocity. As part of this investigation, two buildings are studied: the ETSI's (Escuela Técnica Superior de Ingenieros) main tower of Escuela de Caminos, Canales y Puertos of UPM (Universidad Politécnica de Madrid) and a residential building located in the streets Arturo Soria Madrid. The environmental data were recorded with weather stations located on the roof of both buildings. In both structures a modal operational analysis has been carried out. This analysis is performed from the measurements of the acceleration to the environmental excitation, this analysis is based only on the response of the structure. Therefore, it is not necessary to interrupt the operation of the structure, getting its behavior in this state. From this analysis, the natural frequencies, modal damping and mode shapes are obtained. So, in this work we have studied the existing relationship between the variation in the estimate of the natural frequencies and the variation of environmental agents (mainly temperature). The dynamic tests in the two buildings mentioned above, have been made using high-sensitivity accelerometers wirelessly synchronized, which has simplified the experimental work when compared to traditional systems. As a result of work performed can highlight the following points: (i) it has been found that with the available equipment can perform dynamic analysis of buildings, (ii) has improved dynamic knowledge of these structures, and, (iii) can be seen the potential importance of environmental agents depending on the type of building structure. From the work, mathematical models can be updated that serve to prediction of damage to structures, and on the other side, may eliminate the effects of environmental agents, which is a vital point if you want to use the modal parameters for calculating damage ratings. The application of this type of research will help to have more information about the behavior of structures and so, in the future, conduct various processes, as the formulation of mathematical models that reflect more accurately an actual behavior. In this way the monitoring of environmental agents will allow evaluate the influence of these variations on the structure being possible eliminate these effects. Thereby, improvement the uncertainty in the frequencies variation that can be used as an alarm activation system from detection of structural damage.
Resumo:
Existen diferentes métodos para el estudio de la calidad del agua en los estuarios, ríos, lagos, en zonas afectadas por los vertidos de sustancias contaminantes; que van desde los métodos experimentales tradicionales, hasta los más recientes modelos matemáticos. El modelo desarrollado permite resolver la ecuación de dispersión 2—D mediante técnicas en elementos finitos y por lo tanto obtener la evolución espacio-temporal de la concentración de constituyente. Se ha observado su exactitud en diferentes situaciones prácticas, y en particular se ha aplicado a la Bahía de Santander, analizándose el efecto de diferentes tipos de vertidos. El modelo es susceptible de utilizarse conjuntamente con otro modelo hidrodinámico capaz de simular la evolución del campo de velocidades.
Resumo:
La finalidad de esta investigación se enmarca dentro de los estudios sobre hormigones de presas llevados a cabo en el Laboratorio Central de Estructuras y Materiales del CEDEX. En España se han diagnosticado 18 obras afectadas tanto por la reacción álcali-sílice de tipo rápido como por la de tipo lento. Dos de de las obras, fabricadas con áridos graníticos, no presentan signos de deterioro pero en laboratorio se han hallado productos expansivos. En las 16 presas españolas restantes, el hormigón de 10 de ellas estaba fabricado con áridos graníticos, de las cuales, 7 están afectadas por la reacción de tipo lento. Sin embargo, en las clasificaciones internacionales de las rocas potencialmente reactivas se establece habitualmente que las rocas graníticas son inocuas o de reactividad muy baja. En los casos puntuales encontrados en la literatura, la reactividad de este tipo de áridos se encuentra frecuentemente asociada al cuarzo microcristalino que contienen y ocasionalmente se asocia esta reactividad también al cuarzo deformado y/o microfisurado. En la tesis doctoral de Víctor Daniel Lanza Fernández, también realizada en el CEDEX, se han tratado los áridos de reacción rápida, dando una descripción detallada de los componentes que intervienen en este tipo de reacción y presentando un ensayo eficaz para su detección en el laboratorio. La investigación desarrollada en la presente tesis doctoral se ha centrado en los áridos de reacción lenta, mucho menos estudiados. A partir del estudio bibliográfico realizado sobre este tipo de reacción se ha detectado ciertas lagunas, basadas principalmente en la falta de un método de detección en el laboratorio para los áridos de reacción lenta. No se ha encontrado un procedimiento en el estudio petrográfico que sea fiable y cuantificable para este tipo de áridos. El ensayo acelerado de barras de mortero, que para los áridos de reacción rápida supone un método rápido y fiable, falla en la detección de los áridos de reacción lenta al aplicar los límites normalizados. Si bien en publicaciones recientes se ha propuesto la posibilidad de ampliar el tiempo de tratamiento hasta los 90 días, la duración del ensayo es más larga de lo deseado. Para resolver estas lagunas, se han tomado áridos de obras reales afectadas por la reacción álcali-sílice (en algún caso también de las canteras de donde se extrajeron los áridos para la ejecución), con lo que la reactividad de estos áridos queda demostrada por su comportamiento en obra. Al objeto de aumentar la muestra de ensayo y utilizar también áridos inocuos, se han tomado muestras de canteras, tanto en uso como abandonadas. Sobre estos áridos se ha realizado una caracterización completa con los ensayos actualmente disponibles para el estudio de su reactividad con los álcalis del cemento: estudio petrográfico, ensayo acelerado de barras de mortero y Gel-Pat modificado. En la investigación se ha desarrollado una metodología de tinción de geles álcali-sílice para la cuantificación de los mismos en el interior de las barras de mortero. Se ha relacionado el volumen de gel generado en la reacción con la expansión producida, tanto para áridos lentos, como rápidos, estableciendo analogías y diferencias en el comportamiento de ambos. La cuantificación de este tipo de compuestos realizada en las barras de mortero, abre la posibilidad de estudiar la capacidad expansiva que presentan en testigos de hormigón de obras afectadas. Este dato podría ser una herramienta importante para el desarrollo de modelos matemáticos que puedan predecir el futuro comportamiento de las estructuras afectadas por la reacción álcali-sílice. La tinción ha sido asimismo utilizada para establecer un método de detección de áridos reactivos basado en el ensayo de Gel-Pat modificado. La metodología de detección propuesta para estos áridos es cuantitativa y proporciona los resultados en 14 días, suponiendo una ventaja importante sobre los métodos actuales, que permiten detectarlos en 90 días (de forma orientativa en 56 días). This research is part of the studies on durability of concrete dams carried out in the Laboratorio Central de Estructuras y Materiales of CEDEX during the last years. At the present time, 18 public works affected by alkali-silica reaction have been diagnosed in Spain. In 12 of them the concrete was mixed with granitic aggregates, 7 of which were damaged by the slow alkali-silica reaction, 3 by the rapid alkali-silica reaction and in the other 2 cases, although there was no visual evidence of the reaction in field, the laboratory tests showed the presence of expansive products inside the concrete. However, in the international classifications of potentially reactive aggregates granitic rocks are pointed out as innocuous or as low reactivity and usually their reactivity is attributed to the presence of microcrystalline quartz and occasionally with the strained and microcracked quartz. The rapid reactive aggregates were deeply studied in a previous research (Víctor Daniel Lanza’s Thesis) also carried out in CEDEX. In this research, a detailed description of the components involved in the rapid alkali-silica reaction was given. Also, a fast method to detect them in the laboratory was developed. The research of the present PhD Thesis is focused in the slow-reactive aggregates, much less studied. The state of the art has shown some gaps in the knowledge about this reaction, mainly the absence of a reliable method to detect slow-reactive aggregates. On one side, there is no systematic and quantitative petrographic test for these aggregates. On the other side, the accelerated mortar bar test has been proved to be effective to detect rapid reactive aggregates but the standard limits fail in the detection of the slowreactive aggregates. In recent investigations it has been proposed extending the test until 90 days, but this period is considered too long. In this research, aggregates taken from affected structures have been used in the test, so their reactivity has been shown in practice. With the aim of increasing the number of samples aggregates from quarries have been also used. A method to stain alkali-silica gels has been applied to mortar bars, thereby quantifying the volume of gel generated inside. This volume has been related to the expansion of the bars, both for rapid for slow reactive aggregates, establishing similarities and differences. The quantification of the gel volume, applied to concrete cores extracted from affected structures, could be an important tool in mathematical models to predict the future behaviour of the structures affected by the alkali-silica reaction. The staining method has been also used to develop a method to detect slow reactive aggregates, based on the optimised Gel-Pat test, obtaining results in 14 days. This represents a major improvement compared to the actual methods (accelerated mortar bar test) which give an indicative value of reactivity at 56 days, and a final result at 90 days.
Resumo:
En este trabajo, se han llevado a cabo distintos experimentos en laboratorio, con el objetivo de estudiar el efecto de la aplicación de residuos orgánicos como fuentes de P en las pérdidas de este elemento, que se producen en suelo, tanto por escorrentía superficial como por lixiviación. El interés por evaluar las pérdidas de P se debe a la necesidad de conocer mejor los factores que influyen en los procesos de pérdidas de este elemento y así, poder reducir los problemas de eutrofización de aguas, tanto superficiales como subterráneas, provocadas por un exceso de este nutriente, junto con otros como el nitrógeno. Los trabajos experimentales que se han llevado a cabo se detallan a continuación: Se ha realizado el estudio de las formas de P contenidas en una serie de 14 residuos orgánicos, de distinto origen y tratamiento (compost, lodos, purines y digestato), comparando la información aportada por tres protocolos de fraccionamientos de P diferentes, seleccionados entre los principales métodos utilizados: protocolo de fraccionamiento de Ruttemberg (1992), protocolo de Normas, medidas y ensayos (Ruban et al., 2001a) y protocolo de Huang et al. (2008). Todos los métodos de fraccionamiento empleados aportaron información útil para conocer las formas de P de los residuos, a pesar de que alguno de ellos fue descrito para sedimentos o suelos. Sin embargo, resulta difícil comparar los resultados entre unos y otros, ya que cada uno emplea extractantes y tiempos de ensayos diferentes. Las cantidades de P total determinadas por cada método mantienen una relación lineal, aunque el método SMT, por ser más directo, obtiene las cantidades más elevadas para todos los residuos. Los métodos secuenciales (métodos de Huang y Ruttemberg), a pesar de ser más largos y tediosos, aportan información más detallada de la disponibilidad de las formas de P, y con ello, permiten obtener una mejor estimación de las pérdidas potenciales de este elemento tras su aplicación en suelo. Se han encontrado relaciones positivas entre las fracciones determinadas por estos dos métodos. Así mismo, se encuentra una correlación entre las formas solubles de P y la concentración de los iones [Ca + Fe + Al] de los residuos, útiles como indicadores de la disponibilidad de este elemento. Sin embargo, el protocolo SMT, no obtiene información de la solubilidad o disponibilidad de las formas de P contenidas, ni las formas determinadas mantienen relaciones directas con las de los otros métodos, con excepción del P total. Para el estudio del comportamiento de los residuos aplicados en suelos, se pusieron a punto sistemas de lluvia simulada, con el objetivo de caracterizar las pérdidas de P en la escorrentía superficial generada. Por otra parte, se emplearon columnas de suelos enmendados con residuos orgánicos, para el estudio de las pérdidas de P por lixiviación. Los ensayos de simulación de lluvia se llevaron a cabo de acuerdo al “National Phosphorus Research proyect“ (2001), que consigue simular eventos sucesivos de lluvia en unas condiciones semejantes a la realidad, empleando cajas llenas de suelo del horizonte superficial, con residuos aplicados tanto superficialmente como mediante mezcla con el propio suelo. Los ensayos se realizaron con seis residuos de diferente naturaleza y sometidos a distintos tratamientos. Se encontraron diferencias significativas en las pérdidas de las formas de P analizadas, tanto disueltas como particuladas, en las aguas de escorrentía generadas. En general, las pérdidas en el primer evento de lluvia tras la aplicación de los residuos fueron mayores a las generadas en el segundo evento, predominando las formas de P particuladas respecto a las disueltas en ambos. Se encontró una relación positiva entre las pérdidas de P en las aguas de escorrentía generadas en cada ensayo, con los contenidos de P soluble en agua y fácilmente disponible de los residuos empleados, determinados por los protocolos de fraccionamientos secuenciales. Además, se emplearon los modelos matemáticos desarrollados por Vadas et al. (2005, 2007), de evaluación de las pérdidas de P por escorrentía para fertilizantes y estiércoles. La predicción de estos modelos no se cumple en el caso de todos los residuos. Las distintas propiedades físicas de los residuos pueden afectar a las diferencias entre las pérdidas experimentales y las esperadas. Los ensayos de simulación del proceso de lixiviación se llevaron a cabo en columnas de percolación, con suelos enmendados con residuos orgánicos, de acuerdo a la norma “CEN/TS 14405–2004: Caracterización de los residuos – Test de comportamiento de lixiviación – Test de flujo ascendente”. Las pérdidas de P por procesos de lixiviación de agua, han sido despreciadas durante mucho tiempo respecto a las pérdidas por escorrentía. Sin embargo, se ha demostrado que deben tenerse en consideración, principalmente en algunos tipos de suelos o zonas cercanas a acuíferos. Se utilizaron tres suelos de distinta procedencia para los ensayos, de manera que se pudo estudiar la influencia del tipo de suelo en las pérdidas de P para cada tipo de residuo (purín, compost, digestato y lodo de EDAR). Los índices de adsorción de P determinados para cada suelo permiten evaluar aquellos que presentarán más riesgo de producir pérdidas de este elemento al aplicarse fuentes externas de P, encontrando una relación positiva entre ambos. Las pérdidas de P en los lixiviados varían en función tanto del residuo como del suelo empleado. Para el compost, el purín y el lodo, se encontró una relación entre las pérdidas generadas en el agua lixiviada de las columnas y las formas de P soluble contenidas en los residuos. Sin embargo, en el caso del digestato, no existía esta correlación. Las pérdidas para este residuo fueron en todos los casos menores a las estimadas, considerando las formas de P contenido. El estudio de la mojabilidad, propiedad física del residuo que evalúa la capacidad de interacción residuo-agua, permitió explicar el comportamiento anómalo de este residuo, con una mayor resistencia a que el agua entrara en su estructura y por tanto, una mayor dificultad de solubilizar el P contenido en el propio residuo, que en el caso de otros residuos. En general, podemos considerar que el estudio de las formas de P más disponibles o solubles en agua, aporta información útil de las pérdidas potenciales de P. Sin embargo, es necesario estudiar las propiedades físicas de los residuos orgánicos aplicados y la capacidad de adsorción de P de los suelos, para estimar las pérdidas de P y con ello, colaborar a controlar los procesos de eutrofización en aguas. ABSTRACT This dissertation explores the effect of organic wastes application as sources of P in losses of this element that occur by both surface runoff and leaching in soil. To do so, diverse laboratory experiments are conducted and presented here. Evaluating P losses is necessary to better understand the factors that influence the processes behind the loss of this element. Reducing P losses reduces eutrophication problems of both surface water and groundwater caused by an excess of this nutrient, along with other as nitrogen. Details of the experiments are presented below: The first experiment studies the forms of P contained in a series of 14 organic wastes of different origin and treatment (compost, sludge, slurry and digestate), comparing the information provided by three methods of P fractionation. The methods selected were: Ruttemberg protocol (1992); Standards, Measurements and Testing protocol (Ruban et al., 2001a); and Huang protocol (Huang et al., 2008). All fractionation methods employed successfully contribute to our knowledge of P forms in wastes, even though one of them was originally described for sediments or soils information. However, it is difficult to compare results among each other, as each protocol employs different extractants and time in the trials. Total amounts of P obtained by each method show a linear relationship, although the SMT method, which is more direct, obtains the highest amounts for all residues. Sequential methods (Huang and Ruttemberg’s protocols), despite being longer and more tedious, provide more detailed information on the availability of the forms of P. Therefore, allow the estimation of the potential losses of P after application in soil. Furthermore, positive relationships have been found among fractions obtained by these methods. Positive relationship has been found also among soluble forms of P and the concentration of ions Fe + Ca + Al, which is useful as an indicator of the availability of this element. However, the SMT protocol does not collect information about solubility or availability of forms of P contained; neither do certain forms maintain direct relations with the forms from other methods, with the exception of total P methods. To study the behavior of wastes applied to soils two experiments were conducted. Simulated rain systems were prepared to characterize P losses in the surface runoff generated. In addition, columns of soils amended with organic waste were developed for the study of P leaching losses. Simulated rain systems were carried out according to the ’National Phosphorus Research Project’ (2001), which manages to simulate successive rainfall events in conditions resembling reality. The experiment uses boxes filled with soil from the surface horizon amended with residues, both superficially and by mixing with the soil. Tests were conducted with six residues of different type and subjected to diverse treatments. Findings show significant differences in losses of the P forms analyzed in the generated runoff water, in both solution and particulate forms. In general, losses in the first rainfall event after application of waste were higher than the losses generated in the second event, predominating particulate forms of P over dissolved forms in both events. In all trials, a positive relationship was found between various P forms determined by sequential fractionation protocols (water soluble P and readily available P forms) and P losses in runoff. Furthermore, results from Vadas´s mathematical models (Vadas et al., 2005; 2007) to assess P losses by runoff fertilizers and manures indicate that the prediction of this model is not fulfilled in the case of all residues. The diverse physical properties of wastes may affect the differences between experimental and expected losses. Finally, leaching simulation processes were carried out in percolation columns, filled with soils amended with organic wastes, following the ‘CEN/TS 14405-2004 standard: Characterization of waste - Leaching behavior test - Test Flow ascending ’. P losses by leaching have been neglected for a long time with respect to runoff losses. However, findings corroborate previous studies showing that these P losses have to be taken into account, especially in certain types of soils and in zones near aquifers. To study the influence of soil type on P losses, experiments were carried out with three different soils and for each type of waste (manure, compost, digestate and sludge WWTP). Each soil’s P adsorption rates allow assessing which soils imply a higher risk of P losses when external sources of P are applied. P losses in leachate vary according to the type of soil employed and according to the specific residue. In the case of compost, manure and sludge, there is a relationship between leaching losses and residues’ soluble forms of P. The exception being the digestate, where there was no such correlation. Digestate P losses by leaching were lower than expected in all cases considering the forms of P contained. Moreover, examining digestate wettability -- that is, the physical property of the residue that assesses the capacity of waste-water interaction -- allowed explaining the anomalous behavior of this residue. Digestate has a high resistance to water entering its structure and thus higher difficulty to solubilize the P contained. Overall, studying the more available or soluble P forms provides useful information about the potential loss of P. However, this dissertation shows that it is necessary to examine the physical properties of organic residues applied as well as the P adsorption capacity of soils to estimate P losses, and thus to control eutrophication in water.