871 resultados para Investimentos - Administração - Modelos matemáticos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo de este proyecto de investigación es comparar dos técnicas matemáticas de aproximación polinómica, las aproximaciones según el criterio de mínimos cuadrados y las aproximaciones uniformes (“minimax”). Se describen tanto el mercado actual del cobre, con sus fluctuaciones a lo largo del tiempo, como los distintos modelos matemáticos y programas informáticos disponibles. Como herramienta informática se ha seleccionado Matlab®, cuya biblioteca matemática es muy amplia y de uso muy extendido y cuyo lenguaje de programación es suficientemente potente para desarrollar los programas que se necesiten. Se han obtenido diferentes polinomios de aproximación sobre una muestra (serie histórica) que recoge la variación del precio del cobre en los últimos años. Se ha analizado la serie histórica completa y dos tramos significativos de ella. Los resultados obtenidos incluyen valores de interés para otros proyectos. Abstract The aim of this research project is to compare two mathematical models for estimating polynomial approximation, the approximations according to the criterion of least squares approximations uniform (“Minimax”). Describes both the copper current market, fluctuating over time as different computer programs and mathematical models available. As a modeling tool is selected main Matlab® which math library is the largest and most widely used programming language and which is powerful enough to allow you to develop programs that are needed. We have obtained different approximating polynomials, applying mathematical methods chosen, a sample (historical series) which indicates the fluctuation in copper prices in last years. We analyzed the complete historical series and two significant sections of it. The results include values that we consider relevant to other projects

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se ha desarrollado un laboratorio virtual para la medida de ciclos indicados en un motor alternativo policombustible de encendido provocado. El laboratorio virtual desarrollado permite por una parte simular y obtener el ciclo indicado de un motor alternativo de cuatro tiempos, pudiendo modificar los parámetros más importantes de operación (régimen de giro, presiones de admisión y escape, temperaturas, etc.) y de diseño (parámetros geométricos del motor). Por otra parte, el laboratorio virtual permite simular el ensayo del motor en banco de pruebas y la medida del ciclo indicado. Los modelos matemáticos necesarios se han escrito en lenguaje Fortran, y estos interaccionan con un interfaz gráfico de usuario (GUI) programado en VEE®. El laboratorio virtual puede implementarse en una plataforma virtual de enseñanza de manera que los alumnos puedan tener acceso al sistema desde cualquier ordenador, en cualquier momento y desde cualquier lugar.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La seguridad verificada es una metodología para demostrar propiedades de seguridad de los sistemas informáticos que se destaca por las altas garantías de corrección que provee. Los sistemas informáticos se modelan como programas probabilísticos y para probar que verifican una determinada propiedad de seguridad se utilizan técnicas rigurosas basadas en modelos matemáticos de los programas. En particular, la seguridad verificada promueve el uso de demostradores de teoremas interactivos o automáticos para construir demostraciones completamente formales cuya corrección es certificada mecánicamente (por ordenador). La seguridad verificada demostró ser una técnica muy efectiva para razonar sobre diversas nociones de seguridad en el área de criptografía. Sin embargo, no ha podido cubrir un importante conjunto de nociones de seguridad “aproximada”. La característica distintiva de estas nociones de seguridad es que se expresan como una condición de “similitud” entre las distribuciones de salida de dos programas probabilísticos y esta similitud se cuantifica usando alguna noción de distancia entre distribuciones de probabilidad. Este conjunto incluye destacadas nociones de seguridad de diversas áreas como la minería de datos privados, el análisis de flujo de información y la criptografía. Ejemplos representativos de estas nociones de seguridad son la indiferenciabilidad, que permite reemplazar un componente idealizado de un sistema por una implementación concreta (sin alterar significativamente sus propiedades de seguridad), o la privacidad diferencial, una noción de privacidad que ha recibido mucha atención en los últimos años y tiene como objetivo evitar la publicación datos confidenciales en la minería de datos. La falta de técnicas rigurosas que permitan verificar formalmente este tipo de propiedades constituye un notable problema abierto que tiene que ser abordado. En esta tesis introducimos varias lógicas de programa quantitativas para razonar sobre esta clase de propiedades de seguridad. Nuestra principal contribución teórica es una versión quantitativa de una lógica de Hoare relacional para programas probabilísticos. Las pruebas de correción de estas lógicas son completamente formalizadas en el asistente de pruebas Coq. Desarrollamos, además, una herramienta para razonar sobre propiedades de programas a través de estas lógicas extendiendo CertiCrypt, un framework para verificar pruebas de criptografía en Coq. Confirmamos la efectividad y aplicabilidad de nuestra metodología construyendo pruebas certificadas por ordendor de varios sistemas cuyo análisis estaba fuera del alcance de la seguridad verificada. Esto incluye, entre otros, una meta-construcción para diseñar funciones de hash “seguras” sobre curvas elípticas y algoritmos diferencialmente privados para varios problemas de optimización combinatoria de la literatura reciente. ABSTRACT The verified security methodology is an emerging approach to build high assurance proofs about security properties of computer systems. Computer systems are modeled as probabilistic programs and one relies on rigorous program semantics techniques to prove that they comply with a given security goal. In particular, it advocates the use of interactive theorem provers or automated provers to build fully formal machine-checked versions of these security proofs. The verified security methodology has proved successful in modeling and reasoning about several standard security notions in the area of cryptography. However, it has fallen short of covering an important class of approximate, quantitative security notions. The distinguishing characteristic of this class of security notions is that they are stated as a “similarity” condition between the output distributions of two probabilistic programs, and this similarity is quantified using some notion of distance between probability distributions. This class comprises prominent security notions from multiple areas such as private data analysis, information flow analysis and cryptography. These include, for instance, indifferentiability, which enables securely replacing an idealized component of system with a concrete implementation, and differential privacy, a notion of privacy-preserving data mining that has received a great deal of attention in the last few years. The lack of rigorous techniques for verifying these properties is thus an important problem that needs to be addressed. In this dissertation we introduce several quantitative program logics to reason about this class of security notions. Our main theoretical contribution is, in particular, a quantitative variant of a full-fledged relational Hoare logic for probabilistic programs. The soundness of these logics is fully formalized in the Coq proof-assistant and tool support is also available through an extension of CertiCrypt, a framework to verify cryptographic proofs in Coq. We validate the applicability of our approach by building fully machine-checked proofs for several systems that were out of the reach of the verified security methodology. These comprise, among others, a construction to build “safe” hash functions into elliptic curves and differentially private algorithms for several combinatorial optimization problems from the recent literature.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Puesto que para determinar las demandas de ductilidad en puentes es aconsejable un método no lineal paso a paso y que un proceso de reacondicionamiento sísmico global raramente justifica estos altos costos, se propone un nuevo método simplificado que recoge las ventajas de los métodos no lineales con unos tiempos de resolución y requisitos de memoria similares a los modales-espectrales. Así, en este capítulo se muestra el método, su implementación en ordenador, sus ventajas, inconvenientes y rango de validez, y finalmente se proponen nuevas mejoras o variantes. De los resultados expuestos, al menos para la tipología de estructura analizada, se puede concluir que: 1)El método de la Rótula Plástica proporciona historias de desplazamientos, giros y energías bastantes buenos si se tiene en cuenta que se está en el campo de la Ingeniería Sísmica y que todas las características, propiedades, excitaciones, etc, contienen errores o incertidumbres grandes. 2) Gracias a ellos se puede conocer qué elementos necesitan medidas de reacondicionamiento y cuales no es necesario modificar. 3) Es un método eminentemente conservador, sobre todo en energías absorbidas y cluctiliclacles en los elementos con mayores demandas. 4) Permite obtener un mecanismo de degradación que proporcione una visión general del comportamiento del puente, muy útil en el caso de reaconclicionamiento sísmico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La determinación no destructiva de la calidad interna de la fruta ha sido un objetivo prioritario en las investigaciones recientes (Abbott, 1999). La espectroscopia en el infrarrojo (NIR) es aplicable a la cuantificación de compuestos químicos en alimentos; por otro lado se ha comprobado que el uso de láseres es interesante para la estimación no destructiva de la firmeza de los frutos. Sin embargo estas técnicas ópticas más tradicionales tienen el inconveniente de que miden la intensidad de luz transmitida sin poder diferenciar el efecto de la absorción óptica del efecto de la dispersión espacial que sufre la luz en el interior de los tejidos, lo cual dificulta la estimación independiente de aspectos físicos y químicos. La espectroscopia con resolución temporal es una técnica óptica desarrollada para el diagnóstico en medicina, que permite diferenciar ambos fenómenos (absorción y dispersión), proporcionando una caracterización óptica completa de los tejidos. El objetivo del presente trabajo ha sido la aplicación de esta técnica a frutas y hortalizas, y el desarrollo de modelos matemáticos de estimación no destructiva de su calidad interna para su uso en procesos de clasificación.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El modelo matemático más sencillo para representar el sistema con un grado de libertad está formado por el acoplamiento de dos elementos: una masa que se mueve con respecto al sistema de referencia y unido a ella un muelle de comportamiento lineal. Hay otro modelo ligeramente más complicado en el que se halla presente, además de la masa y el muelle, un elemento que reacciona linealmente con una fuerza proporcional a la velocidad del desplazamiento, denominado émbolo. En el análisis de ambos modelos matemáticos, se consideran una serie de cuestiones complementarias: los movimientos inducidos por el soporte, la carga proporcional a la frecuencia de impulsión, la energía del sistema vibrante y el amortiguamiento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente trabajo se propone determinar la distribución de tamaño y número de partículas nanométricas provenientes de motores diésel con equipos embarcados en tráfico extraurbano. Para ello, se utilizaron equipos de medición de última generación en condiciones promedio de conducción en tráfico extraurbano por más de 800 km a lo largo del trayecto Madrid-Badajoz-Madrid mediante un vehículo característico del parque automotor español y se implementaron métodos novedosos y pioneros en el registro de este tipo de emisiones. Todo ello abre el camino para líneas de investigación y desarrollo que contribuirán a entender, dimensionar y cualificar el comportamiento de las partículas, así como su impacto en la calidad de vida de la población. El estudio hace dos grandes aportes al campo. Primero, permite registrar las emisiones en condiciones transitorias propias del tráfico real. Segundo, permite mantener controladas las condiciones de medición y evita la formación aleatoria de partículas provenientes de material volátil, gracias al sistema de adecuación de la muestra de gases de escape incorporado. Como resultado, se obtuvo una muestra abundante y confiable que permitió construir modelos matemáticos para calcular la emisión de partículas nanométricas, ultrafinas, finas y totales sobre las bases volumétrica, espacial y temporal en función de la pendiente del perfil orográfico de la carretera, siempre y cuando esté dentro del intervalo ±5.0%. Estos modelos de cálculo de emisiones reducen tanto los costos de experimentación como la complejidad de los equipos necesarios, y fundamentaron el desarrollo de la primera versión de una aplicación informática que calcula las partículas emitidas por un motor diésel en condiciones de tráfico extraurbano ("Partículas Emitidas por Motores Diésel, PEMDI). ABSTRACT The purpose of this research is to determine the distribution of size and number of nanometric particles that come from diesel engines by means of on-board equipment in extra-urban traffic. In order to do this, cutting-edge measuring equipment was used under average driving conditions in extra-urban traffic for more than 800 km along the Madrid-Badajoz-Madrid route using a typical vehicle from Spain's automotive population and innovative, groundbreaking registering methods for this type of emissions were used. All this paves the way for lines of research and development which should help understand, measure and characterize the behavior of such particles, as well as their impact in the quality of life of the general population. The study makes two important contributions to the field. First, it makes it possible to register emissions under transient conditions, which are characteristic to real traffic. Secondly, it provides a means to keep the measuring conditions under control and prevents the random formation of particles of volatile origin through the built-in adjustment system of the exhaust gas sample. As a result, an abundant and reliable sample was gathered, which enabled the building of mathematical models to estimate the emission of nanometric, ultrafine, fine and total particles on volumetric, spatial and temporal bases as a function of the orographic outline of the road within a ±5.0% range. These emission estimating models lower both the experimentation costs and the required equipment's complexity, and they provided the basis for the development of a first software application version that estimates the particles emitted from diesel engines under extra-urban traffic conditions (Partículas Emitidas por Motores Diésel, PEMDI).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo fin de grado es un estudio sobre la reconstrucción del espectro de irradiancia solar en la superficie de Marte y de la radiación solar recibida en lo alto de la atm´osfera. Se llevará a cabo a partir de los datos recogidos por “arrays” de fotodiodos, que se integran en unos sensores, y miden la intensidad de la radiación recibida del cuerpo negro (el Sol), en un rango de longitudes de onda del espectro electromagnético. Para lograr esta reconstrucción, se ha necesitado desarrollar técnicas de interpolación y modelos matemáticos. Estos m´etodos los he implementado con el lenguaje de programación Matlab y me he ayudado de Maple para conseguir distintos resultados. Estos procedimientos serán aplicados a tres configuraciones de sondas en las que cada una cuenta con un número determinado de fotodiodos. El objetivo es reconstruir este espectro de irradiancia aproximándolo lo máximo posible a unos conjuntos de datos estimados, según modelos de transferencia radiativa, que me han sido proporcionados para el cuerpo negro y que miden la radiación solar recibida en la superficie y en lo alto de la atmósfera del Planeta rojo. Este trabajo está basado en un proyecto de investigación que se está llevando a cabo desde hace varios años por un equipo de investigadores de varias universidades de Madrid, conjuntamente con el I.N.T.A. (Instituto Nacional de Técnica Aeroespacial), entre los que se encuentra mi tutor.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Es conocido que la variación del comportamiento dinámico de las estructuras puede ser empleado dentro de un sistema de monitorización de su integridad estructural. Así, este estudio tiene como objetivo comprender el comportamiento dinámico de edificios esbeltos, frente a diferentes agentes ambientales como la temperatura y/o dirección y velocidad del viento. En el marco de esta investigación, se estudian dos edificios: la Torre de la ETSI (Escuela Técnica Superior de Ingenieros) de Caminos, Canales y Puertos de la UPM (Universidad Politécnica de Madrid) y un edificio de viviendas situado en la calle de Arturo Soria de Madrid. Los datos medioambientales antes mencionados, se registraron con sendas estacionales meteorológicas situadas en las azoteas de ambos edificios. Se realiza el análisis modal operacional de ambas estructuras. Este análisis se realiza a partir de las mediciones de las aceleraciones ante excitaciones ambientales, es un análisis basado sólo en la respuesta de la estructura. Por tanto, no es necesario interrumpir el funcionamiento en servicio de la instalación, obteniendo su comportamientos en este estado. A partir de este análisis, se obtienen las frecuencias naturales, los amortiguamientos modales y las formas modales. Así, en este trabajo se ha estudiado la relación existente entre la variación en la estimación de las frecuencias naturales y la variación de los agentes ambientales (fundamentalmente la temperatura). Los ensayos dinámicos en los dos edificios mencionados anteriormente, se han realizado utilizando acelerómetros de alta sensibilidad sincronizados inalámbricamente, lo cual ha simplificado el trabajo experimental si lo comparamos con los sistemas tradicionales. Como resultado del trabajo realizado se pueden destacar los siguientes puntos: (i) se ha visto que con el equipamiento disponible se pueden realizar análisis dinámicos de edificios, (ii) se ha mejorado el conocimiento dinámico de estas estructuras, y (iii) se ha visto la importancia que pueden tener los agentes ambientales dependiendo por un lado del tipo estructura del edificio. A partir del trabajo, se podrían actualizar modelos matemáticos que sirvan para la predicción de daños en las estructuras, y por otro, se podrán eliminar los efectos de los agentes ambientales, lo cual es un punto vital si se quiere emplear los parámetros modales para el cálculo de indices de daño. La aplicación de este tipo de investigación ayudará a tener una información mayor sobre el comportamiento de las estructuras y así, en el futuro, poder realizar distintos tipos de procesos, como la formulación de modelos matemáticos que reflejen con mayor fidelidad el comportamiento real. De esta forma, la monitorización de los agentes medioambientales permitirán valorar la influencia de estas variaciones sobre la estructura pudiéndose eliminar estos efectos. Con ello, se mejora la incertidumbre en la variación de frecuencias que puede ser utilizada como un sistema de activación de alarmas frente a la detección de daños estructurales. It is known that the variation of the dynamic behavior of structures can be used within a system to monitor structural integrity. So, this study aims to understand the dynamic behavior of slender buildings, against different environmental agents such as temperature and / or wind direction and velocity. As part of this investigation, two buildings are studied: the ETSI's (Escuela Técnica Superior de Ingenieros) main tower of Escuela de Caminos, Canales y Puertos of UPM (Universidad Politécnica de Madrid) and a residential building located in the streets Arturo Soria Madrid. The environmental data were recorded with weather stations located on the roof of both buildings. In both structures a modal operational analysis has been carried out. This analysis is performed from the measurements of the acceleration to the environmental excitation, this analysis is based only on the response of the structure. Therefore, it is not necessary to interrupt the operation of the structure, getting its behavior in this state. From this analysis, the natural frequencies, modal damping and mode shapes are obtained. So, in this work we have studied the existing relationship between the variation in the estimate of the natural frequencies and the variation of environmental agents (mainly temperature). The dynamic tests in the two buildings mentioned above, have been made using high-sensitivity accelerometers wirelessly synchronized, which has simplified the experimental work when compared to traditional systems. As a result of work performed can highlight the following points: (i) it has been found that with the available equipment can perform dynamic analysis of buildings, (ii) has improved dynamic knowledge of these structures, and, (iii) can be seen the potential importance of environmental agents depending on the type of building structure. From the work, mathematical models can be updated that serve to prediction of damage to structures, and on the other side, may eliminate the effects of environmental agents, which is a vital point if you want to use the modal parameters for calculating damage ratings. The application of this type of research will help to have more information about the behavior of structures and so, in the future, conduct various processes, as the formulation of mathematical models that reflect more accurately an actual behavior. In this way the monitoring of environmental agents will allow evaluate the influence of these variations on the structure being possible eliminate these effects. Thereby, improvement the uncertainty in the frequencies variation that can be used as an alarm activation system from detection of structural damage.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Existen diferentes métodos para el estudio de la calidad del agua en los estuarios, ríos, lagos, en zonas afectadas por los vertidos de sustancias contaminantes; que van desde los métodos experimentales tradicionales, hasta los más recientes modelos matemáticos. El modelo desarrollado permite resolver la ecuación de dispersión 2—D mediante técnicas en elementos finitos y por lo tanto obtener la evolución espacio-temporal de la concentración de constituyente. Se ha observado su exactitud en diferentes situaciones prácticas, y en particular se ha aplicado a la Bahía de Santander, analizándose el efecto de diferentes tipos de vertidos. El modelo es susceptible de utilizarse conjuntamente con otro modelo hidrodinámico capaz de simular la evolución del campo de velocidades.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La finalidad de esta investigación se enmarca dentro de los estudios sobre hormigones de presas llevados a cabo en el Laboratorio Central de Estructuras y Materiales del CEDEX. En España se han diagnosticado 18 obras afectadas tanto por la reacción álcali-sílice de tipo rápido como por la de tipo lento. Dos de de las obras, fabricadas con áridos graníticos, no presentan signos de deterioro pero en laboratorio se han hallado productos expansivos. En las 16 presas españolas restantes, el hormigón de 10 de ellas estaba fabricado con áridos graníticos, de las cuales, 7 están afectadas por la reacción de tipo lento. Sin embargo, en las clasificaciones internacionales de las rocas potencialmente reactivas se establece habitualmente que las rocas graníticas son inocuas o de reactividad muy baja. En los casos puntuales encontrados en la literatura, la reactividad de este tipo de áridos se encuentra frecuentemente asociada al cuarzo microcristalino que contienen y ocasionalmente se asocia esta reactividad también al cuarzo deformado y/o microfisurado. En la tesis doctoral de Víctor Daniel Lanza Fernández, también realizada en el CEDEX, se han tratado los áridos de reacción rápida, dando una descripción detallada de los componentes que intervienen en este tipo de reacción y presentando un ensayo eficaz para su detección en el laboratorio. La investigación desarrollada en la presente tesis doctoral se ha centrado en los áridos de reacción lenta, mucho menos estudiados. A partir del estudio bibliográfico realizado sobre este tipo de reacción se ha detectado ciertas lagunas, basadas principalmente en la falta de un método de detección en el laboratorio para los áridos de reacción lenta. No se ha encontrado un procedimiento en el estudio petrográfico que sea fiable y cuantificable para este tipo de áridos. El ensayo acelerado de barras de mortero, que para los áridos de reacción rápida supone un método rápido y fiable, falla en la detección de los áridos de reacción lenta al aplicar los límites normalizados. Si bien en publicaciones recientes se ha propuesto la posibilidad de ampliar el tiempo de tratamiento hasta los 90 días, la duración del ensayo es más larga de lo deseado. Para resolver estas lagunas, se han tomado áridos de obras reales afectadas por la reacción álcali-sílice (en algún caso también de las canteras de donde se extrajeron los áridos para la ejecución), con lo que la reactividad de estos áridos queda demostrada por su comportamiento en obra. Al objeto de aumentar la muestra de ensayo y utilizar también áridos inocuos, se han tomado muestras de canteras, tanto en uso como abandonadas. Sobre estos áridos se ha realizado una caracterización completa con los ensayos actualmente disponibles para el estudio de su reactividad con los álcalis del cemento: estudio petrográfico, ensayo acelerado de barras de mortero y Gel-Pat modificado. En la investigación se ha desarrollado una metodología de tinción de geles álcali-sílice para la cuantificación de los mismos en el interior de las barras de mortero. Se ha relacionado el volumen de gel generado en la reacción con la expansión producida, tanto para áridos lentos, como rápidos, estableciendo analogías y diferencias en el comportamiento de ambos. La cuantificación de este tipo de compuestos realizada en las barras de mortero, abre la posibilidad de estudiar la capacidad expansiva que presentan en testigos de hormigón de obras afectadas. Este dato podría ser una herramienta importante para el desarrollo de modelos matemáticos que puedan predecir el futuro comportamiento de las estructuras afectadas por la reacción álcali-sílice. La tinción ha sido asimismo utilizada para establecer un método de detección de áridos reactivos basado en el ensayo de Gel-Pat modificado. La metodología de detección propuesta para estos áridos es cuantitativa y proporciona los resultados en 14 días, suponiendo una ventaja importante sobre los métodos actuales, que permiten detectarlos en 90 días (de forma orientativa en 56 días). This research is part of the studies on durability of concrete dams carried out in the Laboratorio Central de Estructuras y Materiales of CEDEX during the last years. At the present time, 18 public works affected by alkali-silica reaction have been diagnosed in Spain. In 12 of them the concrete was mixed with granitic aggregates, 7 of which were damaged by the slow alkali-silica reaction, 3 by the rapid alkali-silica reaction and in the other 2 cases, although there was no visual evidence of the reaction in field, the laboratory tests showed the presence of expansive products inside the concrete. However, in the international classifications of potentially reactive aggregates granitic rocks are pointed out as innocuous or as low reactivity and usually their reactivity is attributed to the presence of microcrystalline quartz and occasionally with the strained and microcracked quartz. The rapid reactive aggregates were deeply studied in a previous research (Víctor Daniel Lanza’s Thesis) also carried out in CEDEX. In this research, a detailed description of the components involved in the rapid alkali-silica reaction was given. Also, a fast method to detect them in the laboratory was developed. The research of the present PhD Thesis is focused in the slow-reactive aggregates, much less studied. The state of the art has shown some gaps in the knowledge about this reaction, mainly the absence of a reliable method to detect slow-reactive aggregates. On one side, there is no systematic and quantitative petrographic test for these aggregates. On the other side, the accelerated mortar bar test has been proved to be effective to detect rapid reactive aggregates but the standard limits fail in the detection of the slowreactive aggregates. In recent investigations it has been proposed extending the test until 90 days, but this period is considered too long. In this research, aggregates taken from affected structures have been used in the test, so their reactivity has been shown in practice. With the aim of increasing the number of samples aggregates from quarries have been also used. A method to stain alkali-silica gels has been applied to mortar bars, thereby quantifying the volume of gel generated inside. This volume has been related to the expansion of the bars, both for rapid for slow reactive aggregates, establishing similarities and differences. The quantification of the gel volume, applied to concrete cores extracted from affected structures, could be an important tool in mathematical models to predict the future behaviour of the structures affected by the alkali-silica reaction. The staining method has been also used to develop a method to detect slow reactive aggregates, based on the optimised Gel-Pat test, obtaining results in 14 days. This represents a major improvement compared to the actual methods (accelerated mortar bar test) which give an indicative value of reactivity at 56 days, and a final result at 90 days.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este trabajo, se han llevado a cabo distintos experimentos en laboratorio, con el objetivo de estudiar el efecto de la aplicación de residuos orgánicos como fuentes de P en las pérdidas de este elemento, que se producen en suelo, tanto por escorrentía superficial como por lixiviación. El interés por evaluar las pérdidas de P se debe a la necesidad de conocer mejor los factores que influyen en los procesos de pérdidas de este elemento y así, poder reducir los problemas de eutrofización de aguas, tanto superficiales como subterráneas, provocadas por un exceso de este nutriente, junto con otros como el nitrógeno. Los trabajos experimentales que se han llevado a cabo se detallan a continuación: Se ha realizado el estudio de las formas de P contenidas en una serie de 14 residuos orgánicos, de distinto origen y tratamiento (compost, lodos, purines y digestato), comparando la información aportada por tres protocolos de fraccionamientos de P diferentes, seleccionados entre los principales métodos utilizados: protocolo de fraccionamiento de Ruttemberg (1992), protocolo de Normas, medidas y ensayos (Ruban et al., 2001a) y protocolo de Huang et al. (2008). Todos los métodos de fraccionamiento empleados aportaron información útil para conocer las formas de P de los residuos, a pesar de que alguno de ellos fue descrito para sedimentos o suelos. Sin embargo, resulta difícil comparar los resultados entre unos y otros, ya que cada uno emplea extractantes y tiempos de ensayos diferentes. Las cantidades de P total determinadas por cada método mantienen una relación lineal, aunque el método SMT, por ser más directo, obtiene las cantidades más elevadas para todos los residuos. Los métodos secuenciales (métodos de Huang y Ruttemberg), a pesar de ser más largos y tediosos, aportan información más detallada de la disponibilidad de las formas de P, y con ello, permiten obtener una mejor estimación de las pérdidas potenciales de este elemento tras su aplicación en suelo. Se han encontrado relaciones positivas entre las fracciones determinadas por estos dos métodos. Así mismo, se encuentra una correlación entre las formas solubles de P y la concentración de los iones [Ca + Fe + Al] de los residuos, útiles como indicadores de la disponibilidad de este elemento. Sin embargo, el protocolo SMT, no obtiene información de la solubilidad o disponibilidad de las formas de P contenidas, ni las formas determinadas mantienen relaciones directas con las de los otros métodos, con excepción del P total. Para el estudio del comportamiento de los residuos aplicados en suelos, se pusieron a punto sistemas de lluvia simulada, con el objetivo de caracterizar las pérdidas de P en la escorrentía superficial generada. Por otra parte, se emplearon columnas de suelos enmendados con residuos orgánicos, para el estudio de las pérdidas de P por lixiviación. Los ensayos de simulación de lluvia se llevaron a cabo de acuerdo al “National Phosphorus Research proyect“ (2001), que consigue simular eventos sucesivos de lluvia en unas condiciones semejantes a la realidad, empleando cajas llenas de suelo del horizonte superficial, con residuos aplicados tanto superficialmente como mediante mezcla con el propio suelo. Los ensayos se realizaron con seis residuos de diferente naturaleza y sometidos a distintos tratamientos. Se encontraron diferencias significativas en las pérdidas de las formas de P analizadas, tanto disueltas como particuladas, en las aguas de escorrentía generadas. En general, las pérdidas en el primer evento de lluvia tras la aplicación de los residuos fueron mayores a las generadas en el segundo evento, predominando las formas de P particuladas respecto a las disueltas en ambos. Se encontró una relación positiva entre las pérdidas de P en las aguas de escorrentía generadas en cada ensayo, con los contenidos de P soluble en agua y fácilmente disponible de los residuos empleados, determinados por los protocolos de fraccionamientos secuenciales. Además, se emplearon los modelos matemáticos desarrollados por Vadas et al. (2005, 2007), de evaluación de las pérdidas de P por escorrentía para fertilizantes y estiércoles. La predicción de estos modelos no se cumple en el caso de todos los residuos. Las distintas propiedades físicas de los residuos pueden afectar a las diferencias entre las pérdidas experimentales y las esperadas. Los ensayos de simulación del proceso de lixiviación se llevaron a cabo en columnas de percolación, con suelos enmendados con residuos orgánicos, de acuerdo a la norma “CEN/TS 14405–2004: Caracterización de los residuos – Test de comportamiento de lixiviación – Test de flujo ascendente”. Las pérdidas de P por procesos de lixiviación de agua, han sido despreciadas durante mucho tiempo respecto a las pérdidas por escorrentía. Sin embargo, se ha demostrado que deben tenerse en consideración, principalmente en algunos tipos de suelos o zonas cercanas a acuíferos. Se utilizaron tres suelos de distinta procedencia para los ensayos, de manera que se pudo estudiar la influencia del tipo de suelo en las pérdidas de P para cada tipo de residuo (purín, compost, digestato y lodo de EDAR). Los índices de adsorción de P determinados para cada suelo permiten evaluar aquellos que presentarán más riesgo de producir pérdidas de este elemento al aplicarse fuentes externas de P, encontrando una relación positiva entre ambos. Las pérdidas de P en los lixiviados varían en función tanto del residuo como del suelo empleado. Para el compost, el purín y el lodo, se encontró una relación entre las pérdidas generadas en el agua lixiviada de las columnas y las formas de P soluble contenidas en los residuos. Sin embargo, en el caso del digestato, no existía esta correlación. Las pérdidas para este residuo fueron en todos los casos menores a las estimadas, considerando las formas de P contenido. El estudio de la mojabilidad, propiedad física del residuo que evalúa la capacidad de interacción residuo-agua, permitió explicar el comportamiento anómalo de este residuo, con una mayor resistencia a que el agua entrara en su estructura y por tanto, una mayor dificultad de solubilizar el P contenido en el propio residuo, que en el caso de otros residuos. En general, podemos considerar que el estudio de las formas de P más disponibles o solubles en agua, aporta información útil de las pérdidas potenciales de P. Sin embargo, es necesario estudiar las propiedades físicas de los residuos orgánicos aplicados y la capacidad de adsorción de P de los suelos, para estimar las pérdidas de P y con ello, colaborar a controlar los procesos de eutrofización en aguas. ABSTRACT This dissertation explores the effect of organic wastes application as sources of P in losses of this element that occur by both surface runoff and leaching in soil. To do so, diverse laboratory experiments are conducted and presented here. Evaluating P losses is necessary to better understand the factors that influence the processes behind the loss of this element. Reducing P losses reduces eutrophication problems of both surface water and groundwater caused by an excess of this nutrient, along with other as nitrogen. Details of the experiments are presented below: The first experiment studies the forms of P contained in a series of 14 organic wastes of different origin and treatment (compost, sludge, slurry and digestate), comparing the information provided by three methods of P fractionation. The methods selected were: Ruttemberg protocol (1992); Standards, Measurements and Testing protocol (Ruban et al., 2001a); and Huang protocol (Huang et al., 2008). All fractionation methods employed successfully contribute to our knowledge of P forms in wastes, even though one of them was originally described for sediments or soils information. However, it is difficult to compare results among each other, as each protocol employs different extractants and time in the trials. Total amounts of P obtained by each method show a linear relationship, although the SMT method, which is more direct, obtains the highest amounts for all residues. Sequential methods (Huang and Ruttemberg’s protocols), despite being longer and more tedious, provide more detailed information on the availability of the forms of P. Therefore, allow the estimation of the potential losses of P after application in soil. Furthermore, positive relationships have been found among fractions obtained by these methods. Positive relationship has been found also among soluble forms of P and the concentration of ions Fe + Ca + Al, which is useful as an indicator of the availability of this element. However, the SMT protocol does not collect information about solubility or availability of forms of P contained; neither do certain forms maintain direct relations with the forms from other methods, with the exception of total P methods. To study the behavior of wastes applied to soils two experiments were conducted. Simulated rain systems were prepared to characterize P losses in the surface runoff generated. In addition, columns of soils amended with organic waste were developed for the study of P leaching losses. Simulated rain systems were carried out according to the ’National Phosphorus Research Project’ (2001), which manages to simulate successive rainfall events in conditions resembling reality. The experiment uses boxes filled with soil from the surface horizon amended with residues, both superficially and by mixing with the soil. Tests were conducted with six residues of different type and subjected to diverse treatments. Findings show significant differences in losses of the P forms analyzed in the generated runoff water, in both solution and particulate forms. In general, losses in the first rainfall event after application of waste were higher than the losses generated in the second event, predominating particulate forms of P over dissolved forms in both events. In all trials, a positive relationship was found between various P forms determined by sequential fractionation protocols (water soluble P and readily available P forms) and P losses in runoff. Furthermore, results from Vadas´s mathematical models (Vadas et al., 2005; 2007) to assess P losses by runoff fertilizers and manures indicate that the prediction of this model is not fulfilled in the case of all residues. The diverse physical properties of wastes may affect the differences between experimental and expected losses. Finally, leaching simulation processes were carried out in percolation columns, filled with soils amended with organic wastes, following the ‘CEN/TS 14405-2004 standard: Characterization of waste - Leaching behavior test - Test Flow ascending ’. P losses by leaching have been neglected for a long time with respect to runoff losses. However, findings corroborate previous studies showing that these P losses have to be taken into account, especially in certain types of soils and in zones near aquifers. To study the influence of soil type on P losses, experiments were carried out with three different soils and for each type of waste (manure, compost, digestate and sludge WWTP). Each soil’s P adsorption rates allow assessing which soils imply a higher risk of P losses when external sources of P are applied. P losses in leachate vary according to the type of soil employed and according to the specific residue. In the case of compost, manure and sludge, there is a relationship between leaching losses and residues’ soluble forms of P. The exception being the digestate, where there was no such correlation. Digestate P losses by leaching were lower than expected in all cases considering the forms of P contained. Moreover, examining digestate wettability -- that is, the physical property of the residue that assesses the capacity of waste-water interaction -- allowed explaining the anomalous behavior of this residue. Digestate has a high resistance to water entering its structure and thus higher difficulty to solubilize the P contained. Overall, studying the more available or soluble P forms provides useful information about the potential loss of P. However, this dissertation shows that it is necessary to examine the physical properties of organic residues applied as well as the P adsorption capacity of soils to estimate P losses, and thus to control eutrophication in water.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La rotura de las geoestructuras puede ser causada por cambios en las tensiones efectivas debidos bien por cargas externas (terremotos, por ejemplo), bien por variación de las presiones intersticiales (lluvia), o cambios en la geometría (erosión), así como por una disminución de las propiedades resistentes de los materiales (meteorización, ataque químico, etc). El caso particular de los deslizamientos es interesante, existiendo diversas clasificaciones que tienen en cuenta su forma, velocidad de propagación, etc. Dos de estos casos son los deslizamientos propiamente dichos y los flujos. En el primer caso, la deformación se concentra en zonas de pequeño espesor, que se idealiza como una superficie (superficie de rotura). La cinemática de esta rotura se puede considerar como el movimiento relativo de dos masas cuyas deformaciones no son grandes. Este mecanismo está usualmente asociado a materiales sobreconsolidados que presentan reblandecimiento. Los flujos se producen generalmente en materiales de baja densidad y estructura metaestable, con tendencia a compactar, de forma que se generan presiones intersticiales que aumentan el ángulo de rozamiento movilizado, pudiéndose llegar en algunos casos a la licuefacción. Este mecanismo de rotura se conoce como rotura difusa, y no ha sido tan estudiado como el de localización a pesar de se trata frecuentemente de roturas de tipo catastrófico. De hecho, el suelo pasa de un estado sólido a un estado fluidificado, con una gran movilidad. Es importante para el ingeniero predecir tanto el comportamiento de las geoestructuras bajo las cargas de cálculo como las condiciones en las que se producirá la rotura. De esta manera, en algunos casos, se podrán reforzar las zonas más débiles aumentando así su seguridad. En otros casos, no se podrá realizar este refuerzo (grandes deslizamientos como avalanchas, lahares, etc), pero sí se podrán conocer las consecuencias de la rotura: velocidad de propagación, alcance, espesores, etc. La modelización de estos problemas es compleja, ya que aparecen dificultades en los modelos matemáticos, constitutivos o reológicos y numéricos. Dado que en los geomateriales aparece una interacción fuerte entre el esqueleto sólido y los fluidos intersticiales, esto debe ser tenido en cuenta en los modelos matemáticos. En este trabajo se describirán, pues, el desarrollo y aplicación de técnicas avanzadas de modelización; matemática, constitutiva/reológica y numérica. Se dedicará especial atención a los problemas de transición entre suelos y suelos fluidificados, que hoy en día se estudian en una gran mayoría de los casos con modelos diferentes. Así por ejemplo, se emplean modelos constitutivos para el comportamiento previo a la rotura, y reológicos para los materiales fluidificados. En lo que respecta a los modelos matemáticos, existen formulaciones nuevas en velocidades (o desplazamientos), tensiones, y presiones de aire y agua intersticial, de los que se pueden obtener modelos simplificados integrados en profundidad para deslizamientos rápidos. Respecto de los modelos constitutivos, es interesante la teoría de la Plasticidad Generalizada (modelo básico de Pastor-Zienkiewicz y extensiones a suelos no saturados). Se estudiará la extensión de estos modelos elastoplásticos a la viscoplasticidad (Perzyna y consistente), explorando la posibilidad de emplearlos tanto antes como después de la rotura. Finalmente, en lo que a modelos numéricos se refiere, se describirá la implementación de los modelos matemáticos y constitutivos desarrollados en (i) modelos clásicos de elementos finitos, como el GeHoMadrid desarrollado en los grupo investigador M2i al que pertenece el autor de este trabajo, (ii) Métodos de tipo Taylor Galerkin, y (iii) métodos sin malla como el SPH y el Material Point Model. Estos modelos se aplicarán, principalmente a (i) Licuefacción de estructuras cimentadas en el fondo marino (ii) presas de residuos mineros (iii) deslizamientos rápidos de laderas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El principio de Teoría de Juegos permite desarrollar modelos estocásticos de patrullaje multi-robot para proteger infraestructuras criticas. La protección de infraestructuras criticas representa un gran reto para los países al rededor del mundo, principalmente después de los ataques terroristas llevados a cabo la década pasada. En este documento el termino infraestructura hace referencia a aeropuertos, plantas nucleares u otros instalaciones. El problema de patrullaje se define como la actividad de patrullar un entorno determinado para monitorear cualquier actividad o sensar algunas variables ambientales. En esta actividad, un grupo de robots debe visitar un conjunto de puntos de interés definidos en un entorno en intervalos de tiempo irregulares con propósitos de seguridad. Los modelos de partullaje multi-robot son utilizados para resolver este problema. Hasta el momento existen trabajos que resuelven este problema utilizando diversos principios matemáticos. Los modelos de patrullaje multi-robot desarrollados en esos trabajos representan un gran avance en este campo de investigación. Sin embargo, los modelos con los mejores resultados no son viables para aplicaciones de seguridad debido a su naturaleza centralizada y determinista. Esta tesis presenta cinco modelos de patrullaje multi-robot distribuidos e impredecibles basados en modelos matemáticos de aprendizaje de Teoría de Juegos. El objetivo del desarrollo de estos modelos está en resolver los inconvenientes presentes en trabajos preliminares. Con esta finalidad, el problema de patrullaje multi-robot se formuló utilizando conceptos de Teoría de Grafos, en la cual se definieron varios juegos en cada vértice de un grafo. Los modelos de patrullaje multi-robot desarrollados en este trabajo de investigación se han validado y comparado con los mejores modelos disponibles en la literatura. Para llevar a cabo tanto la validación como la comparación se ha utilizado un simulador de patrullaje y un grupo de robots reales. Los resultados experimentales muestran que los modelos de patrullaje desarrollados en este trabajo de investigación trabajan mejor que modelos de trabajos previos en el 80% de 150 casos de estudio. Además de esto, estos modelos cuentan con varias características importantes tales como distribución, robustez, escalabilidad y dinamismo. Los avances logrados con este trabajo de investigación dan evidencia del potencial de Teoría de Juegos para desarrollar modelos de patrullaje útiles para proteger infraestructuras. ABSTRACT Game theory principle allows to developing stochastic multi-robot patrolling models to protect critical infrastructures. Critical infrastructures protection is a great concern for countries around the world, mainly due to terrorist attacks in the last decade. In this document, the term infrastructures includes airports, nuclear power plants, and many other facilities. The patrolling problem is defined as the activity of traversing a given environment to monitoring any activity or sensing some environmental variables If this activity were performed by a fleet of robots, they would have to visit some places of interest of an environment at irregular intervals of time for security purposes. This problem is solved using multi-robot patrolling models. To date, literature works have been solved this problem applying various mathematical principles.The multi-robot patrolling models developed in those works represent great advances in this field. However, the models that obtain the best results are unfeasible for security applications due to their centralized and predictable nature. This thesis presents five distributed and unpredictable multi-robot patrolling models based on mathematical learning models derived from Game Theory. These multi-robot patrolling models aim at overcoming the disadvantages of previous work. To this end, the multi-robot patrolling problem was formulated using concepts of Graph Theory to represent the environment. Several normal-form games were defined at each vertex of a graph in this formulation. The multi-robot patrolling models developed in this research work have been validated and compared with best ranked multi-robot patrolling models in the literature. Both validation and comparison were preformed by using both a patrolling simulator and real robots. Experimental results show that the multirobot patrolling models developed in this research work improve previous ones in as many as 80% of 150 cases of study. Moreover, these multi-robot patrolling models rely on several features to highlight in security applications such as distribution, robustness, scalability, and dynamism. The achievements obtained in this research work validate the potential of Game Theory to develop patrolling models to protect infrastructures.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis doctoral se ha centrado en el estudio de las cargas aerodinámicas no estacionario en romos cuerpos o no aerodinámicos (bluff bodies). Con este objetivo se han identificado y analizado los siguientes puntos: -Caracterización del flujo medido con diferentes tipos de tubos de Pitot y anemómetro de hilo caliente en condiciones de flujo no estacionario inestable generado por un túnel aerodinamico de ráfagas. -Diseño e integración de los montajes experimentales requeridos para medir las cargas de viento internas y externas que actúan sobre los cuerpos romos en condiciones de flujo de viento con ráfagas. -Implementación de modelos matemáticos semi-empíricos basados en flujo potencial y las teorías fenomenológicas pertinentes para simular los resultados experimentales. -En diversan condiciones de flujo con ráfagas, la identificación y el análisis de la influencia de los parámetros obtenida a partir de los modelos teóricos desarrollados. -Se proponen estimaciones empíricas para averiguar los valores adecuados de los parámetros que influyente, mediante el ajuste de los resultados experimentales y los predichos teóricamente. Los montajes experimentales se has reakizado en un tunel aerodinamico de circuito abierto, provisto de baja velocidad, cámara de ensayes cerrada, un nuevo concepto de mecanismo generador de ráfaga sinusoidal, diseñado y construido en el Instituto de Microgravedad "Ignacio Da Riva" de la Universidad Politécnica de Madrid, (IDR / UPM). La principal característica de este túnel aerodynamico es la capacidad de generar un flujo con un perfil de velocidad uniforme y una fluctuación sinusoidal en el tiempo. Se han realizado pruebas experimentales para estudiar el efecto de los flujos no estacionarios en cuerpos romos situados en el suelo. Se han propuesto dos modelos teóricos para diterminar las cargas de presión externas e internas respectivamente. Con el fin de satisfacer la necesidad de la crea ráfagas de viento sinusoidales para comprobar las predicciones de los modelos teóricos, se han obtenido velocidades de hasta 30 m/s y frecuencias ráfaga de hasta 10 Hz. La sección de la cámara de ensayos es de 0,39 m x 0,54 m, dimensiónes adecuadas para llevar a cabo experimentos con modelos de ensayos. Se muestra que en la gama de parámetros explorados los resultados experimentales están en buen acuerdo con las predicciones de los modelos teóricos. Se han realizado pruebas experimentales para estudiar los efectos del flujo no estacionario, las cuales pueden ayudar a aclarar el fenómeno de las cargas de presión externa sobre los cuerpos romos sometidos a ráfagas de viento: y tambien para determinan las cargas de presión interna, que dependen del tamaño de los orificios de ventilación de la construcción. Por último, se ha analizado la contribución de los términos provenientes del flujo no estacionario, y se han caracterizado o los saltos de presión debido a la pérdida no estacionario de presión a través de los orificios de ventilación. ABSTRACT This Doctoral dissertation has been focused to study the unsteady aerodynamic loads on bluff bodies. To this aim the following points have been identified and analyzed: -Characterization of the flow measured with different types of Pitot tubes and hot wire anemometer at unsteady flow conditions generated by a gust wind tunnel. -Design and integrating of the experimental setups required to measure the internal and external wind loads acting on bluff bodies at gusty wind flow conditions. -Implementation of semi-empirical mathematical models based on potential flow and relevant phenomenological theories to simulate the experimental results.-At various gusty flow conditions, extracting and analyzing the influence of parameters obtained from the developed theoretical models. -Empirical estimations are proposed to find out suitable values of the influencing parameters, by fitting the experimental and theoretically predicted results. The experimental setups are performed in an open circuit, closed test section, low speed wind tunnel, with a new sinusoidal gust generator mechanism concept, designed and built at the Instituto de Microgravedad “Ignacio Da Riva” of the Universidad Politécnica de Madrid, (IDR/UPM). The main characteristic of this wind tunnel is the ability to generate a flow with a uniform velocity profile and a sinusoidal time fluctuation of the speed. Experimental tests have been devoted to study the effect of unsteady flows on bluff bodies lying on the ground. Two theoretical models have been proposed to measure the external and internal pressure loads respectively. In order to meet the need of creating sinusoidal wind gusts to check the theoretical model predictions, the gust wind tunnel maximum flow speed and, gust frequency in the test section have been limited to 30 m/s and 10 Hz, respectively have been obtained. The test section is 0.39 m × 0.54 m, which is suitable to perform experiments with testing models. It is shown that, in the range of parameters explored, the experimental results are in good agreement with the theoretical model predictions. Experimental tests have been performed to study the unsteady flow effects, which can help in clarifying the phenomenon of the external pressure loads on bluff bodies under gusty winds: and also to study internal pressure loads, which depend on the size of the venting holes of the building. Finally, the contribution of the unsteady flow terms in the theoretical model has been analyzed, and the pressure jumps due to the unsteady pressure losses through the venting holes have been characterized.