167 resultados para Optimización combinatoria
Resumo:
Esta tesis presenta un estudio de la resistencia de interferencia en multicascos, término que engloba las variaciones en la resistencia al avance debidas a la interacción entre cascos. Su característica más notable es que puede ser tanto positiva como negativa, contribuyendo favorablemente en este último caso a la reducción de la resistencia total. Su análisis permanece como un área activa dentro de la comunidad hidrodinámica, si bien se ha detectado una significativa falta de información experimental sobre el flujo entre cascos. En primer lugar se incluye una caracterización de los fenómenos de interferencia, evaluando su impacto en las diferentes componentes de la resistencia al avance. Al igual que la resistencia total, su predicción requiere el uso de técnicas experimentales o numéricas al ser inviable su solución analítica. Ambos procedimientos han sido considerados en esta tesis. El análisis experimental de la resistencia de interferencia supone el núcleo central del trabajo realizado. Se han ensayado dos geometrías diferentes, un catamarán de servicio comercial PESBO junto con un catamarán compuesto por dos Serie 60 (S60) en paralelo. Los ensayos se han llevado a cabo en dos canales de experiencias, CEHINAV y CEHIPAR, midiéndose resistencia al avance, asiento y trimados dinámicos, y cortes de olas en la zona entre cascos. Mención especial a estos últimos, dado que a pesar de ser en la zona central donde ocurren los principales efectos de interferencia, no se encontró información previa publicada en la literatura. Su medición requirió la fabricación de un sistema de soporte especifico para las probetas de medición. Por otro lado, aunque el Serie 60 es una geometría bien conocida en la comunidad hidrodinámica, a conocimiento del autor su comportamiento como multicasco no había sido aun caracterizado experimentalmente. Los bastidores de unión se fabricaron de forma que permitieran variar la separación entre cascos. Además, los multicascos son en general embarcaciones de alta velocidad mostrando asientos y trimados dinámicos significativos. Para cuantificar su efecto en la resistencia total y de interferencia se construyo un sistema de fijación del modelo al carro que los restringiera, posibilitando comparar los resultados en esta condición con los del modelo libre. Como resultado, se han obtenido resultados experimentales de las dos geometrías estudiadas con múltiples separaciones, incluyendo un solo casco, y con modelo fijo y libre. Una de las principales utilidades de los resultados experimentales es servir como referencia para validar modelos de predicción. Como primera aplicación, los datos experimentales obtenidos con el catamarán S60 se han contrastado con las predicciones numéricas de Yeung et al. (2004). El análisis numérico de la resistencia de interferencia se completa con la realización de simulaciones numéricas utilizando dos códigos substancialmente diferentes: Tdynlin y CD--‐Adapco Star--‐CCM+. Los cortes de olas obtenidos en las simulaciones se comparan con los valores experimentales, mostrándose además los campos de presiones y velocidades calculados sobre el casco. La principal aportación de esta tesis es una extensa caracterización experimental de los fenómenos de interferencia, con la intención de servir de referencia para futuros estudios con multicascos. El análisis de los resultados permite comprender mejor el impacto que la interacción entre cascos, así como las variaciones dinámicas de las condiciones de navegación, tienen en las diferentes componentes de la resistencia. Por otro lado, permite apreciar la dependencia de la resistencia de interferencia con la velocidad y separación entre cascos, de cara a su utilización como parámetro de diseño. ABSTRACT This thesis presents a study of the interference resistance in multihulls, which comprises all the variations in the ship resistance due to the interaction between hulls. Its most remarkable characteristic is that it can be positive or negative, contributing in the second case to the reduction of the total ship resistance. Its study remains an active area in the hydrodynamic community, although there is a significant lack of published experimental data regarding the flow between hulls. First of all, the interference phenomena are characterized, evaluating the impact in the different components of the ship resistance. Similar to the total resistance, their prediction requires experimental or numerical techniques, as no analytic solutions are known. Both procedures have been considered in this thesis. The experimental analysis of the interference resistance is the core of the work done. Two different geometries have been tested, a commercial catamaran PESBO and a catamaran composed by two parallel Series 60 (S60). The tests have been carried out in two towing tanks, CEHINAV and CEHIPAR, measuring ship resistance, dynamic sinkage and trim, and wave cuts in--‐between the hulls. Special mention to the wave cuts, as no previous published information was found regarding this zone, even if it is where the main interference effects happen. Their measurement required building a support tripod for the probes, specifically designed for this experimental campaign. In addition, although the Series 60 is a well known hull for experimental and computational analyses, to the author’s knowledge its behavior as a multihull had not yet been experimentally described. The connection frames between the hulls were built so they allowed adjusting the hull spacing. Furthermore, multihulls are usually high--‐speed vessels, acquiring significant dynamic sinkage and trim. To quantify the effect of these dynamic variations of the interference resistance, a clamping system was developed to fixed the model and compare the results with the free model condition. Thus, experimental results have been obtained for various hull separations with the two geometries analyzed, including a single hull, and with free and fixed model. One of the main applications of experimental results is to serve as a reference to validate prediction models. As a first step, the obtained experimental data with the catamaran S60 have been compared with the numerical predictions of Yeung et al. (2004). The numerical analysis of the interference resistance is completed with the inclusion of numerical simulations using two codes substantially different: Tdynlin and CD--‐Adapco Star--‐CCM+. The wave cuts obtained from the simulations are compared with the experimental ones, showing also the pressure and velocity fields over the hulls. The main contribution of this thesis is an extensive experimental characterization of the interference phenomena, aiming to serve as reference for future studies about multihulls. The analysis of the results provides insights into the impact that the interaction between hulls, as well as the dynamic variations of the sailing conditions, have in the different components of the ship resistance. Moreover, it allows us to observe the dependence of the interference resistance on the velocity and hull spacing, useful towards its use as a design parameter.
Resumo:
Este proyecto versa sobre un modelo de evaluación de calidad de imagen aplicado a la optimización del ancho de banda del multiplex de televisión, mediante la realización de ensayos con distintas configuraciones de cabecera. Dicho modelo se basa en las medidas PQR y DMOS de Tektronix, destinadas a medir la percepción de las diferencias entre una secuencia antes y después de sufrir un procesado digital. Dado que actualmente, el modo de trabajo de una cabecera de televisión digital, es la multiplexación estadística (consistente en la codificación de diferentes servicios de vídeo con anchos de banda variables en función de la complejidad de las señales), las medidas estarán enfocadas a sacar conclusiones acerca de la cantidad de canales, complejidad de contenidos, y organización de los mismos en el ancho de banda disponible para emitir, manteniendo niveles de calidad Broadcast. Las medidas serán aplicadas en el proyecto para comparar el rendimiento de dos modelos de cabecera. En primer lugar serán configuradas en régimen binario constante, comparando el rendimiento de los codificadores en el área de trabajo habitual. Posteriormente se configuraran en régimen binario variable probando múltiples configuraciones, con el objetivo dar con el modelo y configuración óptima para su posterior implementación. ABSTRACT. This project concerns a picture quality assessment model applied to television multiplex bandwidth optimization by conducting test with different headend settings. This model is based on the PQR and DMOS Tektronix measures, designed to measure the differences between a sequence before and after a digital processing. Given that nowadays the working way of television headend is by statistical multiplexing (based on coding the different video services with variable bitrate depending on the complexity of the signals) measures will be focused to reach conclusions about the number of channels, complexity of content, and the way to organize them through the available bandwidth, keeping broadcast quality ratios. The measures will be applied comparing the performance of two headend models. First of all encoders will be set on constant bitrate, comparing the performance through the working bandwidth. Later on, both models will be set on variable bitrate testing multiple configurations, in order to find the optimal model/configuration for later implementation.
Resumo:
Este trabajo fin de carrera consiste en la implementación de una metodología para la optimización de códigos científicos. Para ello, se estudiará primeramente las diferentes arquitecturas que han existido hasta la fecha para comprender la importancia del hardware en el rendimiento de un código. Posteriormente se profundizará en la metodología centrándose sobre todo en la optimización de códigos monoprocesador, dejando la paralelización para futuras líneas de trabajo. Este trabajo pretende ser una guía de referencia para aquellos científicos y administradores que quieran sacar un mayor rendimiento a los códigos científicos.
Resumo:
La principal motivación para la elección del tema de la tesis es nuestra realidad energética y ambiental. Y más específicamente, la necesidad urgente de dar una respuesta a esta realidad desde el sector de la edificación. Por lo que, el trabajo parte de la búsqueda de soluciones pasivas que ayuden a la reducción del consumo energético y de las emisiones de C02 de los edificios, tanto nuevos como existentes. El objeto de estudio son aplicaciones innovadoras, basadas en el uso de materiales reactivos, con un efecto térmico de memoria bidireccional. La energía es un elemento imprescindible para el desarrollo. Sin embargo, el modelo energético predominante, basado principalmente en la utilización de combustibles de origen fósil, es uno de los importantes responsables del deterioro ambiental que sufre el planeta. Además, sus reservas son limitadas y están concentradas en unas pocas regiones del mundo, lo que genera problemas de dependencia, competitividad y de seguridad de suministro. Dado el gran potencial de ahorro energético del sector de la edificación, la Unión Europea en sus directivas enfatiza la necesidad de mejorar la eficiencia energética de los edificios. Añadiendo, además, la obligatoriedad de desarrollar edificios “energía casi nula”, cuyo prerrequisito es tener un muy alto rendimiento energético. En España, los edificios son responsables del 31% del consumo de energía primaria. La mayor parte de este consumo se relaciona a la utilización de sistemas activos de acondicionamiento. Una medida efectiva para reducir la demanda es mejorar la envolvente. Sin embargo, hay que buscar estrategias adicionales para aumentar aún más la eficiencia de los edificios nuevos y existentes. Para los climas de España, el uso de la inercia térmica ha probado ser una estrategia válida. Sin embargo, su funcionamiento está vinculado al peso y al volumen de los materiales utilizados. Esto limita sus posibilidades en la rehabilitación energética y en los nuevos edificios basados en la construcción ligera. Una alternativa es el uso de aplicaciones de almacenamiento térmico por calor latente, utilizando materiales de cambio de fase (PCM). Los PCM son sustancias con un muy alto calor de fusión, capaces de almacenar una gran cantidad de energía térmica sin requerir aumentos significativos de peso o volumen. Estas características los hacen idóneos para reducir el consumo relacionado con el acondicionamiento térmico, en edificios nuevos y existentes. En la parte preliminar de la investigación, se encontró que para lograr un aprovechamiento óptimo de las aplicaciones con PCM es necesario tener un conocimiento profundo de su funcionamiento y de las variables del sistema. De ahí que el objetivo principal de la presente tesis sea: establecer las bases para la optimizatión integral de las aplicaciones con almacenamiento de energía térmica por calor latente, identificando y validando sus variables más relevantes. La investigación consta de tres partes. La primera, documental, sistematizando y jerarquizando la información científica publicada; la segunda, numérica, basada en un análisis paramétrico de una aplicación con PCM, utilizando simulaciones térmicas; y la tercera, experimental, monitorizando el funcionamiento térmico y energético de diferentes aplicaciones con PCM en módulos a escala real. Los resultados brindan un más profundo entendimiento del funcionamiento de las aplicaciones evaluadas. Han permitido identificar sus variables relevantes, cuantificar su influencia, y determinar condiciones óptimas para su utilización así como situaciones en las que sería muy difícil justificar su uso. En el proceso, se realizó la caracterización térmica y energética de aplicaciones con PCM, tanto opacas como traslúcidas. Además, se ha encontrado que las aplicaciones con PCM son capaces de aumentar la eficiencia energética inclusive en recintos con diseños optimizados, demostrando ser una de las estrategias adecuadas para lograr el muy alto desempeño energético requerido en los edificios energía nula. ABSTRACT The main motivation for choosing the theme of the thesis is our energy and environmental reality. And more specifically, the urgent need to respond to this reality from the building sector. This is why, the work start with the search of passive solutions that help reduce energy consumption and C02 emissions of buildings, in both new and existing ones. The object of study is innovative applications based on the use of responsive materials, with bidirectional thermal memory. Energy is an essential element for development. However, the predominant energy model, based primarily on the use of fossil fuels, is one of the major responsible for the environmental deterioration of the planet, the cause of most of the CO2 emissions. Furthermore, reserves of fossil fuels are limited and are concentrated in a few regions of the world, which creates issues related to dependency, competitiveness, and security of supply. Given the large potential for energy savings in the building sector, the European Union in its directives emphasizes the need to improve energy efficiency in buildings. Also, adding the obligation to develop "nearly zero energy" buildings, whose first prerequisite is to achieve a very high energy efficiency. In Spain, buildings are responsible for 31% of primary energy consumption and most of this consumption is related to the used of HVAC systems. One of the most effective measures to reduce demand is to improve the envelope. However, it is necessary to look for additional strategies to further increase the efficiency of new and existing buildings. For the predominant climates in Spain, use of the thermal inertia may be a valid strategy. Nevertheless, its operation is linked to weight and volume of the materials used. This limits their possibilities in the existing buildings energy retrofitting and in the new buildings based on lightweight construction. An alternative is the use of latent heat thermal energy storage applications (LHTES), using phase change materials (PCM). PCM are substances with a high heat of fusion, capable of storing a large amount of thermal energy without requiring significant increases in weight or volume. These features make them ideal for reducing energy consumption associated with thermal conditioning in both new and existing buildings. In the preliminary part of the investigation, it was found that to get optimum utilization of the PCM applications is needed to have a deep understanding of its operation and, in particular, how the system variables affect its performance. Hence, the main objective of this thesis is: to establish the basis for the integral optimization of applications with latent heat thermal energy storage, identifying and validating the most relevant variables. The research comprises of three parts. The first, documentary, systematizing and prioritizing published scientific information. The second, numeric, based on a parametric analysis of an application PCM using thermal simulations. The third, experimental, monitoring the thermal and energy performance of different applications with PCM on real scale test cells. The results provide a complete understanding of the functioning of the evaluated LHTES application. They have allowed to identify their relevant variables, quantify their influence and determine optimum conditions for use as well as situations where it would be very difficult to justify its use. In the process, it was carried out the power and thermal characterization of various opaque and translucent PCM applications. Furthermore, it has been found that applications with PCM can increase the energy efficiency, even in buildings with optimized designs; proving to be one of the appropriate measures to achieve the high energy performance required in zero energy buildings.
Resumo:
El uso de aritmética de punto fijo es una opción de diseño muy extendida en sistemas con fuertes restricciones de área, consumo o rendimiento. Para producir implementaciones donde los costes se minimicen sin impactar negativamente en la precisión de los resultados debemos llevar a cabo una asignación cuidadosa de anchuras de palabra. Encontrar la combinación óptima de anchuras de palabra en coma fija para un sistema dado es un problema combinatorio NP-hard al que los diseñadores dedican entre el 25 y el 50 % del ciclo de diseño. Las plataformas hardware reconfigurables, como son las FPGAs, también se benefician de las ventajas que ofrece la aritmética de coma fija, ya que éstas compensan las frecuencias de reloj más bajas y el uso más ineficiente del hardware que hacen estas plataformas respecto a los ASICs. A medida que las FPGAs se popularizan para su uso en computación científica los diseños aumentan de tamaño y complejidad hasta llegar al punto en que no pueden ser manejados eficientemente por las técnicas actuales de modelado de señal y ruido de cuantificación y de optimización de anchura de palabra. En esta Tesis Doctoral exploramos distintos aspectos del problema de la cuantificación y presentamos nuevas metodologías para cada uno de ellos: Las técnicas basadas en extensiones de intervalos han permitido obtener modelos de propagación de señal y ruido de cuantificación muy precisos en sistemas con operaciones no lineales. Nosotros llevamos esta aproximación un paso más allá introduciendo elementos de Multi-Element Generalized Polynomial Chaos (ME-gPC) y combinándolos con una técnica moderna basada en Modified Affine Arithmetic (MAA) estadístico para así modelar sistemas que contienen estructuras de control de flujo. Nuestra metodología genera los distintos caminos de ejecución automáticamente, determina las regiones del dominio de entrada que ejercitarán cada uno de ellos y extrae los momentos estadísticos del sistema a partir de dichas soluciones parciales. Utilizamos esta técnica para estimar tanto el rango dinámico como el ruido de redondeo en sistemas con las ya mencionadas estructuras de control de flujo y mostramos la precisión de nuestra aproximación, que en determinados casos de uso con operadores no lineales llega a tener tan solo una desviación del 0.04% con respecto a los valores de referencia obtenidos mediante simulación. Un inconveniente conocido de las técnicas basadas en extensiones de intervalos es la explosión combinacional de términos a medida que el tamaño de los sistemas a estudiar crece, lo cual conlleva problemas de escalabilidad. Para afrontar este problema presen tamos una técnica de inyección de ruidos agrupados que hace grupos con las señales del sistema, introduce las fuentes de ruido para cada uno de los grupos por separado y finalmente combina los resultados de cada uno de ellos. De esta forma, el número de fuentes de ruido queda controlado en cada momento y, debido a ello, la explosión combinatoria se minimiza. También presentamos un algoritmo de particionado multi-vía destinado a minimizar la desviación de los resultados a causa de la pérdida de correlación entre términos de ruido con el objetivo de mantener los resultados tan precisos como sea posible. La presente Tesis Doctoral también aborda el desarrollo de metodologías de optimización de anchura de palabra basadas en simulaciones de Monte-Cario que se ejecuten en tiempos razonables. Para ello presentamos dos nuevas técnicas que exploran la reducción del tiempo de ejecución desde distintos ángulos: En primer lugar, el método interpolativo aplica un interpolador sencillo pero preciso para estimar la sensibilidad de cada señal, y que es usado después durante la etapa de optimización. En segundo lugar, el método incremental gira en torno al hecho de que, aunque es estrictamente necesario mantener un intervalo de confianza dado para los resultados finales de nuestra búsqueda, podemos emplear niveles de confianza más relajados, lo cual deriva en un menor número de pruebas por simulación, en las etapas iniciales de la búsqueda, cuando todavía estamos lejos de las soluciones optimizadas. Mediante estas dos aproximaciones demostramos que podemos acelerar el tiempo de ejecución de los algoritmos clásicos de búsqueda voraz en factores de hasta x240 para problemas de tamaño pequeño/mediano. Finalmente, este libro presenta HOPLITE, una infraestructura de cuantificación automatizada, flexible y modular que incluye la implementación de las técnicas anteriores y se proporciona de forma pública. Su objetivo es ofrecer a desabolladores e investigadores un entorno común para prototipar y verificar nuevas metodologías de cuantificación de forma sencilla. Describimos el flujo de trabajo, justificamos las decisiones de diseño tomadas, explicamos su API pública y hacemos una demostración paso a paso de su funcionamiento. Además mostramos, a través de un ejemplo sencillo, la forma en que conectar nuevas extensiones a la herramienta con las interfaces ya existentes para poder así expandir y mejorar las capacidades de HOPLITE. ABSTRACT Using fixed-point arithmetic is one of the most common design choices for systems where area, power or throughput are heavily constrained. In order to produce implementations where the cost is minimized without negatively impacting the accuracy of the results, a careful assignment of word-lengths is required. The problem of finding the optimal combination of fixed-point word-lengths for a given system is a combinatorial NP-hard problem to which developers devote between 25 and 50% of the design-cycle time. Reconfigurable hardware platforms such as FPGAs also benefit of the advantages of fixed-point arithmetic, as it compensates for the slower clock frequencies and less efficient area utilization of the hardware platform with respect to ASICs. As FPGAs become commonly used for scientific computation, designs constantly grow larger and more complex, up to the point where they cannot be handled efficiently by current signal and quantization noise modelling and word-length optimization methodologies. In this Ph.D. Thesis we explore different aspects of the quantization problem and we present new methodologies for each of them: The techniques based on extensions of intervals have allowed to obtain accurate models of the signal and quantization noise propagation in systems with non-linear operations. We take this approach a step further by introducing elements of MultiElement Generalized Polynomial Chaos (ME-gPC) and combining them with an stateof- the-art Statistical Modified Affine Arithmetic (MAA) based methodology in order to model systems that contain control-flow structures. Our methodology produces the different execution paths automatically, determines the regions of the input domain that will exercise them, and extracts the system statistical moments from the partial results. We use this technique to estimate both the dynamic range and the round-off noise in systems with the aforementioned control-flow structures. We show the good accuracy of our approach, which in some case studies with non-linear operators shows a 0.04 % deviation respect to the simulation-based reference values. A known drawback of the techniques based on extensions of intervals is the combinatorial explosion of terms as the size of the targeted systems grows, which leads to scalability problems. To address this issue we present a clustered noise injection technique that groups the signals in the system, introduces the noise terms in each group independently and then combines the results at the end. In this way, the number of noise sources in the system at a given time is controlled and, because of this, the combinato rial explosion is minimized. We also present a multi-way partitioning algorithm aimed at minimizing the deviation of the results due to the loss of correlation between noise terms, in order to keep the results as accurate as possible. This Ph.D. Thesis also covers the development of methodologies for word-length optimization based on Monte-Carlo simulations in reasonable times. We do so by presenting two novel techniques that explore the reduction of the execution times approaching the problem in two different ways: First, the interpolative method applies a simple but precise interpolator to estimate the sensitivity of each signal, which is later used to guide the optimization effort. Second, the incremental method revolves on the fact that, although we strictly need to guarantee a certain confidence level in the simulations for the final results of the optimization process, we can do it with more relaxed levels, which in turn implies using a considerably smaller amount of samples, in the initial stages of the process, when we are still far from the optimized solution. Through these two approaches we demonstrate that the execution time of classical greedy techniques can be accelerated by factors of up to ×240 for small/medium sized problems. Finally, this book introduces HOPLITE, an automated, flexible and modular framework for quantization that includes the implementation of the previous techniques and is provided for public access. The aim is to offer a common ground for developers and researches for prototyping and verifying new techniques for system modelling and word-length optimization easily. We describe its work flow, justifying the taken design decisions, explain its public API and we do a step-by-step demonstration of its execution. We also show, through an example, the way new extensions to the flow should be connected to the existing interfaces in order to expand and improve the capabilities of HOPLITE.
Resumo:
La operación cíclica de carga y descarga del almacenamiento en los sistemas CAES induce variaciones de presión y temperatura del aire almacenado. Se requiere pues de modelos que predigan la magnitud de dichas actuaciones para lograr una óptima configuración de la planta de potencia. El modelo se deduce directamente de las ecuaciones de conservación de la masa y de la energía para un sistema homogéneo e isótropo. Es resuelto analítica, para ciertos casos límite de interés, y numéricamente. Se somete al modelo a un análisis de sensibilidad para la determinación de los parámetros característicos más influyentes que afectan a las actuaciones de presión y al volumen de almacenamiento requerido. Se observó que el flujo de calor a través del medio circundante al almacenamiento presenta una influencia sobre éste poco despreciable que debe tenerse en cuenta. Se comparan los casos para sistemas adiabáticos e isotermos para calibrar dicha desviación. Además, se esboza un modelo aproximado que describa el comportamiento del almacenamiento con un almacén térmico (AT) acoplado que regule las variaciones de la temperatura del aire inyectado. Abstract Cyclic charge and discharge operation in CAES systems induce pressure and temperatura fluctuations in the storaged air. It is then required a model that properly describes the magnitud of such fluctutions in order to achieve an optimum power plant configuration. This model is directly deduced from the general conservation principles: conservation of mass and energy, applied into homogeneous and isotropic systems. It was solved analytically for certain specific limiting cases of interest as well as numerically. The model was subjected to a sensibility analysis in order to determine the intrinsic parameters that affect the pressure fluctuations as well as the required storage volume the most. Furthermore it was observed that the heat flux through the sourrounding media of the storage has a non-negligible effect that must be taken into account. Adiabatic and isothermal cases are then compared to each other to determine such a deviation. What is more, it is given a general outline about the model which describes the behaviour of the storage coupled with a thermal storage system(TES) that regulates the inyected air temperature.
Resumo:
Los incendios forestales son un problema recurrente en España que produce cada año grandes pérdidas económicas, ambientales y en ocasiones humanas. A la complejidad de los siniestros en España por múltiples factores (clima, fisiografía, propiedad), hay que sumarle la descentralización política, pues las comunidades autónomas tienen la competencia de los incendios forestales, bajo las directrices de una legislación básica del Estado. La estadística de incendios forestales es una herramienta fundamental para el análisis de este fenómeno. Gracias a ella se puede lograr un profundo conocimiento del problema que permita lograr una mejora de los resultados y una optimización de los recursos empleados en su extinción. A partir de los datos de siniestros desde 2001 a 2010 se han elaborado unos indicadores que tienen como objetivo la realización de planes de actuación y prevención para un futuro.
Resumo:
El desarrollo económico y social, a veces excesivamente rápido, que se ha producido en las últimas décadas ha generado una serie de problemas medioambientales generalmente más acuciantes en el entorno de las grandes ciudades. Dentro de este contexto y debido a este desarrollo exponencial de las actividades humanas, la contaminación acústica se ha convertido en uno de los problemas de peor solución, tanto a nivel de reducción como de atenuación, por lo que el diseño de pantallas acústicas está siendo uno de los objetivos prioritarios en la lucha contra la contaminación sonora. La expresión más extendida para designar a las barreras acústicas es la de pantallas acústicas, entendiéndose por éstas, muros de espesor relativamente pequeño concebidos como barreras acústicas. Hasta la fecha los avances en el diseño de estas pantallas han sido notables y ya se cuentan por cientos los kilómetros de las mismas que han sido construidas e instaladas, sobre todo en la periferia de las grandes ciudades cerca de las llamadas vías de tráfico rápido. Estos avances se han centrado sobre todo en el diseño de materiales de gran poder de absorción de las ondas, como método principal de atenuación, o bien en la forma geométrica de la superficie expuesta al tráfico, formas que por medio de reflexiones son capaces de anular o mitigar parte de la energía transportada por las ondas sonoras. A la vista de estos resultados las actuales pantallas acústicas reducen el nivel sonoro por atenuación, pero no son capaces de anular la onda incidente. Por otro lado, los últimos estudios de la tecnología japonesa en estos temas es el análisis del problema de borde, ya que este fenómeno de difracción es uno de los causantes principales del nivel sonoro en el trasdós de la pantalla. Pese a que es imposible anular este efecto de borde los estudios se han encauzado a intentar obtener una forma de la sección de la pantalla en su parte superior que sea capaz de mitigar este efecto, bien por interferencia entre las ondas incidentes o bien por superposición de diversos fenómenos de difracciones. En este orden de cosas entra a escena el concepto de pantalla tubular, como una nueva pantalla perforada que anula ondas sonoras basándose en el efecto físico de los tubos de Kundt. Su funcionamiento es debido a la propiedad de las ondas sonoras de producir resonancias al transmitirse dentro de cavidades de diferentes secciones tipo. Este tipo de pantallas se olvida del concepto clásico de pantalla acústica y su forma de atenuar el sonido y pasa al cálculo de la atenuación por eliminación de frecuencias. Esta tesis ofrece una nueva visión de este tipo de pantallas tubulares, optimizando su funcionamiento en función de la longitud de las cavidades tubulares, que han de ser diseñadas no de forma rectilínea, sino según directrices de curvas conocidas. El método operativo consistirá en aplicar las propiedades morfológicas de estas curvas a la propagación de ondas dentro de cavidades curvilíneas, obteniendo una serie de funciones de onda transmitidas y otras anuladas, lo que permite evaluar el porcentaje de energía que es capaz de anular cada tipo de curva para un espesor prefijado de pantalla. Este planteamiento nos permite elaborar un método de diseño y optimización por consideraciones exclusivamente geométricas, en función de un número muy reducido de parámetros, entre los que destaca la frecuencia que se presenta con mayor asiduidad, que es la principal causante del nivel sonoro. Asimismo, el método está apoyado en gran manera en un soporte gráfico, lo que le hace de sencilla aplicación incluso entre técnicos no excesivamente acostumbrados a trabajar con ondas sonoras. Como resumen final, las aportaciones más relevantes que incorpora esta tesis son las siguientes: Desarrollo práctico de la teoría global de pantallas acústicas tubulares ; Aplicación de la geometría clásica, en el concepto de longitudes de curvas tipo, a las técnicas de ingeniería del medio ambiente lo que representa un avance cualitativo notable ya que hasta la fecha no se había planteado la interacción de dos disciplinas en apariencia tan dispares y de conceptos tan heterogéneos ; Desarrollo de un método secuencial que es capaz de engarzar el análisis acústico de un cierto flujo de tráfico vehicular con el análisis geométrico de curvas tipo y dotar así al futuro diseñador de pantallas acústicas de una poderosa herramienta que le permita variar la tipología y forma de la pantalla en función de parámetros que pueden variar de manera aleatoria.
Resumo:
La cristalización de sales en los paramentos (eflorescencias), y bajo ellos (subflorescencias), es una de las principales causas de deterioro de los materiales de construcción de los edificios históricos. Las formas cristalinas de las sales que permanecen sometidas a flujos de humedad, cambian estacionalmente y en función de las condiciones ambientales, aunque todavía se desconocen muchos de los mecanismos implicados en estos procesos. Por ello, los autores han iniciado un proceso de investigación cuya finalidad es desarrollar una metodología específica que permita estudiar cómo las condiciones de evaporación, y más específicamente la velocidad del aire tangente a la superficie de evaporación, determinan el proceso de cristalización de las sales y su movilidad. Primero hemos desarrollado una metodología experimental para estudiar la influencia del caudal del aire en la formación de eflorescencias, y comprender mejor la evolución temporal de las formaciones salinas. Después hemos investigado la posibilidad de utilizar un caudal de aire controlado, para favorecer determinadas formas de cristalización de sales, en función del material afectado. Hemos realizado una serie de ensayos con diversos materiales, todos ellos porosos y contaminados con cantidades controladas de sal, con un dispositivo experimental específicamente diseñado para esta investigación. El objeto de esta comunicación es presentar el dispositivo experimental, y sus resultados. Estos nos han permitido observar el movimiento de la humedad y de la sal durante el secado, lo que puede utilizarse para plantear su posible extracción, es decir la optimización de los métodos de desalación y saneamiento de paramentos basados en esta técnica.
El centro revisitado. Criterios de intervención sobre la vivienda obsoleta en la ciudad consolidada.
Resumo:
El objetivo de este artículo es obtener una visión más profunda de las características, condiciones, criterios y posibilidades del proyecto residencial actual en la vivienda colectiva obsoleta de la ciudad consolidada. El fracaso del crecimiento extensivo en la periferia durante los últimos veinte años ha puesto de manifiesto la necesidad de defender la vuelta al centro. Para ello, las políticas de construcción de vivienda ex novo deben dejar paso a otras políticas que consideren el parque residencial existente como materia de proyecto para la ciudad contemporánea. El futuro inmediato de ésta se centra en la definición de operaciones estratégicas de regeneración funcional y tipológica del tejido residencial de la ciudad existente. El reto es utilizar construcciones intelectuales nuevas sobre un soporte antiguo, esto es, llevar a cabo el proyecto de la vivienda del siglo XXI sobre una "carcasa" del XIX o del XX. La solución proyectual a dicha idea no pasa por hacer un proyecto específico para cada caso, sino por definir un proyecto genérico para la ciudad heredada y que se dejará en herencia. Las medidas de actualización de lo existente a escala residencial deben encaminarse hacia la neutralización del soporte habitable, la optimización de los recursos energéticos y la consecución de una regulación alternativa. Se pretende concebir, en definitiva, el edificio o la manzana de la ciudad consolidada de tipo postindustrial como una infraestructura residencial de uso público, donde la vivienda sea entendida como un servicio y no como un producto
Resumo:
En los últimos años se han desarrollado una amplia variedad de herramientas educativas para la docencia. En especial, los laboratorios virtuales y remotos, como medios de educación, se van imponiendo en varios campos de la docencia. La teoría de control no está ajena a este desarrollo y son cada día más las universidades que implementan estas herramientas con el objetivo de optimizar sus recursos. Por ello, en esta tesis, se realiza un análisis de varias de las plataformas de laboratorios virtuales y remotos actuales. Este estudio sirvió de base para la implementación del Sistema de Laboratorios a Distancia (SLD). El Sistema de Laboratorios a Distancia tiene como ventajas fundamentales la independencia entre las estaciones de trabajo y el servidor, lo que permite que se puedan compartir recursos entre lugares distantes, a través de Internet. Además, la posibilidad de tener más de una estación de trabajo, con la misma práctica, controladas por el mismo servidor, lo que le brinda un mayor paralelismo. Por último, mencionar el hecho de permitir la realización de prácticas en tiempo real. En esta tesis se detalla la implementación de las prácticas remotas para el Sistema de Laboratorios a Distancia usadas en la asignatura de Regulación Automática durante los cursos 2008-2009 al 2010-2011. Estas prácticas fueron utilizadas, además de para las actividades prácticas de laboratorio, en el desarrollo de un proyecto de control, actividad ejecutada por los alumnos con un alto valor formativo. También se describen los trabajos prácticos desarrollados en el curso mediante el uso de AulaWeb. Se propone una metodología que se nutre de los resultados de cada curso con vistas a su mejoramiento. La realización de prácticas de forma presencial y remota permite combinar las ventajas de ambos métodos. La realización presencial de prácticas en el laboratorio tiene un gran valor formativo para los alumnos, permitiéndole conocer y manipular los equipos físicos con los que trabaja. Una vez que el alumno está familiarizado con los sistemas que utiliza puede trabajar con ellos a distancia, con las ventajas que ello conlleva de puesta a punto de los equipos y optimización de los recursos. El tiempo efectivo de uso de los sistemas físicos suele ser reducido, ya que la programación y captura de datos suele requerir entre 10 y 20 minutos. La realización de trabajos a distancia ahorra tiempo para el alumno a la vez que favorece el uso compartido de recursos. Otro aspecto de interés que surge al realizar actividades remotas es que no se limita el tiempo de utilización de los equipos, los alumnos pueden manipularlos sin restricciones de tiempo hasta que consideren que han alcanzado los objetivos deseados. La metodología aplicada permite la adquisición de competencias en los alumnos, específicamente las competencias para diseñar y ejecutar experimentos de control; así como analizar críticamente sus resultados. Todo desde un punto de vista de trabajo en equipo, y de forma colaborativa haciendo uso de las herramientas educativas AulaWeb y el Sistema de Laboratorios a Distancia (SLD) para la implementación de los experimentos remotos sobre equipos reales. Esta tesis se ajusta y da respuesta a los objetivos definidos como prioritarios por la Escuela Técnica Superior de Ingenieros Industriales de la Universidad Politécnica de Madrid en sus líneas de prioritarias para la Innovación Educativa. De igual forma cumple con el modelo educativo de la Universidad Politécnica de Madrid (Plan de eficiencia educativa), así como con las recomendaciones sobre competencias del Consejo de Acreditación de Ingeniería y Tecnología (Accreditation Board for Engineering and Technology, ABET). Se analizan los datos recogidos mediante la observación participante, las encuestas y las entrevistas grupales por cada curso académico en los que se realizó la investigación, y se proponen los cambios y mejoras para el próximo período académico. De igual forma se exponen los resultados de los alumnos en los tres cursos que duró la investigación. Esta investigación se ha desarrollado en el marco de dos proyectos de Innovación Educativa financiados por la Universidad Politécnica de Madrid. Además, ha formado parte del Programa de Cooperación Universitaria Institucional (IUC) de la Universidad Central “Marta Abreu” de Las Villas (UCLV) con el Consejo de Universidades Flamencas (VLIR).
Resumo:
Para la mejora continua de los procesos de fabricación y con el objetivo de alcanzar niveles óptimos de productividad, calidad y coste en la producción de componentes y productos, es fundamental disponer de un modelo preciso del proceso de corte. Estos modelos constituyen la base para la simulación del proceso de mecanizado que va a permitir calcular las fuerzas de corte, potencias o tiempos de ciclo. Un primer objetivo de esta tesis se ha centrado en el desarrollo de un modelo de estimación de fuerzas en fresado periférico. Este modelo no solo realiza la estimación de las fuerzas de corte sino que también considera la geometría del proceso en cada instante con el fin de calcular los arcos de empañe en cada rotación de la herramienta. El nuevo modelo desarrollado está basado en el espesor de viruta medio que, a diferencia de los modelos basados discos elementales, no necesita cálculos repetitivos. Este modelo permite estimar las fuerzas de corte no solo en condiciones uniformes sino también en régimen variable con cambios en los valores de ancho de corte y de profundidad de corte. Se han llevado a cabo un elevado número de ensayos, con herramientas de diferentes diámetros y para distintos materiales, con el fin de analizar el comportamiento de la herramienta. Se concluye que el modelo propuesto ofrece unos resultados óptimos en situaciones variables. Un segundo objetivo ha sido la optimización del fresado a través de la definición de estrategias de mecanizado de forma que sea posible su programación en una etapa previa a la fabricación del componente. Esta fase de optimización de las trayectorias de mecanizado estaría orientada sobre todo a situaciones en las que la herramienta está sometida a variaciones importantes de las condiciones de corte. La estrategia de mecanizado seleccionada se basa en la influencia que tiene la geometría y la evolución de las fuerzas en fresado.
Resumo:
La investigación realizada en este trabajo de tesis se ha centrado en la caracterización y optimización del sistema Fe/Gd/Fe y en el estudio de su efecto en el transporte dependiente de espín y en la transferencia de espín (STT) en dispositivos magnéticos. El fenómeno de STT, uno de los grandes descubrimientos de la espintrónica, se basa en la transferencia de momento angular de una corriente polarizada de espín a la imanación local de un material magnético. Este efecto se traduce en que una corriente polarizada de espín puede provocar variaciones en la imanación del material sin necesidad de campo magnético aplicado. Este fenómeno necesita una densidad de corriente muy alta, de manera que sus efectos solo se observan en dispositivos de tamaño nanométrico a partir de la llamada densidad de corriente crítica. El STT tiene un gran potencial tecnológico para distintas aplicaciones, como emisores de radiofrecuencia para comunicación in-chip o memorias magnéticas alternativas, en que se podría leer y escribir la información únicamente mediante corriente, sin necesidad de aplicar campo magnético ni utilizar bobinas de detección. Desde el punto de vista de este tipo de aplicaciones hay un gran interés en disminuir la densidad de corriente crítica a la que empieza a observarse el efecto. Sin embargo, hay otro tipo de dispositivos en que el STT supone un problema o factor limitante. Este es el caso de las cabezas lectoras de ordenador, en las que a partir de la densidad de corriente crítica aparece ruido e inestabilidad adicional en la señal inducidos por STT, lo que limita su sensibilidad. Para este tipo de aplicación, se desea por tanto que la corriente crítica a partir de la cual aparece ruido e inestabilidad adicional en la señal sea tan grande como sea posible. El Gd (y especialmente el sistema Fe/Gd/Fe) tiene unas características muy particulares con potencial para afectar varias propiedades relacionadas con la densidad de corriente crítica de un dispositivo de STT. Por este motivo, resulta interesante introducir la tricapa Fe/Gd/Fe en la capa libre de este tipo de dispositivos y estudiar cómo afecta a su estabilidad. Para ello, una primera parte del trabajo se ha centrado en la exhaustiva caracterización del sistema Fe/Gd/Fe y la optimización de sus propiedades de cara a su introducción en la capa libre de dispositivos de STT. Por otro lado, la intención final es alterar o controlar el efecto de transferencia de espín en un dispositivo afectando lo menos posible al resto de las propiedades intrínsecas de su funcionamiento (por ejemplo, al valor de su magnetorresistencia). Por tanto, ha sido necesario estudiar los efectos del sistema Fe/Gd/Fe en el transporte de espín y determinar la manera de introducir la tricapa en el dispositivo optimizando el resto de sus propiedades o afectándolas lo menos posible. Finalmente, hemos introducido el sistema Fe/Gd/Fe en la capa libre de nanodispositivos y hemos estudiado su efecto en la corriente crítica de inestabilidad por STT. Los resultados muestran que estas tricapas Fe/Gd/Fe pueden suponer una solución potencial para los problemas de estabilidad de algunos nanodispositivos magnéticos como las cabezas lectoras magnéticas.
Resumo:
El tema central de investigación en esta Tesis es el estudio del comportamientodinámico de una estructura mediante modelos que describen la distribución deenergía entre los componentes de la misma y la aplicación de estos modelos parala detección de daños incipientes.Los ensayos dinámicos son un modo de extraer información sobre las propiedadesde una estructura. Si tenemos un modelo de la estructura se podría ajustar éstepara que, con determinado grado de precisión, tenga la misma respuesta que elsistema real ensayado. Después de que se produjese un daño en la estructura,la respuesta al mismo ensayo variará en cierta medida; actualizando el modelo alas nuevas condiciones podemos detectar cambios en la configuración del modeloestructural que nos condujeran a la conclusión de que en la estructura se haproducido un daño.De este modo, la detección de un daño incipiente es posible si somos capacesde distinguir una pequeña variación en los parámetros que definen el modelo. Unrégimen muy apropiado para realizar este tipo de detección es a altas frecuencias,ya que la respuesta es muy dependiente de los pequeños detalles geométricos,dado que el tamaño característico en la estructura asociado a la respuesta esdirectamente proporcional a la velocidad de propagación de las ondas acústicas enel sólido, que para una estructura dada es inalterable, e inversamente proporcionala la frecuencia de la excitación. Al mismo tiempo, esta característica de la respuestaa altas frecuencias hace que un modelo de Elementos Finitos no sea aplicable enla práctica, debido al alto coste computacional.Un modelo ampliamente utilizado en el cálculo de la respuesta de estructurasa altas frecuencias en ingeniería es el SEA (Statistical Energy Analysis). El SEAaplica el balance energético a cada componente estructural, relacionando la energíade vibración de estos con la potencia disipada por cada uno de ellos y la potenciatransmitida entre ellos, cuya suma debe ser igual a la potencia inyectada a cadacomponente estructural. Esta relación es lineal y viene caracterizada por los factoresde pérdidas. Las magnitudes que intervienen en la respuesta se consideranpromediadas en la geometría, la frecuencia y el tiempo.Actualizar el modelo SEA a datos de ensayo es, por lo tanto, calcular losfactores de pérdidas que reproduzcan la respuesta obtenida en éste. Esta actualización,si se hace de manera directa, supone la resolución de un problema inversoque tiene la característica de estar mal condicionado. En la Tesis se propone actualizarel modelo SEA, no en término de los factores de pérdidas, sino en términos deparámetros estructurales que tienen sentido físico cuando se trata de la respuestaa altas frecuencias, como son los factores de disipación de cada componente, susdensidades modales y las rigideces características de los elementos de acoplamiento.Los factores de pérdidas se calculan como función de estos parámetros. Estaformulación es desarrollada de manera original en esta Tesis y principalmente sefunda en la hipótesis de alta densidad modal, es decir, que en la respuesta participanun gran número de modos de cada componente estructural.La teoría general del método SEA, establece que el modelo es válido bajounas hipótesis sobre la naturaleza de las excitaciones externas muy restrictivas,como que éstas deben ser de tipo ruido blanco local. Este tipo de carga es difícil dereproducir en condiciones de ensayo. En la Tesis mostramos con casos prácticos queesta restricción se puede relajar y, en particular, los resultados son suficientementebuenos cuando la estructura se somete a una carga armónica en escalón.Bajo estas aproximaciones se desarrolla un algoritmo de optimización por pasosque permite actualizar un modelo SEA a un ensayo transitorio cuando la carga esde tipo armónica en escalón. Este algoritmo actualiza el modelo no solamente parauna banda de frecuencia en particular sino para diversas bandas de frecuencia demanera simultánea, con el objetivo de plantear un problema mejor condicionado.Por último, se define un índice de daño que mide el cambio en la matriz depérdidas cuando se produce un daño estructural en una localización concreta deun componente. Se simula numéricamente la respuesta de una estructura formadapor vigas donde producimos un daño en la sección de una de ellas; como se tratade un cálculo a altas frecuencias, la simulación se hace mediante el Método delos Elementos Espectrales para lo que ha sido necesario desarrollar dentro de laTesis un elemento espectral de tipo viga dañada en una sección determinada. Losresultados obtenidos permiten localizar el componente estructural en que se haproducido el daño y la sección en que éste se encuentra con determinado grado deconfianza.AbstractThe main subject under research in this Thesis is the study of the dynamic behaviourof a structure using models that describe the energy distribution betweenthe components of the structure and the applicability of these models to incipientdamage detection.Dynamic tests are a way to extract information about the properties of astructure. If we have a model of the structure, it can be updated in order toreproduce the same response as in experimental tests, within a certain degree ofaccuracy. After damage occurs, the response will change to some extent; modelupdating to the new test conditions can help to detect changes in the structuralmodel leading to the conclusión that damage has occurred.In this way incipient damage detection is possible if we are able to detect srnallvariations in the model parameters. It turns out that the high frequency regimeis highly relevant for incipient damage detection, because the response is verysensitive to small structural geometric details. The characteristic length associatedwith the response is proportional to the propagation speed of acoustic waves insidethe solid, but inversely proportional to the excitation frequency. At the same time,this fact makes the application of a Finite Element Method impractical due to thehigh computational cost.A widely used model in engineering when dealing with the high frequencyresponse is SEA (Statistical Energy Analysis). SEA applies the energy balance toeach structural component, relating their vibrational energy with the dissipatedpower and the transmitted power between the different components; their summust be equal to the input power to each of them. This relationship is linear andcharacterized by loss factors. The magnitudes considered in the response shouldbe averaged in geometry, frequency and time.SEA model updating to test data is equivalent to calculating the loss factorsthat provide a better fit to the experimental response. This is formulated as an illconditionedinverse problem. In this Thesis a new updating algorithm is proposedfor the study of the high frequency response regime in terms of parameters withphysical meaning such as the internal dissipation factors, modal densities andcharacteristic coupling stiffness. The loss factors are then calculated from theseparameters. The approach is developed entirely in this Thesis and is mainlybased on a high modal density asumption, that is to say, a large number of modescontributes to the response.General SEA theory establishes the validity of the model under the asumptionof very restrictive external excitations. These should behave as a local white noise.This kind of excitation is difficult to reproduce in an experimental environment.In this Thesis we show that in practical cases this assumption can be relaxed, inparticular, results are good enough when the structure is excited with a harmonicstep function.Under these assumptions an optimization algorithm is developed for SEAmodel updating to a transient test when external loads are harmonic step functions.This algorithm considers the response not only in a single frequency band,but also for several of them simultaneously.A damage index is defined that measures the change in the loss factor matrixwhen a damage has occurred at a certain location in the structure. The structuresconsidered in this study are built with damaged beam elements; as we are dealingwith the high frequency response, the numerical simulation is implemented witha Spectral Element Method. It has therefore been necessary to develop a spectralbeam damaged element as well. The reported results show that damage detectionis possible with this algorithm, moreover, damage location is also possible withina certain degree of accuracy.
Resumo:
En la industria minera no siempre se realiza un adecuado estudio previo de la relación entre la mineralización existente en el yacimiento y el tratamiento y concentración de la mena, lo que impide la optimización en los procesos y conduce hacia un mal procesamiento del mineral con consecuencias nefastas para el medio ambiente.