1000 resultados para Optimización


Relevância:

20.00% 20.00%

Publicador:

Resumo:

El consumo de combustible en un automóvil es una característica que se intenta mejorar continuamente debido a los precios del carburante y a la creciente conciencia medioambiental. Esta tesis doctoral plantea un algoritmo de optimización del consumo que tiene en cuenta las especificaciones técnicas del vehículo, el perfil de orografía de la carretera y el tráfico presente en ella. El algoritmo de optimización calcula el perfil de velocidad óptima que debe seguir el vehículo para completar un recorrido empleando un tiempo de viaje especificado. El cálculo del perfil de velocidad óptima considera los valores de pendiente de la carretera así como también las condiciones de tráfico vehicular de la franja horaria en que se realiza el recorrido. El algoritmo de optimización reacciona ante condiciones de tráfico cambiantes y adapta continuamente el perfil óptimo de velocidad para que el vehículo llegue al destino cumpliendo el horario de llegada establecido. La optimización de consumo es aplicada en vehículos convencionales de motor de combustión interna y en vehículos híbridos tipo serie. Los datos de consumo utilizados por el algoritmo de optimización se obtienen mediante la simulación de modelos cuasi-estáticos de los vehículos. La técnica de minimización empleada por el algoritmo es la Programación Dinámica. El algoritmo divide la optimización del consumo en dos partes claramente diferenciadas y aplica la Programación Dinámica sobre cada una de ellas. La primera parte corresponde a la optimización del consumo del vehículo en función de las condiciones de tráfico. Esta optimización calcula un perfil de velocidad promedio que evita, cuando es posible, las retenciones de tráfico. El tiempo de viaje perdido durante una retención de tráfico debe recuperarse a través de un aumento posterior de la velocidad promedio que incrementaría el consumo del vehículo. La segunda parte de la optimización es la encargada del cálculo de la velocidad óptima en función de la orografía y del tiempo de viaje disponible. Dado que el consumo de combustible del vehículo se incrementa cuando disminuye el tiempo disponible para finalizar un recorrido, esta optimización utiliza factores de ponderación para modular la influencia que tiene cada una de estas dos variables en el proceso de minimización. Aunque los factores de ponderación y la orografía de la carretera condicionan el nivel de ahorro de la optimización, los perfiles de velocidad óptima calculados logran ahorros de consumo respecto de un perfil de velocidad constante que obtiene el mismo tiempo de recorrido. Las simulaciones indican que el ahorro de combustible del vehículo convencional puede lograr hasta un 8.9% mientras que el ahorro de energía eléctrica del vehículo híbrido serie un 2.8%. El algoritmo fusiona la optimización en función de las condiciones del tráfico y la optimización en función de la orografía durante el cálculo en tiempo real del perfil óptimo de velocidad. La optimización conjunta se logra cuando el perfil de velocidad promedio resultante de la optimización en función de las condiciones de tráfico define los valores de los factores de ponderación de la optimización en función de la orografía. Aunque el nivel de ahorro de la optimización conjunta depende de las condiciones de tráfico, de la orografía, del tiempo de recorrido y de las características propias del vehículo, las simulaciones indican ahorros de consumo superiores al 6% en ambas clases de vehículo respecto a optimizaciones que no logran evitar retenciones de tráfico en la carretera. ABSTRACT Fuel consumption of cars is a feature that is continuously being improved due to the fuel price and an increasing environmental awareness. This doctoral dissertation describes an optimization algorithm to decrease the fuel consumption taking into account the technical specifications of the vehicle, the terrain profile of the road and the traffic conditions of the trip. The algorithm calculates the optimal speed profile that completes a trip having a specified travel time. This calculation considers the road slope and the expected traffic conditions during the trip. The optimization algorithm is also able to react to changing traffic conditions and tunes the optimal speed profile to reach the destination within the specified arrival time. The optimization is applied on a conventional vehicle and also on a Series Hybrid Electric vehicle (SHEV). The fuel consumption optimization algorithm uses data obtained from quasi-static simulations. The algorithm is based on Dynamic Programming and divides the fuel consumption optimization problem into two parts. The first part of the optimization process reduces the fuel consumption according to foreseeable traffic conditions. It calculates an average speed profile that tries to avoid, if possible, the traffic jams on the road. Traffic jams that delay drivers result in higher vehicle speed to make up for lost time. A higher speed of the vehicle within an already defined time scheme increases fuel consumption. The second part of the optimization process is in charge of calculating the optimal speed profile according to the road slope and the remaining travel time. The optimization tunes the fuel consumption and travel time relevancies by using two penalty factors. Although the optimization results depend on the road slope and the travel time, the optimal speed profile produces improvements of 8.9% on the fuel consumption of the conventional car and of 2.8% on the spent energy of the hybrid vehicle when compared with a constant speed profile. The two parts of the optimization process are combined during the Real-Time execution of the algorithm. The average speed profile calculated by the optimization according to the traffic conditions provides values for the two penalty factors utilized by the second part of the optimization process. Although the savings depend on the road slope, traffic conditions, vehicle features, and the remaining travel time, simulations show that this joint optimization process can improve the energy consumption of the two vehicles types by more than 6%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este trabajo se estudia la modelización y optimización de procesos industriales de separación mediante el empleo de mezclas de líquidos iónicos como disolventes. Los disolventes habitualmente empleados en procesos de absorción o extracción suelen ser componentes orgánicos muy volátiles y dañinos para la salud humana. Las innovadoras propiedades que presentan los líquidos iónicos, los convierten en alternativas adecuadas para solucionar estos problemas. La presión de vapor de estos compuestos es muy baja y apenas varía con la temperatura. Por tanto, estos compuestos apenas se evaporan incluso a temperaturas altas. Esto supone una gran ventaja en cuanto al empleo de estos compuestos como disolventes industriales ya que permite el reciclaje continuo del disolvente al final del proceso sin necesidad de introducir disolvente fresco debido a la evaporación del mismo. Además, al no evaporarse, estos compuestos no suponen un peligro para la salud humana por inhalación; al contrario que otros disolventes como el benceno. El único peligro para la salud que tienen estos compuestos es por tanto el de contacto directo o ingesta, aunque de hecho muchos Líquidos Iónicos son inocuos con lo cual no existe peligro para la salud ni siquiera a través de estas vías. Los procesos de separación estudiados en este trabajo, se rigen por la termodinámica de fases, concretamente el equilibrio líquido-vapor. Para la predicción de los equilibrios se ha optado por el empleo de modelos COSMO (COnductor-like Screening MOdel). Estos modelos tienen su origen en el empleo de la termodinámica de solvatación y en la mecánica cuántica. En el desarrollo de procesos y productos, químicos e ingenieros frecuentemente precisan de la realización de cálculos de predicción de equilibrios de fase. Previamente al desarrollo de los modelos COSMO, se usaban métodos de contribución de grupos como UNIFAC o modelos de coeficientes de actividad como NRTL.La desventaja de estos métodos, es que requieren parámetros de interacción binaria que únicamente pueden obtenerse mediante ajustes por regresión a partir de resultados experimentales. Debido a esto, estos métodos apenas tienen aplicabilidad para compuestos con grupos funcionales novedosos debido a que no se dispone de datos experimentales para llevar a cabo los ajustes por regresión correspondientes. Una alternativa a estos métodos, es el empleo de modelos de solvatación basados en la química cuántica para caracterizar las interacciones moleculares y tener en cuenta la no idealidad de la fase líquida. Los modelos COSMO, permiten la predicción de equilibrios sin la necesidad de ajustes por regresión a partir de resultados experimentales. Debido a la falta de resultados experimentales de equilibrios líquido-vapor de mezclas en las que se ven involucrados los líquidos iónicos, el empleo de modelos COSMO es una buena alternativa para la predicción de equilibrios de mezclas con este tipo de materiales. Los modelos COSMO emplean las distribuciones superficiales de carga polarizada (sigma profiles) de los compuestos involucrados en la mezcla estudiada para la predicción de los coeficientes de actividad de la misma, definiéndose el sigma profile de una molécula como la distribución de probabilidad de densidad de carga superficial de dicha molécula. Dos de estos modelos son COSMO-RS (Realistic Solvation) y COSMO-SAC (Segment Activity Coefficient). El modelo COSMO-RS fue la primera extensión de los modelos de solvatación basados en continuos dieléctricos a la termodinámica de fases líquidas mientras que el modelo COSMO-SAC es una variación de este modelo, tal y como se explicará posteriormente. Concretamente en este trabajo se ha empleado el modelo COSMO-SAC para el cálculo de los coeficientes de actividad de las mezclas estudiadas. Los sigma profiles de los líquidos iónicos se han obtenido mediante el empleo del software de química computacional Turbomole y el paquete químico-cuántico COSMOtherm. El software Turbomole permite optimizar la geometría de la molécula para hallar la configuración más estable mientras que el paquete COSMOtherm permite la obtención del perfil sigma del compuesto mediante el empleo de los datos proporcionados por Turbomole. Por otra parte, los sigma profiles del resto de componentes se han obtenido de la base de datos Virginia Tech-2005 Sigma Profile Database. Para la predicción del equilibrio a partir de los coeficientes de actividad se ha empleado la Ley de Raoult modificada. Se ha supuesto por tanto que la fracción de cada componente en el vapor es proporcional a la fracción del mismo componente en el líquido, dónde la constante de proporcionalidad es el coeficiente de actividad del componente en la mezcla multiplicado por la presión de vapor del componente y dividido por la presión del sistema. Las presiones de vapor de los componentes se han obtenido aplicando la Ley de Antoine. Esta ecuación describe la relación entre la temperatura y la presión de vapor y se deduce a partir de la ecuación de Clausius-Clapeyron. Todos estos datos se han empleado para la modelización de una separación flash usando el algoritmo de Rachford-Rice. El valor de este modelo reside en la deducción de una función que relaciona las constantes de equilibrio, composición total y fracción de vapor. Para llevar a cabo la implementación del modelado matemático descrito, se ha programado un código empleando el software MATLAB de análisis numérico. Para comprobar la fiabilidad del código programado, se compararon los resultados obtenidos en la predicción de equilibrios de mezclas mediante el código con los resultados obtenidos mediante el simulador ASPEN PLUS de procesos químicos. Debido a la falta de datos relativos a líquidos iónicos en la base de datos de ASPEN PLUS, se han introducido estos componentes como pseudocomponentes, de manera que se han introducido únicamente los datos necesarios de estos componentes para realizar las simulaciones. El modelo COSMO-SAC se encuentra implementado en ASPEN PLUS, de manera que introduciendo los sigma profiles, los volúmenes de la cavidad y las presiones de vapor de los líquidos iónicos, es posible predecir equilibrios líquido-vapor en los que se ven implicados este tipo de materiales. De esta manera pueden compararse los resultados obtenidos con ASPEN PLUS y como el código programado en MATLAB y comprobar la fiabilidad del mismo. El objetivo principal del presente Trabajo Fin de Máster es la optimización de mezclas multicomponente de líquidos iónicos para maximizar la eficiencia de procesos de separación y minimizar los costes de los mismos. La estructura de este problema es la de un problema de optimización no lineal con variables discretas y continuas, es decir, un problema de optimización MINLP (Mixed Integer Non-Linear Programming). Tal y como se verá posteriormente, el modelo matemático de este problema es no lineal. Por otra parte, las variables del mismo son tanto continuas como binarias. Las variables continuas se corresponden con las fracciones molares de los líquidos iónicos presentes en las mezclas y con el caudal de la mezcla de líquidos iónicos. Por otra parte, también se ha introducido un número de variables binarias igual al número de líquidos iónicos presentes en la mezcla. Cada una de estas variables multiplican a las fracciones molares de sus correspondientes líquidos iónicos, de manera que cuando dicha variable es igual a 1, el líquido se encuentra en la mezcla mientras que cuando dicha variable es igual a 0, el líquido iónico no se encuentra presente en dicha mezcla. El empleo de este tipo de variables obliga por tanto a emplear algoritmos para la resolución de problemas de optimización MINLP ya que si todas las variables fueran continuas, bastaría con el empleo de algoritmos para la resolución de problemas de optimización NLP (Non-Linear Programming). Se han probado por tanto diversos algoritmos presentes en el paquete OPTI Toolbox de MATLAB para comprobar cuál es el más adecuado para abordar este problema. Finalmente, una vez validado el código programado, se han optimizado diversas mezclas de líquidos iónicos para lograr la máxima recuperación de compuestos aromáticos en un proceso de absorción de mezclas orgánicas. También se ha usado este código para la minimización del coste correspondiente a la compra de los líquidos iónicos de la mezcla de disolventes empleada en la operación de absorción. En este caso ha sido necesaria la introducción de restricciones relativas a la recuperación de aromáticos en la fase líquida o a la pureza de la mezcla obtenida una vez separada la mezcla de líquidos iónicos. Se han modelizado los dos problemas descritos previamente (maximización de la recuperación de Benceno y minimización del coste de operación) empleando tanto únicamente variables continuas (correspondientes a las fracciones o cantidades molares de los líquidos iónicos) como variables continuas y binarias (correspondientes a cada uno de los líquidos iónicos implicados en las mezclas).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tesis presenta un estudio de la resistencia de interferencia en multicascos, término que engloba las variaciones en la resistencia al avance debidas a la interacción entre cascos. Su característica más notable es que puede ser tanto positiva como negativa, contribuyendo favorablemente en este último caso a la reducción de la resistencia total. Su análisis permanece como un área activa dentro de la comunidad hidrodinámica, si bien se ha detectado una significativa falta de información experimental sobre el flujo entre cascos. En primer lugar se incluye una caracterización de los fenómenos de interferencia, evaluando su impacto en las diferentes componentes de la resistencia al avance. Al igual que la resistencia total, su predicción requiere el uso de técnicas experimentales o numéricas al ser inviable su solución analítica. Ambos procedimientos han sido considerados en esta tesis. El análisis experimental de la resistencia de interferencia supone el núcleo central del trabajo realizado. Se han ensayado dos geometrías diferentes, un catamarán de servicio comercial PESBO junto con un catamarán compuesto por dos Serie 60 (S60) en paralelo. Los ensayos se han llevado a cabo en dos canales de experiencias, CEHINAV y CEHIPAR, midiéndose resistencia al avance, asiento y trimados dinámicos, y cortes de olas en la zona entre cascos. Mención especial a estos últimos, dado que a pesar de ser en la zona central donde ocurren los principales efectos de interferencia, no se encontró información previa publicada en la literatura. Su medición requirió la fabricación de un sistema de soporte especifico para las probetas de medición. Por otro lado, aunque el Serie 60 es una geometría bien conocida en la comunidad hidrodinámica, a conocimiento del autor su comportamiento como multicasco no había sido aun caracterizado experimentalmente. Los bastidores de unión se fabricaron de forma que permitieran variar la separación entre cascos. Además, los multicascos son en general embarcaciones de alta velocidad mostrando asientos y trimados dinámicos significativos. Para cuantificar su efecto en la resistencia total y de interferencia se construyo un sistema de fijación del modelo al carro que los restringiera, posibilitando comparar los resultados en esta condición con los del modelo libre. Como resultado, se han obtenido resultados experimentales de las dos geometrías estudiadas con múltiples separaciones, incluyendo un solo casco, y con modelo fijo y libre. Una de las principales utilidades de los resultados experimentales es servir como referencia para validar modelos de predicción. Como primera aplicación, los datos experimentales obtenidos con el catamarán S60 se han contrastado con las predicciones numéricas de Yeung et al. (2004). El análisis numérico de la resistencia de interferencia se completa con la realización de simulaciones numéricas utilizando dos códigos substancialmente diferentes: Tdynlin y CD--‐Adapco Star--‐CCM+. Los cortes de olas obtenidos en las simulaciones se comparan con los valores experimentales, mostrándose además los campos de presiones y velocidades calculados sobre el casco. La principal aportación de esta tesis es una extensa caracterización experimental de los fenómenos de interferencia, con la intención de servir de referencia para futuros estudios con multicascos. El análisis de los resultados permite comprender mejor el impacto que la interacción entre cascos, así como las variaciones dinámicas de las condiciones de navegación, tienen en las diferentes componentes de la resistencia. Por otro lado, permite apreciar la dependencia de la resistencia de interferencia con la velocidad y separación entre cascos, de cara a su utilización como parámetro de diseño. ABSTRACT This thesis presents a study of the interference resistance in multihulls, which comprises all the variations in the ship resistance due to the interaction between hulls. Its most remarkable characteristic is that it can be positive or negative, contributing in the second case to the reduction of the total ship resistance. Its study remains an active area in the hydrodynamic community, although there is a significant lack of published experimental data regarding the flow between hulls. First of all, the interference phenomena are characterized, evaluating the impact in the different components of the ship resistance. Similar to the total resistance, their prediction requires experimental or numerical techniques, as no analytic solutions are known. Both procedures have been considered in this thesis. The experimental analysis of the interference resistance is the core of the work done. Two different geometries have been tested, a commercial catamaran PESBO and a catamaran composed by two parallel Series 60 (S60). The tests have been carried out in two towing tanks, CEHINAV and CEHIPAR, measuring ship resistance, dynamic sinkage and trim, and wave cuts in--‐between the hulls. Special mention to the wave cuts, as no previous published information was found regarding this zone, even if it is where the main interference effects happen. Their measurement required building a support tripod for the probes, specifically designed for this experimental campaign. In addition, although the Series 60 is a well known hull for experimental and computational analyses, to the author’s knowledge its behavior as a multihull had not yet been experimentally described. The connection frames between the hulls were built so they allowed adjusting the hull spacing. Furthermore, multihulls are usually high--‐speed vessels, acquiring significant dynamic sinkage and trim. To quantify the effect of these dynamic variations of the interference resistance, a clamping system was developed to fixed the model and compare the results with the free model condition. Thus, experimental results have been obtained for various hull separations with the two geometries analyzed, including a single hull, and with free and fixed model. One of the main applications of experimental results is to serve as a reference to validate prediction models. As a first step, the obtained experimental data with the catamaran S60 have been compared with the numerical predictions of Yeung et al. (2004). The numerical analysis of the interference resistance is completed with the inclusion of numerical simulations using two codes substantially different: Tdynlin and CD--‐Adapco Star--‐CCM+. The wave cuts obtained from the simulations are compared with the experimental ones, showing also the pressure and velocity fields over the hulls. The main contribution of this thesis is an extensive experimental characterization of the interference phenomena, aiming to serve as reference for future studies about multihulls. The analysis of the results provides insights into the impact that the interaction between hulls, as well as the dynamic variations of the sailing conditions, have in the different components of the ship resistance. Moreover, it allows us to observe the dependence of the interference resistance on the velocity and hull spacing, useful towards its use as a design parameter.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este proyecto versa sobre un modelo de evaluación de calidad de imagen aplicado a la optimización del ancho de banda del multiplex de televisión, mediante la realización de ensayos con distintas configuraciones de cabecera. Dicho modelo se basa en las medidas PQR y DMOS de Tektronix, destinadas a medir la percepción de las diferencias entre una secuencia antes y después de sufrir un procesado digital. Dado que actualmente, el modo de trabajo de una cabecera de televisión digital, es la multiplexación estadística (consistente en la codificación de diferentes servicios de vídeo con anchos de banda variables en función de la complejidad de las señales), las medidas estarán enfocadas a sacar conclusiones acerca de la cantidad de canales, complejidad de contenidos, y organización de los mismos en el ancho de banda disponible para emitir, manteniendo niveles de calidad Broadcast. Las medidas serán aplicadas en el proyecto para comparar el rendimiento de dos modelos de cabecera. En primer lugar serán configuradas en régimen binario constante, comparando el rendimiento de los codificadores en el área de trabajo habitual. Posteriormente se configuraran en régimen binario variable probando múltiples configuraciones, con el objetivo dar con el modelo y configuración óptima para su posterior implementación. ABSTRACT. This project concerns a picture quality assessment model applied to television multiplex bandwidth optimization by conducting test with different headend settings. This model is based on the PQR and DMOS Tektronix measures, designed to measure the differences between a sequence before and after a digital processing. Given that nowadays the working way of television headend is by statistical multiplexing (based on coding the different video services with variable bitrate depending on the complexity of the signals) measures will be focused to reach conclusions about the number of channels, complexity of content, and the way to organize them through the available bandwidth, keeping broadcast quality ratios. The measures will be applied comparing the performance of two headend models. First of all encoders will be set on constant bitrate, comparing the performance through the working bandwidth. Later on, both models will be set on variable bitrate testing multiple configurations, in order to find the optimal model/configuration for later implementation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabajo fin de carrera consiste en la implementación de una metodología para la optimización de códigos científicos. Para ello, se estudiará primeramente las diferentes arquitecturas que han existido hasta la fecha para comprender la importancia del hardware en el rendimiento de un código. Posteriormente se profundizará en la metodología centrándose sobre todo en la optimización de códigos monoprocesador, dejando la paralelización para futuras líneas de trabajo. Este trabajo pretende ser una guía de referencia para aquellos científicos y administradores que quieran sacar un mayor rendimiento a los códigos científicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La principal motivación para la elección del tema de la tesis es nuestra realidad energética y ambiental. Y más específicamente, la necesidad urgente de dar una respuesta a esta realidad desde el sector de la edificación. Por lo que, el trabajo parte de la búsqueda de soluciones pasivas que ayuden a la reducción del consumo energético y de las emisiones de C02 de los edificios, tanto nuevos como existentes. El objeto de estudio son aplicaciones innovadoras, basadas en el uso de materiales reactivos, con un efecto térmico de memoria bidireccional. La energía es un elemento imprescindible para el desarrollo. Sin embargo, el modelo energético predominante, basado principalmente en la utilización de combustibles de origen fósil, es uno de los importantes responsables del deterioro ambiental que sufre el planeta. Además, sus reservas son limitadas y están concentradas en unas pocas regiones del mundo, lo que genera problemas de dependencia, competitividad y de seguridad de suministro. Dado el gran potencial de ahorro energético del sector de la edificación, la Unión Europea en sus directivas enfatiza la necesidad de mejorar la eficiencia energética de los edificios. Añadiendo, además, la obligatoriedad de desarrollar edificios “energía casi nula”, cuyo prerrequisito es tener un muy alto rendimiento energético. En España, los edificios son responsables del 31% del consumo de energía primaria. La mayor parte de este consumo se relaciona a la utilización de sistemas activos de acondicionamiento. Una medida efectiva para reducir la demanda es mejorar la envolvente. Sin embargo, hay que buscar estrategias adicionales para aumentar aún más la eficiencia de los edificios nuevos y existentes. Para los climas de España, el uso de la inercia térmica ha probado ser una estrategia válida. Sin embargo, su funcionamiento está vinculado al peso y al volumen de los materiales utilizados. Esto limita sus posibilidades en la rehabilitación energética y en los nuevos edificios basados en la construcción ligera. Una alternativa es el uso de aplicaciones de almacenamiento térmico por calor latente, utilizando materiales de cambio de fase (PCM). Los PCM son sustancias con un muy alto calor de fusión, capaces de almacenar una gran cantidad de energía térmica sin requerir aumentos significativos de peso o volumen. Estas características los hacen idóneos para reducir el consumo relacionado con el acondicionamiento térmico, en edificios nuevos y existentes. En la parte preliminar de la investigación, se encontró que para lograr un aprovechamiento óptimo de las aplicaciones con PCM es necesario tener un conocimiento profundo de su funcionamiento y de las variables del sistema. De ahí que el objetivo principal de la presente tesis sea: establecer las bases para la optimizatión integral de las aplicaciones con almacenamiento de energía térmica por calor latente, identificando y validando sus variables más relevantes. La investigación consta de tres partes. La primera, documental, sistematizando y jerarquizando la información científica publicada; la segunda, numérica, basada en un análisis paramétrico de una aplicación con PCM, utilizando simulaciones térmicas; y la tercera, experimental, monitorizando el funcionamiento térmico y energético de diferentes aplicaciones con PCM en módulos a escala real. Los resultados brindan un más profundo entendimiento del funcionamiento de las aplicaciones evaluadas. Han permitido identificar sus variables relevantes, cuantificar su influencia, y determinar condiciones óptimas para su utilización así como situaciones en las que sería muy difícil justificar su uso. En el proceso, se realizó la caracterización térmica y energética de aplicaciones con PCM, tanto opacas como traslúcidas. Además, se ha encontrado que las aplicaciones con PCM son capaces de aumentar la eficiencia energética inclusive en recintos con diseños optimizados, demostrando ser una de las estrategias adecuadas para lograr el muy alto desempeño energético requerido en los edificios energía nula. ABSTRACT The main motivation for choosing the theme of the thesis is our energy and environmental reality. And more specifically, the urgent need to respond to this reality from the building sector. This is why, the work start with the search of passive solutions that help reduce energy consumption and C02 emissions of buildings, in both new and existing ones. The object of study is innovative applications based on the use of responsive materials, with bidirectional thermal memory. Energy is an essential element for development. However, the predominant energy model, based primarily on the use of fossil fuels, is one of the major responsible for the environmental deterioration of the planet, the cause of most of the CO2 emissions. Furthermore, reserves of fossil fuels are limited and are concentrated in a few regions of the world, which creates issues related to dependency, competitiveness, and security of supply. Given the large potential for energy savings in the building sector, the European Union in its directives emphasizes the need to improve energy efficiency in buildings. Also, adding the obligation to develop "nearly zero energy" buildings, whose first prerequisite is to achieve a very high energy efficiency. In Spain, buildings are responsible for 31% of primary energy consumption and most of this consumption is related to the used of HVAC systems. One of the most effective measures to reduce demand is to improve the envelope. However, it is necessary to look for additional strategies to further increase the efficiency of new and existing buildings. For the predominant climates in Spain, use of the thermal inertia may be a valid strategy. Nevertheless, its operation is linked to weight and volume of the materials used. This limits their possibilities in the existing buildings energy retrofitting and in the new buildings based on lightweight construction. An alternative is the use of latent heat thermal energy storage applications (LHTES), using phase change materials (PCM). PCM are substances with a high heat of fusion, capable of storing a large amount of thermal energy without requiring significant increases in weight or volume. These features make them ideal for reducing energy consumption associated with thermal conditioning in both new and existing buildings. In the preliminary part of the investigation, it was found that to get optimum utilization of the PCM applications is needed to have a deep understanding of its operation and, in particular, how the system variables affect its performance. Hence, the main objective of this thesis is: to establish the basis for the integral optimization of applications with latent heat thermal energy storage, identifying and validating the most relevant variables. The research comprises of three parts. The first, documentary, systematizing and prioritizing published scientific information. The second, numeric, based on a parametric analysis of an application PCM using thermal simulations. The third, experimental, monitoring the thermal and energy performance of different applications with PCM on real scale test cells. The results provide a complete understanding of the functioning of the evaluated LHTES application. They have allowed to identify their relevant variables, quantify their influence and determine optimum conditions for use as well as situations where it would be very difficult to justify its use. In the process, it was carried out the power and thermal characterization of various opaque and translucent PCM applications. Furthermore, it has been found that applications with PCM can increase the energy efficiency, even in buildings with optimized designs; proving to be one of the appropriate measures to achieve the high energy performance required in zero energy buildings.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La operación cíclica de carga y descarga del almacenamiento en los sistemas CAES induce variaciones de presión y temperatura del aire almacenado. Se requiere pues de modelos que predigan la magnitud de dichas actuaciones para lograr una óptima configuración de la planta de potencia. El modelo se deduce directamente de las ecuaciones de conservación de la masa y de la energía para un sistema homogéneo e isótropo. Es resuelto analítica, para ciertos casos límite de interés, y numéricamente. Se somete al modelo a un análisis de sensibilidad para la determinación de los parámetros característicos más influyentes que afectan a las actuaciones de presión y al volumen de almacenamiento requerido. Se observó que el flujo de calor a través del medio circundante al almacenamiento presenta una influencia sobre éste poco despreciable que debe tenerse en cuenta. Se comparan los casos para sistemas adiabáticos e isotermos para calibrar dicha desviación. Además, se esboza un modelo aproximado que describa el comportamiento del almacenamiento con un almacén térmico (AT) acoplado que regule las variaciones de la temperatura del aire inyectado. Abstract Cyclic charge and discharge operation in CAES systems induce pressure and temperatura fluctuations in the storaged air. It is then required a model that properly describes the magnitud of such fluctutions in order to achieve an optimum power plant configuration. This model is directly deduced from the general conservation principles: conservation of mass and energy, applied into homogeneous and isotropic systems. It was solved analytically for certain specific limiting cases of interest as well as numerically. The model was subjected to a sensibility analysis in order to determine the intrinsic parameters that affect the pressure fluctuations as well as the required storage volume the most. Furthermore it was observed that the heat flux through the sourrounding media of the storage has a non-negligible effect that must be taken into account. Adiabatic and isothermal cases are then compared to each other to determine such a deviation. What is more, it is given a general outline about the model which describes the behaviour of the storage coupled with a thermal storage system(TES) that regulates the inyected air temperature.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Material docente de la asignatura «Simulación y Optimización de procesos químicos». Parte de Optimización OPTIMIZACIÓN TEMA 6. Conceptos Básicos 6.1 Introducción. Desarrollo histórico de la optimización de procesos. 6.2 Funciones y regiones cóncavas y convexas. 6.3 Optimización sin restricciones. 6.4 Optimización con restricciones de igualdad y desigualdad. Condiciones de optimalidad de Karush Khun Tucker 6.5 Interpretación de los Multiplicadores de Lagrange. TEMA 7. Programación lineal 7.1 Introducción. Planteamiento del problema en forma canónica y forma estándar. 7.2 Teoremas de la programación lineal 7.3 Resolución gráfica 7.4 Resolución en forma de tabla. El método simplex. 7.5 Variables artificiales. Método de la Gran M y método de las dos fases. 7.6 Conceptos básicos de dualidad. TEMA 8. Programación no lineal 8.1 Repaso de métodos numéricos de optimización sin restricciones 8.2 Optimización con restricciones. Fundamento de los métodos de programación cuadrática sucesiva y de gradiente reducido. TEMA 9. Introducción a la programación lineal y no lineal con variables discretas. 9.1 Conceptos básicos para la resolución de problemas lineales con variables discretas.(MILP, mixed integer linear programming) 9.2 Introducción a la programación no lineal con variables continuas y discretas (MINLP mixed integer non linear programming) 9.3 Modelado de problemas con variables binarias: 9.3.1 Conceptos básicos de álgebra de Boole 9.3.2 Transformación de expresiones lógicas a expresiones algebraicas 9.3.3 Modelado con variables discretas y continuas. Formulación de envolvente convexa y de la gran M.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Presentaciones en power point de los temas correspondientes a la asignatura «Simulación y Optimización de procesos químicos».

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La reciente implantación de los grados en la Universidad de Alicante (UA) ha supuesto un cambio sustancial en lo que se refiere a la estructuración en el tiempo y los contenidos de las asignaturas implicadas. Es un hecho innegable que se ha producido una reducción de las horas que el alumno pasa en el laboratorio. En particular, en el grado de Óptica y Optometría, asignaturas como la Óptica Geométrica ha pasado de tener 45 horas de laboratorio a sólo 12 horas. Frente a este hecho los profesores involucrados, en un intento de optimizar el tiempo utilizado en el laboratorio, han optado por potenciar y primar lo referente a la realización de los montajes experimentales propiamente dichos, la toma de datos y el análisis del resultado final, sobre los diferentes cálculos matemáticos implicados en el proceso, en ocasiones bastante engorrosos. Para compensarlo se ha diseñado una herramienta didáctica que agrupa applets de los diferentes cálculos a realizar. Se pretende que el alumno, posteriormente en casa, incorpore los datos numéricos obtenidos y obtenga los resultados pertinentes favoreciendo su posterior discusión en las tutorías virtuales. Se combina así la docencia presencial y virtual permitiendo optimizar el tiempo empleado en el laboratorio y la autocorrección por parte del alumno.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El documento de esta tesis por compendio de publicaciones se divide en dos partes: la síntesis donde se resume la fundamentación, resultados y conclusiones de esta tesis, y las propias publicaciones en su formato original, que se incluyen como apéndices. Dado que existen acuerdo de confidencialidad (véase "Derechos" más adelante) que impiden su publicación en formato electrónico de forma pública y abierta (como es el repositorio de la UA), y acorde con lo que se dictamina en el punto 6 del artículo 14 del RD 99/2011, de 28 de enero, no se incluyen estos apéndices en el documento electrónico que se presenta en cedé, pero se incluyen las referencias completas y sí se incluyen integramente en el ejemplar encuadernado. Si el CEDIP y el RUA así lo decidiesen más adelante, podría modificarse este documento electrónico para incluir los enlaces a los artículos originales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La dirección ha desarrollado en los últimos anos un proyecto para la generación de una base de datos con los datos pluviométricos de la provincia, desde 1940 a la actualidad. Para su consulta se diseno una interface tipo web . Dicha base se encuentra cargada en una computadora tipo PC, pero su volumen es tal que el procesamiento requerido para obtener respuestas de consultas particulares o bien de generación de estadísticas, es inaceptable por lo lento. En virtud de esto se hace necesario el traslado de la base a un entorno de mayor capacidad de procesamiento, que en la actualidad, por una cuestion económica, es conveniente hacer sobre un cluster de computadoras multicore, con capacidad de almacenamiento y procesamiento distribuido. Por lo que el objeto de la transferencia es el conocimiento y procedimiento necesario para trasladar a dicho entorno, el estado actual de la base de datos, y su posterior mantenimiento, puesta a punto y optimización del sistema necesario.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente proyecto se enmarca en el contexto del desarrollo de vectores de energía, particularmente aquellos destinados a almacenar la energía captada desde fuentes alternativas y sustentables, como son las energías eólica y solar, entre otras. Uno de los vectores de energía actualmente más importante lo constituyen las baterías de ión-Litio, las que por sus características de pequeño tamaño, alta densidad de energía y potencia, y larga ciclabilidad, son ampliamente utilizadas para alimentar todos los dispositivos electrónicos de pequeño tamaño (teléfonos móviles, notebooks, etc.). Este tipo de batería es, hasta el momento, la única que puede satisfacer la demanda de voltaje e intensidad de corriente, junto con bajo peso y volumen, del motor de un vehículo eléctrico, por lo que se espera un gran crecimiento de su demanda cuando comience la consolidación del mercado de este tipo de vehículos. Sin embargo, esto sólo será posible con importantes mejoras en los materiales activos que componen ambos electrodos, ánodo y cátodo, y/o con el desarrollo de nuevos materiales activos, que incrementen aun más la densidad de energía almacenada en dichas batería. En la Universidad Nacional de Córdoba hemos constituido un grupo de trabajo abocado a la investigación y desarrollo de materiales activos para ser utilizados como electrodos en este tipo de baterías, un área de investigación que concentra cada vez más la atención de científicos y tecnólogos en todo el mundo, particularmente, de países líderes del sector de electrónica y automotriz. Entre los objetivos del proyecto se pueden mencionar la intención de desarrollar capacidades científicas y técnicas en aspectos de investigación básica y tecnológica de sistemas electroquímicos de almacenamiento de energía, mediante la instalación de un laboratorio de síntesis, caracterización, investigación y ensayo de materiales activos para electrodos de baterías de ión-Litio. Específicamente, se llevará adelante la preparación y estudio electroquímico de materiales de ánodo en base a diferentes tipos de carbonos, de diferentes compuestos de titanatos de metales alcalinos, y de materiales de cátodo en base a diferentes tipos de compuestos de espinelas de fosfato de M-Litio, donde M puede ser Fe, Mn, Ni, Co o mezclas, y el ensayo posterior de celdas prototipo. La metodología de trabajo a aplicar es la del estado-del-arte a nivel mundial, que consiste en las etapas de síntesis, caracterización y estudio de funcionamiento de diferentes tipos de materiales activos para electrodos (ánodo o cátodo) de baterías de ión-Litio. Los procesos de síntesis comprenderán métodos por vía seca desde precursores adecuados (tratamientos térmicos) o por vía húmeda (hidrotermal, sol-gel). La caracterización física, química, estructural y morfológica abarcará la aplicación de técnicas de análisis de área específica y porosidad por método BET, microscopías SEM y TEM, análisis químico EDX, difracción de rayos X, espectroscopías XPS y Raman, y RMN, entre otras. Los estudios electroquímicos se llevarán a cabo utilizando técnicas potenciodinámicas, de multipulsos de potencial, galvanostáticas a diferentes densidades de corriente, espectroscopía de impedancia electroquímica y de ciclados de carga/descarga. Con la ejecución del proyecto se espera obtener materiales activos para electrodos de baterías de ión-Litio que cumplan con características tales como: alta capacidad de carga, adecuada densidad de potencia, alto grado de ciclabilidad, alto grado de seguridad, alta resistencia al envejecimiento, tanto estático como dinámico, y bajo costo del material. Teniendo en cuenta la inminente crisis en la producción mundial de combustibles fósiles líquidos, la necesidad de mudar la tecnología de vehículos actuales a la de vehículos eléctricos, y la disponibilidad nacional de recursos minerales de litio, la importancia del proyecto es directa para avanzar hacia un desarrollo tecnológico regional propio e independiente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Stenotrophomonas maltophilia es un patógeno nosocomial, emergente, cuya incidencia en procesos severos esta aumentado de manera análoga al incremento de las poblaciones de pacientes con factores predisponentes. S. maltophilia es un microorganismo ubicuo y adaptado a múltiples ambientes, lo que explica la elevada diversidad genética y el resistoma característico de esta especie que le confiere resistencia a la mayoría de clases de antimicrobianos. Se sugiere que el paciente porta al microorganismo en el momento del ingreso y que la combinación entre la presión antibiótica, especialmente aminoglucósidos y carbapenemas, y el profundo y prolongado estado de inmunosupresión favorecen el desarrollo de la infección. El tratamiento de las infecciones severas, bacteriemias y neumonías, es empírico, y relacionado con una elevada mortalidad, 36-67%, que es atribuida a que la mayoría de pacientes recibe una terapia inapropiada. La carencia de antimicrobianos con suficiente actividad, la rápida aparición de resistencias en los pacientes bajo tratamiento y la ausencia de ensayos clínicos que discriminen tratamientos efectivos, condicionan el complicado manejo de los pacientes infectados por S. maltophilia . En la actualidad solo seis antimicrobianos, cotrimoxazol, ticarcilina-ácido clavulánico, de elección y ceftazidima, levofloxacino, minociclina y cloranfenicol, son considerados tratamientos apropiados para este microorganismo por el CLSI o el EUCAST. La probabilidad de supervivencia aumenta con la rápida administración de agentes sensibles in vitro , pero la mortalidad continúa siendo extraordinariamente alta, 14 y el 45%, lo que demuestra la urgente necesidad de alternativas terapéuticas y de la revaloración de los actuales puntos de corte microbiológicos empleados en el pronóstico de eficacia clínica para esta especie...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tuberculosis es una zoonosis bacteriana que representa un importante problema sanitario en el hombre y los animales (domésticos y silvestres), siendo en estos Mycobacterium bovis y M. caprae las especies de mayor relevancia. La enfermedad tiene un gran impacto económico ya que produce un descenso de la producción de los animales y restricciones en su movimiento, además de los costes derivados de su erradicación en el ganado bovino. Actualmente, la tuberculosis en otras especies domésticas como la cabra, comienza a tener relevancia en aquellos países con elevado censo de caprino. Por otra parte, los camélidos de Sudamérica (alpacas y llamas principalmente), se emplean cada vez con mayor frecuencia fuera de su hábitat natural como mascotas y para la producción de fibra. Además, son altamente susceptibles a la enfermedad, habiéndose notificado varios brotes de tuberculosis en estos animales en Europa. Los programas de erradicación se basan en una estrategia de “diagnóstico y sacrificio”, de tal modo que los animales positivos a las pruebas diagnósticas se eliminan de la explotación. Las técnicas diagnósticas oficiales en la Unión Europea son la prueba de la intradermotuberculinización (IDTB) y el test de detección de interferón-gamma (IFN-γ), que detectan la respuesta inmune de base celular. Existen, además, pruebas para la detección de anticuerpos, algunas disponibles comercialmente y otras en fase experimental. Con el objetivo de optimizar el diagnóstico de la tuberculosis en rumiantes (ganado bovino y caprino) y en camélidos (llamas y alpacas), se han realizado siete estudios experimentales, distribuidos en cuatro capítulos, diseñados para cumplir los cuatro objetivos de la presente tesis doctoral...