10 resultados para Agentes clareadores - Citotoxicidade
em Universidad Politécnica de Madrid
Resumo:
La creciente demanda de sistemas informáticos abiertos y con gran interacción entre cada una de sus partes, incluyendo también usuarios humanos, ha hecho aumentar el interés y el uso de sistemas donde múltiples agentes interactúan para alcanzar sus metas. Las interacciones pueden tener el objetivo de mejorar la eficiencia de los agentes aumentando el rendimiento del sistema, pero también pueden estar pensadas para posibilitar que nuevas metas —que un agente no sería capaz de alcanzar de forma individual— puedan ser conseguidas cuando varios de ellos trabajan en conjunto. En paralelo a este crecimiento, con el avance en el campo de investigación de los agentes software, y también por los recientes descubrimientos acerca de la importancia de determinados aspectos cognitivos en el proceso de toma de decisión y resolución de problemas, la idea de la inclusión de influencias cognitivas en el modelo de razonamiento de estos agentes se presenta como una alternativa muy atractiva para mejorar su comportamiento en general, y especialmente el social, en comparación con sistemas que no consideran estos aspectos en el diseño de soluciones para entornos complejos. Pensando en proveer una solución que pueda contribuir, de alguna manera, al avance en estas dos áreas, el presente trabajo presenta una arquitectura cognitiva para modelar agentes con habilidades sociales partiendo de una arquitectura base, que proporciona los comportamientos cognitivos reactivos y deliberativos de los agentes. La arquitectura ampliada debe aportar agentes cognitivos sociales capaces de afrontar mejor el aumento de la complejidad de los sistemas y presentar comportamientos más coherentes, explicables y más creíbles durante sus interacciones con los demás. Dos teorías sociológicas proponen los componentes y estructuras que han inspirado el desarrollo de esta arquitectura social, aportando mecanismos que permiten obtener una coordinación descentralizada en un entorno social dinámico y rico en interacciones: la Teoría de Roles y la Teoría de la Actividad. Los resultados alcanzados con el desarrollo de esta arquitectura dejan traslucir su capacidad para modelar agentes sociales cognitivos capaces de interactuar de forma personalizada entre ellos para la satisfacción de metas. Los nuevos componentes y mecanismos de la arquitectura han permitido conjugar y enriquecer los comportamientos reactivo-deliberativos de la arquitectura base con comportamientos sociales elaborados.
Resumo:
Desde los años 60, crece en Europa y Estados Unidos la preocupación y la necesidad de mejorar los procesos de gerencia de los proyectos de construcción al volverse estos más complejos. Esto ha llevado a la continua aparición de nuevos profesionales desde la fecha citada hasta nuestros días. De ahí la complejidad de conocer las cualidades de cada uno de ellos, así como las funciones a realizar o la formación que deben tener para poder desarrollar el puesto de trabajo según el papel que desempeñan para cada actividad. Muchos agentes son los que pueden intervenir en la edificación, muchas son las funciones que llevan a cabo estos agentes, muchas son las habilidades que se necesitan para realizar estas misiones, y una buena gestión de la edificación es la que hay que desarrollar para lograr el gran éxito. El presente trabajo fin de máster, dirigido a arquitectos, arquitectos técnicos, ingenieros, abogados, economistas y todos los profesionales del sector inmobiliario y de la construcción, trata de resolver todas aquellas dudas sobre los diferentes sujetos que estarán presentes desde la definición del proyecto en la fase inicial hasta el final de la obra, pasando por las fases de pre-construcción, construcción y post-construcción. (ENGLISH VERSION) Since the 1960s, most construction projects have become more and more complex, and new concerns and necessities related to the management of a project have been on the rise in Europe and in the United States. Thence, the need for more specialized professionals in the field has become a common fact, as well as the inclusion of new curricular subjects in most building engineering studies. There are different agents that play a relevant role in a building project; some of them are expected to perform a highly specialized set of functions that require specific management skills for the work to be successful. This research work—aimed mainly at engineers, quantity surveyors, lawyers, economists, real estate and construction professionals—shows the major implications of the building construction process including both pre-tender/construction and post-tender/construction stages as far as the main expert agents are involved.
Resumo:
Las aproximaciones basadas en agentes se han convertido en una opción muy atractiva para muchos sistemas debido a las especiales características de este paradigma. Muchas de estas aplicaciones hacen uso de los agentes para estudiar o simular el comportamiento de los seres humanos en diversos contextos lo cual hace necesario la introducción de componentes determinantes en las personas como los rasgos de personalidad, las emociones, las actitudes, etc., que en su conjunto se ha denominado modelo personal. El objetivo es conseguir que el comportamiento de los agentes sea cada vez más creíble y supere las barreras generadas por considerar sólo los aspectos racionales. Así mismo, a medida que se produce la interacción entre personas, cada una de ellas va aprendiendo el modo de ser de las demás y va actualizando sus percepciones acerca de ellos, que serán de vital importancia para la toma de ciertas decisiones en las que necesite saber cómo es el otro. Es por ello que en este trabajo se presenta un modelo que permita a los agentes “conocer” el modelo personal de otros agentes basándose en la interacción entre ellos. Este modelo estará compuesto por un algoritmo genético que permita guiar ese aprendizaje. Finalmente se aplicará el modelo a un caso de estudio basado en un juego para comprobar el funcionamiento del mismo.
Resumo:
Esta tesis ha estudiado los morteros celulares, centrándose en la experimentación con pastas de cemento aireadas (PCA) con polvo de aluminio como agente expansor. El objetivo es el desarrollo de un material cementicio con una baja conductividad térmica que sirva como aislamiento térmico. La naturaleza inorgánica del material lo hace incombustible, en contraste con las espumas poliméricas existentes en el mercado, cuya aplicación en cámaras ventiladas ha sido prohibida por normativas de construcción tanto a nivel nacional como internacional. Las posibles aplicaciones son con proyección neumática o en paneles prefabricados. Se han ensayado dos series de pastas de cemento con polvo de aluminio: - Serie WPC/CAC/CH. Mezcla de referencia con cemento blanco (WPC), cemento de aluminato cálcico (CAC) y cal aérea (CH) en proporción 5:1:4. - Serie OPC/CH. Mezcla de referencia con cemento portland con cenizas volantes (OPC) y cal aérea (CH) en proporción OPC/CH de 4:1 A las mezclas de referencia se le han añadido adiciones de metacaolín (MK) (10 y 20%) o sepiolita (SP) (1 y 2%) para observar el efecto que producen tanto en el mortero fresco como en el mortero endurecido. Se ha estudiado la reología de las pastas en estado fresco, analizando el proceso de expansión de las pastas, registrando los valores de tensión de fluencia, aire ocluido y temperatura durante la expansión. Con los valores obtenidos se ha discutido la influencia de las adiciones utilizadas en la cinética de corrosión del polvo de aluminio que genera la expansión, concluyendo que las adiciones puzolánicas (CV y MK) y la SP reducen mucho el periodo de inducción, lo que provoca poros más grandes y mayor cantidad de aire ocluido. Asimismo se ha analizado la relación entre la tensión de fluencia y el contenido de aire ocluido, deduciendo que a mayor tensión de fluencia en el momento de iniciarse la expansión, menor tamaño de poros y contenido de aire ocluido. Finalmente, se han obtenido las densidades y capacidades de retención de agua de los morteros frescos. Para caracterizar la red porosa de las pastas aireadas endurecidas, se obtuvieron tanto las densidades reales, netas, aparentes y relativas como las porosidades abiertas, cerradas y totales con ensayos hídricos. Finalmente se obtuvieron imágenes de los poros con tomografía axial computerizada para obtener las porosimetrías de las muestras. La caracterización de la red porosa ha servido para terminar de analizar lo observado en la evolución de la expansión del mortero fresco. Se ha analizado la influencia de la red porosa en la conductividad térmica, obtenida con caja caliente, comparándola con la existente en la literatura existente tanto de morteros celulares como de espumas poliméricas. Se concluye que los valores de conductividad térmica conseguida están en el mínimo posible para un material celular de base cementicia. La microestructura se ha estudiado con microscopía electrónica de barrido, difracción de rayos X y ensayos térmicos TG/ATD, observando que los productos de hidratación encontrados coinciden con los que se producen en morteros sin airear. Las imágenes SEM y los resultados de ultrasonidos han servido para analizar la presencia de microfisuras de retracción en las pastas aireadas, observando que en las muestras con adiciones de MK y SP, se reduce la presencia de microfisuras. ABSTRACT This thesis has studied cellular mortars, focusing in testing aerated cement pastes with aluminum powder as expansive agent. The purpose is the development of a cementitious material with low thermal conductivity that can be used as thermal isolation. Inorganic nature of this material makes it non-combustible, in contrast with polymeric foams in market, whose application in ventilated double skin façade systems has been banned by building standards, both domestically and internationally. Possible uses for this material are pneumatically sprayed applications and precast panels. Two series of batches with aluminum powder have been tested: - WPC/CAC/CH series. Reference paste with white portland cement (WPC), calcium aluminate cement (CAC) and lime (CH) with 5:1:4 ratio. - OPC/CH series. Reference paste with portland cement with fly ash (OPC) and lime (CH) with 4:1 ratio. Metakaolin (MK) (10 and 20%) or sepiolite (SP) (1 and 2%) additions were used in reference pastes to characterize the effect in fresh and hardened mortar. Rheology in fresh pastes was studied, expansion process of pastes was analyzed, recording yield stress, entrained air and temperature values during expansion. Recorded values were used to discuss influence of additions on reaction kinetics of aluminum powder corrosion, that produces expansion.. Conclusion is that pozzolanic additions (FA and MK) and SP greatly reduce induction period, producing bigger pores and more entrained air. Relation between yield stress and entrained air has been also analyzed, observing that the bigger yield stress at beginning of expansion, the smaller pores size and the lower entrained air values. Finally density and water retention of fresh mortars were obtained. Pore network in hardened aerated cement pastes was characterized by imbibition methods providing true, bulk and relative density, and providing also open, closed and total porosity. Finally, pore system imaging were obtained with computerized axial tomography to study porosimetry of specimens. Pore network characterization was useful to complete facts analysis observed in expansion of fresh mortars. Influence of pore network in thermal conductivity, checked in hot box, was analyzed comparing with those existing values in cellular mortar and polymeric foams researches. It was concluded that thermal conductivity values achieved are close to minimum possible in a cementitious cellular material. Microstructure was studied with Scanning Electron Microscopy, X-Ray Diffractometry and TG-DTA analysis, observing that hydration phases found, are those produced in non aerated mortar. SEM imaging and ultrasound results were useful to analyze shrinkage microcracks in aerated cement pastes, concluding that microcrack presence in specimens with MK and SP additions were reduced.
Resumo:
La unión de distintos sistemas software constituye un elemento principal de las nuevas Tecnologías de la Información y la Comunicación. La integración de entornos virtuales tridimensionales con agentes software inteligentes es el objetivo que persigue este trabajo de investigación. Para llevar a cabo esta integración se parte de la creación de un agente virtual, un personaje que es controlado por una mente desarrollada siguiendo un enfoque basado en agentes software. Se busca así dotar al sistema de cierto nivel de inteligencia, tomando como referencia el funcionamiento del cerebro humano. Lo que se consigue es que el agente capte los estímulos del entorno, los procese y genere comportamientos, tanto reactivos como deliberativos, que son ejecutados por el personaje. Los resultados obtenidos resaltan el dinamismo del sistema, a la vez que animan a seguir investigando en este campo lleno de aplicaciones directas y reales sobre el mundo. En conclusión, esta investigación busca y consigue un nuevo paso en el progreso de las nuevas tecnologías mediante una integración real de distintos sistemas software. ---ABSTRACT---The union of different software systems is a major element of Information and Communications Technology. The aim of this research is the integration of 3D virtual environments and intelligent software agents. This integration is based on the development of a virtual agent, a character that is controlled by a mind developed following a software agent approach. It is sought to provide the system with some intelligence level, taking the human brain function as a reference point. The consequence is that the agent captures environmental stimuli, processes them and creates reactive and deliberative behaviours that can be executed by the avatar. The findings emphasize the dynamism of the system as well as they encourage to research more in this field that has a lot of direct and real-life applications on the world. In conclusion, this research seeks and takes a new step in the progress of new technologies through a real integration of different software systems.
Resumo:
En los últimos años, la estructura económica de las regiones rurales europeas tiende a asemejarse a la de las regiones urbanas. Las pequeñas y medianas empresas del medio rural comienzan a participar de la productividad de la región. En este reto de reducir la brecha productiva entre empresas, la innovación toma un papel relevante, al asumirse que buena parte del desarrollo regional está basado en el desarrollo tecnológico, a través de respuestas de los agentes locales a los problemas de cada territorio, sobre todo en áreas rurales. Para ello, además del necesario compromiso empresarial con dicho propósito, también es determinante el apoyo de la administración regional, como complemento a las políticas de innovación nacionales y de la UE. Consciente del respaldo necesario, la Consejería de Economía e Innovación Tecnológica de la Comunidad de Madrid implantó, dentro del Plan de Choque 2002-2003, los Centros de Difusión Tecnológica (CDTs) para contribuir a la difusión de la cultura de la Innovación Tecnológica y de la Sociedad de la Información y el Conocimiento en la región madrileña. Mediante un análisis comparativo entre las Pymes de áreas rurales y de zonas urbanas e industriales, se ha determinado que aún existen diferencias en materia de innovación entre ambas y queda bastante trabajo por hacer a la hora de equilibrar el componente innovador entre las empresas de los distintos territorios. En este sentido, los agentes regionales de innovación, y en particular, los CDTs, se muestran como una herramienta potente, dinámica y participativa, en la penetración de la cultura de la innovación dentro del tejido empresarial de territorios rurales y urbanos que, si bien aún no alcanza el grado de madurez necesario, es más determinante en el desarrollo de regiones rurales, que en zonas industriales, en las que la difusión de la innovación requiere menor grado de apoyo.
Resumo:
La creciente complejidad, heterogeneidad y dinamismo inherente a las redes de telecomunicaciones, los sistemas distribuidos y los servicios avanzados de información y comunicación emergentes, así como el incremento de su criticidad e importancia estratégica, requieren la adopción de tecnologías cada vez más sofisticadas para su gestión, su coordinación y su integración por parte de los operadores de red, los proveedores de servicio y las empresas, como usuarios finales de los mismos, con el fin de garantizar niveles adecuados de funcionalidad, rendimiento y fiabilidad. Las estrategias de gestión adoptadas tradicionalmente adolecen de seguir modelos excesivamente estáticos y centralizados, con un elevado componente de supervisión y difícilmente escalables. La acuciante necesidad por flexibilizar esta gestión y hacerla a la vez más escalable y robusta, ha provocado en los últimos años un considerable interés por desarrollar nuevos paradigmas basados en modelos jerárquicos y distribuidos, como evolución natural de los primeros modelos jerárquicos débilmente distribuidos que sucedieron al paradigma centralizado. Se crean así nuevos modelos como son los basados en Gestión por Delegación, en el paradigma de código móvil, en las tecnologías de objetos distribuidos y en los servicios web. Estas alternativas se han mostrado enormemente robustas, flexibles y escalables frente a las estrategias tradicionales de gestión, pero continúan sin resolver aún muchos problemas. Las líneas actuales de investigación parten del hecho de que muchos problemas de robustez, escalabilidad y flexibilidad continúan sin ser resueltos por el paradigma jerárquico-distribuido, y abogan por la migración hacia un paradigma cooperativo fuertemente distribuido. Estas líneas tienen su germen en la Inteligencia Artificial Distribuida (DAI) y, más concretamente, en el paradigma de agentes autónomos y en los Sistemas Multi-agente (MAS). Todas ellas se perfilan en torno a un conjunto de objetivos que pueden resumirse en alcanzar un mayor grado de autonomía en la funcionalidad de la gestión y una mayor capacidad de autoconfiguración que resuelva los problemas de escalabilidad y la necesidad de supervisión presentes en los sistemas actuales, evolucionar hacia técnicas de control fuertemente distribuido y cooperativo guiado por la meta y dotar de una mayor riqueza semántica a los modelos de información. Cada vez más investigadores están empezando a utilizar agentes para la gestión de redes y sistemas distribuidos. Sin embargo, los límites establecidos en sus trabajos entre agentes móviles (que siguen el paradigma de código móvil) y agentes autónomos (que realmente siguen el paradigma cooperativo) resultan difusos. Muchos de estos trabajos se centran en la utilización de agentes móviles, lo cual, al igual que ocurría con las técnicas de código móvil comentadas anteriormente, les permite dotar de un mayor componente dinámico al concepto tradicional de Gestión por Delegación. Con ello se consigue flexibilizar la gestión, distribuir la lógica de gestión cerca de los datos y distribuir el control. Sin embargo se permanece en el paradigma jerárquico distribuido. Si bien continúa sin definirse aún una arquitectura de gestión fiel al paradigma cooperativo fuertemente distribuido, estas líneas de investigación han puesto de manifiesto serios problemas de adecuación en los modelos de información, comunicación y organizativo de las arquitecturas de gestión existentes. En este contexto, la tesis presenta un modelo de arquitectura para gestión holónica de sistemas y servicios distribuidos mediante sociedades de agentes autónomos, cuyos objetivos fundamentales son el incremento del grado de automatización asociado a las tareas de gestión, el aumento de la escalabilidad de las soluciones de gestión, soporte para delegación tanto por dominios como por macro-tareas, y un alto grado de interoperabilidad en entornos abiertos. A partir de estos objetivos se ha desarrollado un modelo de información formal de tipo semántico, basado en lógica descriptiva que permite un mayor grado de automatización en la gestión en base a la utilización de agentes autónomos racionales, capaces de razonar, inferir e integrar de forma dinámica conocimiento y servicios conceptualizados mediante el modelo CIM y formalizados a nivel semántico mediante lógica descriptiva. El modelo de información incluye además un “mapping” a nivel de meta-modelo de CIM al lenguaje de especificación de ontologías OWL, que supone un significativo avance en el área de la representación y el intercambio basado en XML de modelos y meta-información. A nivel de interacción, el modelo aporta un lenguaje de especificación formal de conversaciones entre agentes basado en la teoría de actos ilocucionales y aporta una semántica operacional para dicho lenguaje que facilita la labor de verificación de propiedades formales asociadas al protocolo de interacción. Se ha desarrollado también un modelo de organización holónico y orientado a roles cuyas principales características están alineadas con las demandadas por los servicios distribuidos emergentes e incluyen la ausencia de control central, capacidades de reestructuración dinámica, capacidades de cooperación, y facilidades de adaptación a diferentes culturas organizativas. El modelo incluye un submodelo normativo adecuado al carácter autónomo de los holones de gestión y basado en las lógicas modales deontológica y de acción.---ABSTRACT---The growing complexity, heterogeneity and dynamism inherent in telecommunications networks, distributed systems and the emerging advanced information and communication services, as well as their increased criticality and strategic importance, calls for the adoption of increasingly more sophisticated technologies for their management, coordination and integration by network operators, service providers and end-user companies to assure adequate levels of functionality, performance and reliability. The management strategies adopted traditionally follow models that are too static and centralised, have a high supervision component and are difficult to scale. The pressing need to flexibilise management and, at the same time, make it more scalable and robust recently led to a lot of interest in developing new paradigms based on hierarchical and distributed models, as a natural evolution from the first weakly distributed hierarchical models that succeeded the centralised paradigm. Thus new models based on management by delegation, the mobile code paradigm, distributed objects and web services came into being. These alternatives have turned out to be enormously robust, flexible and scalable as compared with the traditional management strategies. However, many problems still remain to be solved. Current research lines assume that the distributed hierarchical paradigm has as yet failed to solve many of the problems related to robustness, scalability and flexibility and advocate migration towards a strongly distributed cooperative paradigm. These lines of research were spawned by Distributed Artificial Intelligence (DAI) and, specifically, the autonomous agent paradigm and Multi-Agent Systems (MAS). They all revolve around a series of objectives, which can be summarised as achieving greater management functionality autonomy and a greater self-configuration capability, which solves the problems of scalability and the need for supervision that plague current systems, evolving towards strongly distributed and goal-driven cooperative control techniques and semantically enhancing information models. More and more researchers are starting to use agents for network and distributed systems management. However, the boundaries established in their work between mobile agents (that follow the mobile code paradigm) and autonomous agents (that really follow the cooperative paradigm) are fuzzy. Many of these approximations focus on the use of mobile agents, which, as was the case with the above-mentioned mobile code techniques, means that they can inject more dynamism into the traditional concept of management by delegation. Accordingly, they are able to flexibilise management, distribute management logic about data and distribute control. However, they remain within the distributed hierarchical paradigm. While a management architecture faithful to the strongly distributed cooperative paradigm has yet to be defined, these lines of research have revealed that the information, communication and organisation models of existing management architectures are far from adequate. In this context, this dissertation presents an architectural model for the holonic management of distributed systems and services through autonomous agent societies. The main objectives of this model are to raise the level of management task automation, increase the scalability of management solutions, provide support for delegation by both domains and macro-tasks and achieve a high level of interoperability in open environments. Bearing in mind these objectives, a descriptive logic-based formal semantic information model has been developed, which increases management automation by using rational autonomous agents capable of reasoning, inferring and dynamically integrating knowledge and services conceptualised by means of the CIM model and formalised at the semantic level by means of descriptive logic. The information model also includes a mapping, at the CIM metamodel level, to the OWL ontology specification language, which amounts to a significant advance in the field of XML-based model and metainformation representation and exchange. At the interaction level, the model introduces a formal specification language (ACSL) of conversations between agents based on speech act theory and contributes an operational semantics for this language that eases the task of verifying formal properties associated with the interaction protocol. A role-oriented holonic organisational model has also been developed, whose main features meet the requirements demanded by emerging distributed services, including no centralised control, dynamic restructuring capabilities, cooperative skills and facilities for adaptation to different organisational cultures. The model includes a normative submodel adapted to management holon autonomy and based on the deontic and action modal logics.
Resumo:
Este artículo es resultado de un trabajo de investigación extenso realizado en el marco del Programa de Doctorado: Periferias, Sostenibilidad y Vitalidad Urbana, organizado por el Departamento de Urbanística y de Ordenación del Territorio de la Escuela de Arquitectura de la Universidad Politécnica de Madrid, tutelado por José Miguel Fernández Güell. La investigación analiza las oportunidades de mejora de la competitividad, habitabilidad, sostenibilidad y gobernabilidad de las ciudades, si se acompañan los procesos sobre cuestiones públicas y desarrollo urbano con metodologías participativas adecuadas a las características del entorno y su realidad social. Es un estudio sobre la rentabilidad de la participación social en el urbanismo en los casos en los que se consigue una estructura puente eficaz entre los agentes socioeconómicos y la base ciudadana. Reconocido con el 1er Premio Nacional de Urbanismo Ricardo Santos Diez 2009.
Resumo:
En este trabajo se estudia la modelización y optimización de procesos industriales de separación mediante el empleo de mezclas de líquidos iónicos como disolventes. Los disolventes habitualmente empleados en procesos de absorción o extracción suelen ser componentes orgánicos muy volátiles y dañinos para la salud humana. Las innovadoras propiedades que presentan los líquidos iónicos, los convierten en alternativas adecuadas para solucionar estos problemas. La presión de vapor de estos compuestos es muy baja y apenas varía con la temperatura. Por tanto, estos compuestos apenas se evaporan incluso a temperaturas altas. Esto supone una gran ventaja en cuanto al empleo de estos compuestos como disolventes industriales ya que permite el reciclaje continuo del disolvente al final del proceso sin necesidad de introducir disolvente fresco debido a la evaporación del mismo. Además, al no evaporarse, estos compuestos no suponen un peligro para la salud humana por inhalación; al contrario que otros disolventes como el benceno. El único peligro para la salud que tienen estos compuestos es por tanto el de contacto directo o ingesta, aunque de hecho muchos Líquidos Iónicos son inocuos con lo cual no existe peligro para la salud ni siquiera a través de estas vías. Los procesos de separación estudiados en este trabajo, se rigen por la termodinámica de fases, concretamente el equilibrio líquido-vapor. Para la predicción de los equilibrios se ha optado por el empleo de modelos COSMO (COnductor-like Screening MOdel). Estos modelos tienen su origen en el empleo de la termodinámica de solvatación y en la mecánica cuántica. En el desarrollo de procesos y productos, químicos e ingenieros frecuentemente precisan de la realización de cálculos de predicción de equilibrios de fase. Previamente al desarrollo de los modelos COSMO, se usaban métodos de contribución de grupos como UNIFAC o modelos de coeficientes de actividad como NRTL.La desventaja de estos métodos, es que requieren parámetros de interacción binaria que únicamente pueden obtenerse mediante ajustes por regresión a partir de resultados experimentales. Debido a esto, estos métodos apenas tienen aplicabilidad para compuestos con grupos funcionales novedosos debido a que no se dispone de datos experimentales para llevar a cabo los ajustes por regresión correspondientes. Una alternativa a estos métodos, es el empleo de modelos de solvatación basados en la química cuántica para caracterizar las interacciones moleculares y tener en cuenta la no idealidad de la fase líquida. Los modelos COSMO, permiten la predicción de equilibrios sin la necesidad de ajustes por regresión a partir de resultados experimentales. Debido a la falta de resultados experimentales de equilibrios líquido-vapor de mezclas en las que se ven involucrados los líquidos iónicos, el empleo de modelos COSMO es una buena alternativa para la predicción de equilibrios de mezclas con este tipo de materiales. Los modelos COSMO emplean las distribuciones superficiales de carga polarizada (sigma profiles) de los compuestos involucrados en la mezcla estudiada para la predicción de los coeficientes de actividad de la misma, definiéndose el sigma profile de una molécula como la distribución de probabilidad de densidad de carga superficial de dicha molécula. Dos de estos modelos son COSMO-RS (Realistic Solvation) y COSMO-SAC (Segment Activity Coefficient). El modelo COSMO-RS fue la primera extensión de los modelos de solvatación basados en continuos dieléctricos a la termodinámica de fases líquidas mientras que el modelo COSMO-SAC es una variación de este modelo, tal y como se explicará posteriormente. Concretamente en este trabajo se ha empleado el modelo COSMO-SAC para el cálculo de los coeficientes de actividad de las mezclas estudiadas. Los sigma profiles de los líquidos iónicos se han obtenido mediante el empleo del software de química computacional Turbomole y el paquete químico-cuántico COSMOtherm. El software Turbomole permite optimizar la geometría de la molécula para hallar la configuración más estable mientras que el paquete COSMOtherm permite la obtención del perfil sigma del compuesto mediante el empleo de los datos proporcionados por Turbomole. Por otra parte, los sigma profiles del resto de componentes se han obtenido de la base de datos Virginia Tech-2005 Sigma Profile Database. Para la predicción del equilibrio a partir de los coeficientes de actividad se ha empleado la Ley de Raoult modificada. Se ha supuesto por tanto que la fracción de cada componente en el vapor es proporcional a la fracción del mismo componente en el líquido, dónde la constante de proporcionalidad es el coeficiente de actividad del componente en la mezcla multiplicado por la presión de vapor del componente y dividido por la presión del sistema. Las presiones de vapor de los componentes se han obtenido aplicando la Ley de Antoine. Esta ecuación describe la relación entre la temperatura y la presión de vapor y se deduce a partir de la ecuación de Clausius-Clapeyron. Todos estos datos se han empleado para la modelización de una separación flash usando el algoritmo de Rachford-Rice. El valor de este modelo reside en la deducción de una función que relaciona las constantes de equilibrio, composición total y fracción de vapor. Para llevar a cabo la implementación del modelado matemático descrito, se ha programado un código empleando el software MATLAB de análisis numérico. Para comprobar la fiabilidad del código programado, se compararon los resultados obtenidos en la predicción de equilibrios de mezclas mediante el código con los resultados obtenidos mediante el simulador ASPEN PLUS de procesos químicos. Debido a la falta de datos relativos a líquidos iónicos en la base de datos de ASPEN PLUS, se han introducido estos componentes como pseudocomponentes, de manera que se han introducido únicamente los datos necesarios de estos componentes para realizar las simulaciones. El modelo COSMO-SAC se encuentra implementado en ASPEN PLUS, de manera que introduciendo los sigma profiles, los volúmenes de la cavidad y las presiones de vapor de los líquidos iónicos, es posible predecir equilibrios líquido-vapor en los que se ven implicados este tipo de materiales. De esta manera pueden compararse los resultados obtenidos con ASPEN PLUS y como el código programado en MATLAB y comprobar la fiabilidad del mismo. El objetivo principal del presente Trabajo Fin de Máster es la optimización de mezclas multicomponente de líquidos iónicos para maximizar la eficiencia de procesos de separación y minimizar los costes de los mismos. La estructura de este problema es la de un problema de optimización no lineal con variables discretas y continuas, es decir, un problema de optimización MINLP (Mixed Integer Non-Linear Programming). Tal y como se verá posteriormente, el modelo matemático de este problema es no lineal. Por otra parte, las variables del mismo son tanto continuas como binarias. Las variables continuas se corresponden con las fracciones molares de los líquidos iónicos presentes en las mezclas y con el caudal de la mezcla de líquidos iónicos. Por otra parte, también se ha introducido un número de variables binarias igual al número de líquidos iónicos presentes en la mezcla. Cada una de estas variables multiplican a las fracciones molares de sus correspondientes líquidos iónicos, de manera que cuando dicha variable es igual a 1, el líquido se encuentra en la mezcla mientras que cuando dicha variable es igual a 0, el líquido iónico no se encuentra presente en dicha mezcla. El empleo de este tipo de variables obliga por tanto a emplear algoritmos para la resolución de problemas de optimización MINLP ya que si todas las variables fueran continuas, bastaría con el empleo de algoritmos para la resolución de problemas de optimización NLP (Non-Linear Programming). Se han probado por tanto diversos algoritmos presentes en el paquete OPTI Toolbox de MATLAB para comprobar cuál es el más adecuado para abordar este problema. Finalmente, una vez validado el código programado, se han optimizado diversas mezclas de líquidos iónicos para lograr la máxima recuperación de compuestos aromáticos en un proceso de absorción de mezclas orgánicas. También se ha usado este código para la minimización del coste correspondiente a la compra de los líquidos iónicos de la mezcla de disolventes empleada en la operación de absorción. En este caso ha sido necesaria la introducción de restricciones relativas a la recuperación de aromáticos en la fase líquida o a la pureza de la mezcla obtenida una vez separada la mezcla de líquidos iónicos. Se han modelizado los dos problemas descritos previamente (maximización de la recuperación de Benceno y minimización del coste de operación) empleando tanto únicamente variables continuas (correspondientes a las fracciones o cantidades molares de los líquidos iónicos) como variables continuas y binarias (correspondientes a cada uno de los líquidos iónicos implicados en las mezclas).