725 resultados para HORMIGÓN - CONTROL DE CALIDAD
Resumo:
El presente proyecto tiene como objeto la puesta a punto de métodos de análisis de combustibles basados en la espectrometría atómica, centrándose en un equipo de absorción atómica que, como su nombre indica, funciona bajo el principio de la absorción atómica y un equipo ICP que trabaja por plasma acoplado inductivamente y que se rige bajo el principio espectrométrico de la emisión atómica. La finalidad de la puesta a punto de ambos métodos es llevar un control de calidad periódico sobre los combustibles. Se pondrán a punto dos métodos normalizados de ensayos, uno bajo la norma UNE EN 16135 para la determinación del contenido de manganeso en gasolinas; otro bajo la norma EN 16576 para determinar el contenido de manganeso y de hierro en gasóleos de automoción. La puesta a punto de ambos métodos tiene un procedimiento asociado que se puede resumir en cuatro pasos: lectura de la norma, creación del método en el software informático con el que trabaja el equipo, calibración del mismo y realización del estudio de exactitud del método. Abstract The aim of this project is to tune up analytical methods based on the principle of the atomic spectrometry, focusing on testing equipment which works under the principle of atomic absorption and Inductively Coupled Plasma (ICP) equipment governed under the principle of atomic emission. The purpose of tuning up both methods is to perform a quality control on fuels. Two different standard methods will be developed: One under the standard UNE EN 16135 for measuring the content of manganese in gasolines; the other one under the standard EN 16576 for the determination of manganese and iron content in middle distillate fuels. Tune up of both methods procedure can be summarized in four steps: Reading the standard, creation of the method on the computer software associated to the equipment, calibration of the equipment and completion of accuracy study.
Resumo:
En este Trabajo de Fin de Grado se diseña, implementa y evalúa un sistema se digitalización de muestras de esputo basado en telefonía móvil e integrable con TuberSpot. Además, se proponen técnicas de procesamiento de imagen para el control de calidad del análisis y se implementa un mecanismo para evaluar la eficiencia de la inteligencia colectiva y la gamificación en este contexto. El sistema de adquisición propuesto utiliza smartphones, adaptadores móvil-microscopio y una aplicación Android. El protocolo de adquisición se ha diseñado conforme a un estudio realizado con personal médico cualificado. El control de calidad se basa en la inserción de bacilos simulados en las imágenes. Para la evaluación de eficiencia de TuberSpot se crea, en colaboración con médicos especialistas, un repositorio de imágenes en las que posición y número de bacilos quedan registrados.
Resumo:
Se ha procedido al análisis estadístico de un banco de datos de algo más de nueve mil probetas de tamaño estructural ensayadas a lo largo de la década final del s. XX y la inicial del s. XXI, provenientes de masas forestales de coníferas españolas. Las especies estudiadas (pinus sylsvestris, p. halepensis, p. pinaster, p. radiata, p. nigra) representan más del 80% de la superficie forestal española cubierta por coníferas, y ninguna especie de relevancia por volumen potencial de corta a medio plazo ha quedado excluida (quizá con la única excepción de p. pinea, y, con matices juniperus thurifera). Por lo tanto, puede considerarse una información razonablemente representativa de la población de coníferas españolas (en adelante, población objetivo), si bien los procedimientos de muestreo presentan marcadas diferencias en función de las especies. Los procedimientos de ensayo se han atenido, esencialmente, a la normativa europea de referencia, así como a la normativa española de clasificación de madera aserrada, básicamente UNE 56544, con los matices propios de las sucesivas ediciones de las indicadas normas durante un período de unos veinte años. El estudio se ha realizado con el objeto de caracterizar el estado de naturaleza de los principales parámetros resistentes la población objetivo (densidad, módulo de elasticidad longitudinal, y tensión de rotura en flexión pura), así como identificar posibles inconsistencias en la normativa vigente relacionada. Los resultados se han elaborado de forma operativa para su utilización, en una primera aproximación, en la ejecución de cálculos directos de fiabilidad estructural, tal como se plantean en las normativas ISO 2394, ISO 12491, ISO 13822, UNE EN 1990, Código Técnico de la Edificación español y Código Modelo Probabilístico. Inequívocamente, las variables resistentes de referencia de las coníferas españolas susceptibles de uso estructural presentan una variabilidad significativamente superior a la habitual en coníferas de origen en el Centro y Norte de Europa, así como en Norteamérica (en adelante, poblaciones de comparación). Esta diferencia es extrema en el caso de la resistencia, importante en el caso de la rigidez, y prácticamente testimonial en el caso de la densidad. Por otra parte, la rigidez y la densidad de la población objetivo es mucho mayor, para el mismo valor de la resistencia, que las de las poblaciones de comparación. Asimismo, las correlaciones entre las tres variables básicas son inferiores en la población objetivo respecto a la de comparación. Estos hechos llevan a que la aplicación del sistema de clases resistentes en uso conduzca a situaciones de dimensionado poco racionales, y marcadamente antieconómicas. Si bien el objeto del estudio no es el establecimiento de una “jerarquía” estructural de especies, sí deben subrayarse algunos aspectos particulares por especies. El p. nigra tiene los mayores valores centrales y los menores de dispersión de toda la población objetivo, y mayores valores centrales que cualquier referencia de la población de comparación: para la misma fiabilidad objetivo en supuestos habituales, en p.nigra puede ser necesario en torno a un 20% menos de volumen de madera que en p. sylvestris, y en torno a un 40% que en p. radiata . El p. radiata y el p. pinaster presentan los menores valores de centralidad y los mayores de dispersión, de toda la muestra objetivo en formatos aserrados (con la excepción de la densidad: el p. radiata presenta valores muy bajos, pero atípicamente baja variabilidad). Especies habitualmente “no consideradas” como el p. pinea, presentan valores notablemente altos de centralidad, especialmente en la variable densidad. Otro caso de interés es p. halepensis, con prestaciones estructurales muy elevadas, teniendo en cuenta la proveniencia de masas carentes de un manejo adecuado (a efectos de producción maderable). Al contrario que en las poblaciones de comparación, la densidad de las coníferas españolas se representa claramente por distribuciones lognormales, frente a las distribuciones normales que se consideran en la literatura para la misma variable básica. Esto no tiene consecuencias relevantes en la fiabilidad estructural de las uniones, debido a los bajos coeficientes de variación (entre el 10 y 13%, típicamente). Para la tensión de rotura en flexión, parece haber una marcada diferencia entre el tipo de distribución que representa a las poblaciones no clasificadas o rechazadas (que es claramente Lognormal) y la que representa a las poblaciones clasificadas (que parece ser de tipo Weibull de tres parámetros). La distinción va más allá de la sutileza matemática: si la distribución fuese lognormal para todos los casos, la ineficiencia de la aplicación del sistema de clases resistentes aún sería más acusada que lo anteriormente indicado. La distribución normal, sólo representa adecuadamente el estado de naturaleza del módulo de elasticidad y la tensión de rotura de maderas no escuadradas (cilindradas, descortezadas, o simplemente desramadas), y del módulo de elasticidad de las muestras rechazadas. Las coníferas no clasificadas, arrojan valores relativamente elevados de resistencia, lo que hace pensar en la conveniencia de la definición de un “protocolo de mínimos” para posibilitar su uso en el marco normativo actual. Se ha ejemplificado cómo de la aplicación de técnicas probabilísticas utilizando como fundamento los resultados del análisis realizado, resulta un ahorro material potencialmente notable en la población objetivo (en la horquilla del 30 al 60%, dependiendo del estado límite que gobierne el dimensionamiento), respecto a la aplicación directa de los protocolos normativos a partir de la aplicación de la norma de clasificación española. Complementariamente, se han elaborado modelos de variabilidad de los parámetros de las distribuciones propuestas, al objeto de facilitar la aplicación de técnicas de actualización bayesiana. Estas técnicas tienen particular relevancia en el entorno español, por dos razones. Una de ellas, es que suponen, de hecho, la única manera de tratar la cuestión de la seguridad de estructuras prexistentes en un marco matemático-formal consistente con la normativa. La otra, es que permiten la utilización de maderas procedentes de medios de producción con niveles de control de calidad mínimos, incluso casi inexistentes, con inversiones en coste de ensayos comparativamente irrelevantes. ABSTRACT A group of databases making a total of ca. 9.000 beams produced by sawing coniferous species from Spain, tested according EN 384 (1) and visually graded according Spanish standards were analyzed. The main goal was to reach a detailed comprehension about the true state of nature of the three reference structural properties (density, MOR and MOE), in the conditions the material reaches the real market. This goal has been addressed through the detailed adjustment of the proper probabilistic model to the data available. The most important outcome has been the proposal of a set of distribution parameters for the target species, ready to be used in direct probabilistic calculation. This use is exemplified through structural reliability calculations, establishing a priori data for Bayesian reliability updating, Spanish code calibration suggestions, and parameters proposal for the Probabilistic Model Code (2).
Resumo:
El control de calidad en pinturas, barnices y recubrimientos afines está relacionado con su composición, formulación y caracterización. Al hablar de recubrimientos nos referimos a pinturas, temple, barnices, esmaltes, lacas, imprimaciones, e incluso recubrimientos electrolíticos. Se puede definir una pintura líquida como una mezcla heterogénea de componentes que una vez aplicada y seca se transforma en una película continua de espesor más o menos uniforme, sin pegajosidad al tacto y con las características o aptitud al uso con la que ha sido diseñada. Los componentes de la pintura varían en gran manera en función del tipo de acabado que se requiera y de las condiciones de aplicación y secado. El proceso de fabricación de pinturas es totalmente físico y se efectúa en cuatro fases: dispersión, molido, dilución y ajuste de viscosidad. Hay distintos tipos de pinturas al agua: temple, pintura al cemento, pintura a la cal, pintura al silicato y pintura plástica. El desarrollo y aplicación cada vez mayor de las pinturas hidrosolubles en todos los sectores permite reducir la emisión de grandes cantidades de disolventes orgánicos a la atmósfera y reduce en gran medida los riesgos de incendio. Por su utilización hay tres tipos de productos hidrosolubles: pinturas plásticas para decoración (emulsiones y dispersiones), pinturas electroforéticas (anaforesis y cataforesis) y pinturas hidrosolubles industriales (resinas en solución y en dispersión). Entre otros componentes formadores de la película se destaca el papel de los aceites y los pigmentos en sus distintas tipologías. En función del ratio pigmento/ resina en peso las pinturas se clasifican en acabados, imprimaciones, aparejos y masillas. Se desarrolla el procedimiento operativo para fabricar pintura al agua y distintos procedimientos matemáticos para calcular composiciones adecuadas de base de la molienda. A continuación se exponen distintos ensayos de control de calidad en pintura referidos a distintos aspectos: contenido de producto, estado de conservación en el envase y estabilidad al almacenaje, determinación de la densidad, porcentaje de sólidos, poder cubriente y rendimiento superficial específico; de los ensayos en pintura húmeda se destaca, entre otros aspectos la medida del índice de nivelación y la tendencia al descuelgue; de los ensayos en pintura aplicada y seca, se determina la resistencia al frote en húmedo; también se hace referencia a la viscosidad y la tensión superficial y su influencia en las pinturas, así como algunas cuestiones sobre el diseño de pinturas y afines, y a defectos en las pinturas, sus causas y posibles soluciones. Para terminar, se desarrollan algunos aspectos medioambientales relacionados con las pinturas y sus componentes.
Resumo:
Esta tesis doctoral presenta un procedimiento integral de control de calidad en centrales fotovoltaicas, que comprende desde la fase inicial de estimación de las expectativas de producción hasta la vigilancia del funcionamiento de la instalación una vez en operación, y que permite reducir la incertidumbre asociada su comportamiento y aumentar su fiabilidad a largo plazo, optimizando su funcionamiento. La coyuntura de la tecnología fotovoltaica ha evolucionado enormemente en los últimos años, haciendo que las centrales fotovoltaicas sean capaces de producir energía a unos precios totalmente competitivos en relación con otras fuentes de energía. Esto hace que aumente la exigencia sobre el funcionamiento y la fiabilidad de estas instalaciones. Para cumplir con dicha exigencia, es necesaria la adecuación de los procedimientos de control de calidad aplicados, así como el desarrollo de nuevos métodos que deriven en un conocimiento más completo del estado de las centrales, y que permitan mantener la vigilancia sobre las mismas a lo largo del tiempo. Además, los ajustados márgenes de explotación actuales requieren que durante la fase de diseño se disponga de métodos de estimación de la producción que comporten la menor incertidumbre posible. La propuesta de control de calidad presentada en este trabajo parte de protocolos anteriores orientados a la fase de puesta en marcha de una instalación fotovoltaica, y las complementa con métodos aplicables a la fase de operación, prestando especial atención a los principales problemas que aparecen en las centrales a lo largo de su vida útil (puntos calientes, impacto de la suciedad, envejecimiento…). Además, incorpora un protocolo de vigilancia y análisis del funcionamiento de las instalaciones a partir de sus datos de monitorización, que incluye desde la comprobación de la validez de los propios datos registrados hasta la detección y el diagnóstico de fallos, y que permite un conocimiento automatizado y detallado de las plantas. Dicho procedimiento está orientado a facilitar las tareas de operación y mantenimiento, de manera que se garantice una alta disponibilidad de funcionamiento de la instalación. De vuelta a la fase inicial de cálculo de las expectativas de producción, se utilizan los datos registrados en las centrales para llevar a cabo una mejora de los métodos de estimación de la radiación, que es la componente que más incertidumbre añade al proceso de modelado. El desarrollo y la aplicación de este procedimiento de control de calidad se han llevado a cabo en 39 grandes centrales fotovoltaicas, que totalizan una potencia de 250 MW, distribuidas por varios países de Europa y América Latina. ABSTRACT This thesis presents a comprehensive quality control procedure to be applied in photovoltaic plants, which covers from the initial phase of energy production estimation to the monitoring of the installation performance, once it is in operation. This protocol allows reducing the uncertainty associated to the photovoltaic plants behaviour and increases their long term reliability, therefore optimizing their performance. The situation of photovoltaic technology has drastically evolved in recent years, making photovoltaic plants capable of producing energy at fully competitive prices, in relation to other energy sources. This fact increases the requirements on the performance and reliability of these facilities. To meet this demand, it is necessary to adapt the quality control procedures and to develop new methods able to provide a more complete knowledge of the state of health of the plants, and able to maintain surveillance on them over time. In addition, the current meagre margins in which these installations operate require procedures capable of estimating energy production with the lower possible uncertainty during the design phase. The quality control procedure presented in this work starts from previous protocols oriented to the commissioning phase of a photovoltaic system, and complete them with procedures for the operation phase, paying particular attention to the major problems that arise in photovoltaic plants during their lifetime (hot spots, dust impact, ageing...). It also incorporates a protocol to control and analyse the installation performance directly from its monitoring data, which comprises from checking the validity of the recorded data itself to the detection and diagnosis of failures, and which allows an automated and detailed knowledge of the PV plant performance that can be oriented to facilitate the operation and maintenance of the installation, so as to ensure a high operation availability of the system. Back to the initial stage of calculating production expectations, the data recorded in the photovoltaic plants is used to improved methods for estimating the incident irradiation, which is the component that adds more uncertainty to the modelling process. The development and implementation of the presented quality control procedure has been carried out in 39 large photovoltaic plants, with a total power of 250 MW, located in different European and Latin-American countries.
Resumo:
Este proyecto de fin de carrera surge como una necesidad de realizar un control de calidad en un Sistema de Información Geográfico (SIG en adelante). En el caso de GISProp, su objetivo es el de localizar en un conjunto de objetos cartográficos si existe superficie duplicada con algún otro objeto cartográfico del mismo tipo. Para ello, se utilizan técnicas de agrupamiento espacial, sistemas expertos y una aplicación GIS para obtener el área de los objetos cartográficos. Además, los datos geo-espaciales pueden variar en el tiempo, por lo tanto, se debe tener en cuenta los elementos que varían y comparar única y exclusivamente los objetos cartográficos que correspondan con aquellos que se encuentren en su área de influencia.
Resumo:
Hoy en día existe una preocupación creciente por la calidad del software entregado en los proyectos que se realizan a lo largo del mundo. El trabajo de fin de grado que va a ser desarrollado en estas páginas pretende demostrar la importancia de la realización de tests funcionales durante el proceso de desarrollo de software para que el proyecto alcance la calidad requerida tan demandada en estos días. Para ello, después de una pequeña introducción a la historia del software, se presentarán y compararán diversos tipos de metodologías de desarrollo de software, tanto pesadas (cascada, espiral, etc.) como ágiles (Extreme Programming y Scrum), se enfatizará en dichas metodologías ágiles y cómo el proceso de testing y control de calidad encaja perfectamente con la filosofía de las citadas metodologías ágiles. Se desarrollará una explicación del papel de QA en el desarrollo de software, asi como una explicación de los tipos de test existentes, y las herramientas, tecnologías y patrones que existen a disposición de aquellos que quieran desempeñar el papel de QA. Para complementar el punto de vista teórico de este trabajo se presentará un caso práctico real realizado en la empresa bq bajo una metodología Scrum. Dicho caso práctico muestra el uso de ciertas herramientas y su aporte para el control de calidad del proyecto bajo desarrollo, demostrando su importancia. Se realizará énfasis en el proceso de automatización de ciertas baterías de test (llamadas test suites), mostrando desde el planteamiento inicial de las diferentes historias de usuario y la batería de test, pasando por la elección de las tecnologías más adecuadas para la elaboración de los test hasta llegar al lanzamiento de dicha batería de pruebas y la comprobación de éstas. El punto de vista práctico quedará complementado por una explicación del framework nightwatch.js, framework utilizado en el desarrollo del proyecto en bq para la automatización de test funcionales. Esta explicación comprenderá tanto la configuración y uso del framework como el uso de patrones y la estructura de las pruebas. ABSTRACT Nowadays there is a growing concern about the Quality of the software delivered in the projects that are made all around the world. This final project will try to prove the importance of performing functional tests during the Software Development Process in order to be able to reach the demanded Quality. To fulfill this objective, different types of Software Development methodologies will be presented and compared. Heavy methodologies (waterfall, spiral methodologies, etc.) as well as agile methodologies (Extreme Programming and Scrum). There will be an emphasis in the second kind (agile methodologies) and how the testing and quality assurance process fits perfectly in their philosophy. A deep explanation of the role that Quality Assurance holds on software development will be presented, as well as an explanation on the current types of testing and an explanation of the different tools; technologies and patrons that exist to help anyone who wants to perform the role of QA. To complement the theoretical perspective of this work a real case study, performed at the company bq under a Scrum methodology, will be presented. The mentioned study covers the use of certain tools and their input for the quality assurance of the project under development, proving its relevance. Emphasis will be made in the process of conducting a set of tests (called test suite), showing from the initial approach of the different users stories and the set of tests, going through the choosing of the most suitable technologies for the tests development, and ending with the performance of this battery of tests and their checkout. The practical point of view will be complemented by a deep explanation of the creation process using the nightwatch.js automated test framework, used in the project in bq. This explanation will cover both the configuration and use of the framework as the use of patterns and structure of the tests.
Resumo:
La implementación de indicaciones geográficas, generan distintos efectos socio-económicos, tecnológicos y ambientales, no sólo a nivel de los productores directamente involucrados, sino también en el marco del sistema agroalimentario local (SIAL). Entre estos últimos, se destaca la organización colectiva de los productores y el desarrollo de una gobernanza, a partir del conjunto de actividades desarrolladas por el Consejo Regulador (CR), en torno al control de calidad y la promoción del producto. El concepto de gobernanza territorial implica llevar a cabo procesos de organización colectiva en red en los que tienen lugar procesos de coordinación multi-nivel entre los agentes, las empresas y las instituciones locales, en un contexto de asimetría en la información y de la existencia de numerosos decisores. El objetivo de esta Tesis Doctoral es realizar un aporte metodológico para el estudio de la gobernanza territorial en sistemas agroalimentarios localizados, a partir de la construcción de indicadores (de calidad, innovación, efectos económicos y prácticas ambientales) y el análisis de las redes de colaboración en materia de difusión del conocimiento e innovaciones técnicas, organizativas y comerciales en la Comarca de Sierra Mágina. Para responder el objetivo se aplica análisis de redes sociales y se construyen indicadores sintéticos para valorizar los efectos. Se realizan encuestas a la totalidad de almazaras presentes en la Comarca de Sierra Mágina, tanto a las que poseen el signo de calidad como a las que no cuentan con dicha marca territorial y entrevistas a testigos privilegiados. En las mismas se consulta sobre las actividades y proyectos que realizan en forma conjunta con otras almazaras e instituciones, así como los actores o referentes a quiénes consultan en temas relacionados con la calidad en la producción olivícola y la obtención de aceite, así como aquellos actores a quienes consultan en aspectos referidos a la Comercialización y gestión. A partir de la información recabada, se obtienen cuatro indicadores sintéticos de efectos de la implantación de una DOP en las almazaras adheridas, referidos a la adopción de innovaciones productivas y organizativas, a la calidad en producto y procesos, a las rentas de diferenciación y a las prácticas ambientales. Asimismo se generan las matrices bi-narias y valuadas para las redes de colaboración en la difusión del conocimiento y se calculan los indicadores particulares. Esto nos permite estudiar las características de las redes que se generan (tamaño, conectividad), el papel del CR en la gobernanza territorial y de otras instituciones del medio, así como identificar actores centrales y grupos en el proceso de difusión de conocimientos. Los resultados muestran que los SIAL pueden beneficiarse de la organización interprofesional y de cooperación interinstitucional a escala local que se producen tras la implantación de una DOP. Se desarrolla un proceso de articulación y un fuerte intercambio de conocimientos entre actores ligados al propio proceso de control de la calidad diferencial. Pero, junto con ello, se desarrollan actividades de formación y de promoción del patrimonio comarcal y se consolidan redes locales de innovación y colaboración mutua en distintas actividades, tanto entre actores de la propia cadena de producción, como entre éstos y las instituciones del medio. Estas actividades, junto con la presencia de un entramado institucional denso, permiten el desarrollo de una gobernanza territorial alrededor del sistema agroalimentario del aceite de oliva. ABSTRACT The implementation of geographical indications has different socio-economic, technological and environmental effects not only for the producers involved but also for the local agro food system (LAFS). Among the latter, we can highlight the collective organization of producers and the development of territorial governance through a series of tasks developed by the Regulatory Board (RB) as regards quality control and product marketing. The concept of territorial governance involves processes of collective organization in networks, where processes of multi-level coordination among agents, enterprises and local institutions take place within a context of asymmetry of information and numerous decision makers. The objective of this Doctoral Thesis is to contribute with methodological tools for the study of territorial governance in local agro food systems by constructing indicators (of quality, innovation, economic effects and environmental practices) and by analyzing networks of collaboration in terms of dissemination of technical, organizational and commercial innovation and knowledge in Comarca de Sierra Mágina. To achieve that objective, social network analysis is applied and synthetic indicators are elaborated to valorize the effects. Interviews to key actors and surveys to every oil mill in Comarca de Sierra Mágina are carried out, not only in those oil mills that host a label of quality but also in the ones that do not hold it. These interviews inquire about tasks and projects performed together with other oil mills and institutions and about actors or referents consulted in topics related to quality in olive production and oil extraction as well as in management and marketing. From all the information collected, four synthetic indicators of the effects of establishing Protected Designations of Origen (PDOs) in the associate oil mills are obtained, in terms of adoption of productive and organizational innovations, process and product quality, income differentiation and environmental practices. In the same way, binary and valorized matrixes are generated for those networks collaborating in the dissemination of knowledge and specific indicators are calculated. This allows to study networks (size, connectivity), the role of RB in territorial governance and other institutions involved and to identify main actors and groups in the process of knowledge dissemination. The results show that the LAFS can benefit from inter-professional organizations and inter- institutional cooperation at local levels by implementing PDOs. A process of articulation and strong exchange of knowledge is developed among those actors involved in controlling differential quality. But, at the same time, activities for the formation and promotion of the “comarca” patrimony are developed and local networks of innovation and mutual collaboration are built for different activities, not only among actors in the production process itself, but between these actors and local institutions as well. These tasks, together with the existence of a dense spatial entrepreneurial network, allow the development of territorial governance on the olive oil agro food system.
Resumo:
En la búsqueda de la modelización y cuantificación óptimas de la correlación instrumental y visual de materiales goniocromáticos (pinturas y plásticos, principalmente) en los procesos de control de calidad típicos del sector automovilístico, se presenta aquí una comparación de las prestaciones de diversos tipos actuales de instrumentos de medida del color y cabinas de iluminación. Los multi-gonioespectrofotómetros analizados fueron: Datacolor FX10®, X-Rite MA98® y BYK-mac®, y, las cabinas de iluminación direccional: gonio-vision-box® y byko-spectra effect®. Las propiedades ópticas, básicamente fotométricas y colorimétricas, evaluadas fueron: geometrías de medida, fuente de luz, distancia de observación y dirección visual a la muestra. Los resultados aportados mostraron que actualmente dicha correlación instrumental y visual no es óptima debido a desajustes en las cabinas.
Resumo:
En este trabajo se presenta el primero de una serie de dos artículos en la que se ofrece una revisión de la aplicación de ciertos conceptos gráficos del equilibrio líquido-vapor y líquido-líquido-vapor al diseño y síntesis de procesos de separación de mezclas ternarias. Se destacan las características más relevantes de los mapas de curvas de residuo y de los mapas de líneas de destilación, que están cobrando un interés creciente debido a su utilidad en el estudio de procesos de destilación azeotrópica.
Resumo:
En este trabajo se completa la serie de dos artículos en la que se ofrece una revisión de la aplicación de los mapas de curvas de residuo y mapas de líneas de destilación para determinar las regiones de posibles productos en la separación de mezclas ternarias no ideales (azeotrópicas). Con este objetivo, se discuten los criterios para establecer los límites de dichas regiones, a reflujo total y a razón de reflujo finita, y se presentan ejemplos que muestran la aplicación de estos conceptos en la síntesis de secuencias de columnas de destilación para separar mezclas azeotrópicas.
Resumo:
Poster presented in the 24th European Symposium on Computer Aided Process Engineering (ESCAPE 24), Budapest, Hungary, June 15-18, 2014.
Resumo:
Continuando con la línea emprendida por el Instituto Universitario de Ingeniería de Procesos Químicos, para desarrollar actividades de fomento del conocimiento de disciplinas de ciencia y tecnología, se ha convocado el “VI Certamen de Proyectos Educativos de Ingeniería Química” durante el curso 2013-2014. Con dicha actividad se pretende promover el interés por estudios relacionados con las disciplinas científico-técnicas, entre los alumnos de ESO, con una mejor conceptualización, comprensión y caracterización de los temas. Para ello, se diseñan, planifican y desarrollan acciones entre profesorado de la UA y centros de secundaria, sobre el papel de la Química en la industria para mejorar la calidad de vida. En la presente edición del certamen se han inscrito 13 centros, que han presentado un total de 20 proyectos, relacionados con los siguientes temas: la Ingeniería Química y el medio ambiente, la Ingeniería Química y la industria alimentaria, la Ingeniería Química y el mundo de los plásticos, la Ingeniería Química y la energía y la Ingeniería Química «Verde» sostenible.
Resumo:
In this work we study Forward Osmosis (FO) as an emerging desalination technology, and its capability to replace totally or partially Reverse Osmosis (RO) in order to reduce the great amount of energy required in the current desalination plants. For this purpose, we propose a superstructure that includes both membrane based desalination technologies, allowing the selection of only one of the technologies or a combination of both of them seeking for the optimal configuration of the network. The optimization problem is solved for a seawater desalination plant with a given fresh water production. The results obtained show that the optimal solution combines both desalination technologies to reduce not only the energy consumption but also the total cost of the desalination process in comparison with the same plant but operating only with RO.
Resumo:
In this work, we analyze the effect of incorporating life cycle inventory (LCI) uncertainty on the multi-objective optimization of chemical supply chains (SC) considering simultaneously their economic and environmental performance. To this end, we present a stochastic multi-scenario mixed-integer linear programming (MILP) coupled with a two-step transformation scenario generation algorithm with the unique feature of providing scenarios where the LCI random variables are correlated and each one of them has the desired lognormal marginal distribution. The environmental performance is quantified following life cycle assessment (LCA) principles, which are represented in the model formulation through standard algebraic equations. The capabilities of our approach are illustrated through a case study of a petrochemical supply chain. We show that the stochastic solution improves the economic performance of the SC in comparison with the deterministic one at any level of the environmental impact, and moreover the correlation among environmental burdens provides more realistic scenarios for the decision making process.