15 resultados para PULIDO
em Universidad Politécnica de Madrid
Resumo:
La identificación automática de las fases minerales visibles en probetas pulidas mediante un sistema experto es un pre-requisito indispensable para la aplicación de las técnicas tradicionales de microscopía a los problemas industriales con un elevado rendimiento. Para su consecución, ha sido necesario obtener una óptima y homogénea calidad de pulido en las muestras utilizadas, lograr la puesta a punto del equipo de Análisis digital de imagen -ADI- y aplicar un análisis multiespectral sobre la imagen en color (RGB) obtenida en origen. Para este estudio inicial fueron analizadas un conjunto de probetas de menas sulfuradas con los minerales más comunes: la colección Rehwald, descrita por Randohr (1980) y estudiadas de nuevo para este objetivo específico.
Resumo:
Neuropsychological Rehabilitation is a complex clinic process which tries to restore or compensate cognitive and behavioral disorders in people suffering from a central nervous system injury. Information and Communication Technologies (ICTs) in Biomedical Engineering play an essential role in this field, allowing improvement and expansion of present rehabilitation programs. This paper presents a set of cognitive rehabilitation 2D-Tasks for patients with Acquired Brain Injury (ABI). These tasks allow a high degree of personalization and individualization in therapies, based on the opportunities offered by new technologies.
Resumo:
El proyecto surge de la necesidad de ahorro energético mundial, debido a la contaminación producida por las distintas formas de generación de electricidad. Mejorar la eficiencia energética suele ser la forma más barata, rápida y respetuosa del medio ambiente para satisfacer las necesidades energéticas del mundo. En España la Certificación Energética de Edificios es obligatorio, por lo que surge la necesidad analizar las distintas formas y en que ámbito legal pueden ser utilizadas. Se desarrolla la necesidad de otorgar una etiqueta de eficiencia energética de la letra A a la G, siendo la A la más eficiente y la G la menos eficiente. Para saber cuál es la letra que asignamos al edificio en proceso de Certificación, se ha de usar una opción de las que se nos ofrece.
Resumo:
The project arises from the need to develop improved teaching methodologies in field of the mechanics of continuous media. The objective is to offer the student a learning process to acquire the necessary theoretical knowledge, cognitive skills and the responsibility and autonomy to professional development in this area. Traditionally the teaching of the concepts of these subjects was performed through lectures and laboratory practice. During these lessons the students attitude was usually passive, and therefore their effectiveness was poor. The proposed methodology has already been successfully employed in universities like University Bochum, Germany, University the South Australia and aims to improve the effectiveness of knowledge acquisition through use by the student of a virtual laboratory. This laboratory allows to adapt the curricula and learning techniques to the European Higher Education and improve current learning processes in the University School of Public Works Engineers -EUITOP- of the Technical University of Madrid -UPM-, due there are not laboratories in this specialization. The virtual space is created using a software platform built on OpenSim, manages 3D virtual worlds, and, language LSL -Linden Scripting Language-, which imprints specific powers to objects. The student or user can access this virtual world through their avatar -your character in the virtual world- and can perform practices within the space created for the purpose, at any time, just with computer with internet access and viewfinder. The virtual laboratory has three partitions. The virtual meeting rooms, where the avatar can interact with peers, solve problems and exchange existing documentation in the virtual library. The interactive game room, where the avatar is has to resolve a number of issues in time. And the video room where students can watch instructional videos and receive group lessons. Each audiovisual interactive element is accompanied by explanations framing it within the area of knowledge and enables students to begin to acquire a vocabulary and practice of the profession for which they are being formed. Plane elasticity concepts are introduced from the tension and compression testing of test pieces of steel and concrete. The behavior of reticulated and articulated structures is reinforced by some interactive games and concepts of tension, compression, local and global buckling will by tests to break articulated structures. Pure bending concepts, simple and composite torsion will be studied by observing a flexible specimen. Earthquake resistant design of buildings will be checked by a laboratory test video.
Resumo:
Al considerar los mecanismos de unión entre dos elementos, metálicos o no, es cada vez más habitual referirse a la adhesión. El término adhesión se refiere a un complejo conjunto de fenómenos relacionados entre sí que están lejos de ser completamente entendidos y, por lo tanto, tiene sentido considerar la conveniencia de cualquier intento de predecir el comportamiento mediante el uso de métodos semi-empíricos. El empleo de adhesivos en las uniones entre materiales iguales o diferentes es un hecho que se ha implantado como sistema de unión en diferentes campos, tales como la industria metalúrgica, la industria de los medios de transporte (aviación, automóvil, transportes de viajeros por carretera urbanos e interurbanos, industria naval y, en los últimos años, transporte ferroviario), la electrónica y comunicaciones, la biomecánica, la nanotecnología, etc. Las funciones del adhesivo en la unión pueden ser variadas: desde soportar esfuerzos mecánicos, como lo hacen los materiales que une -adhesivos estructurales-, a, simplemente, dar continuidad a un objeto o a actuar como sellado y protección de un conjunto electrónico, con funciones aislantes o incluso conductoras. En todos los casos, el adhesivo realiza su función uniendo superficies. El estudio de cómo es y cómo se comporta esa superficie es fundamental para poder definir y diseñar los parámetros más adecuados de los elementos que participan en la unión. Pero el concepto de superficie no queda bien definido si no lo están sus características: así, la rugosidad, la energía superficial o la estructura y orientación cristalina van a definir el resultado final, junto con las propiedades del adhesivo empleado. Se ha comprobado que un tratamiento superficial realizado sobre un sustrato, puede realizar cambios superficiales no sólo a nivel topográfico, sino también a nivel químico y/o microestructural, lo que podría modificar la energía superficial del sustrato. En ensayos realizados en el propio laboratorio, se ha detectado que en casos en los que los valores de la rugosidad obtenida es la misma, la energía superficial del sustrato es diferente dependiendo del tipo de ataque, para la misma aleación del material. Se podría deducir, a priori, que la modificación cristalográfica conseguida influye, además de en la rugosidad, en las características termodinámicas de la misma. Si bien es cierto que la relación entre la rugosidad y la fuerza de adhesión ha sido ampliamente estudiada, la influencia de diferentes tipos de tratamientos superficiales, tanto en la rugosidad como en las características termodinámicas y en las fuerzas de adhesión, es un tema que produce discrepancias en diferentes autores. No todos los autores o investigadores en los mecanismos de la adhesión ven de igual manera la influencia de una u otra característica de la superficie, ni la posibilidad de aplicación de uno u otro criterio de valorización. Por otra parte, un factor de vital importancia en una buena adhesión es la viscosidad del adhesivo y su velocidad de curado. La aplicación de un adhesivo sobre el adherente implica que, si no hay una buena relación entre las energías superficiales de uno y otro, es decir si no se produce un buen mojado, la capacidad de penetración del adhesivo en los poros o microporos del adherente se reduce de forma sinérgica con la velocidad de curado del adhesivo, es decir, con el aumento de viscosidad. Los adhesivos presentan propiedades reológicas muy diferentes antes y después de su curado. En el momento de su aplicación se comportan como fluidos cuyo comportamiento reológico afecta, entre otras, a características tales como la procesabilidad, su ámbito de uso, la dosificación o la capacidad de relleno de holgura. Antes del curado, deben ser fluidos capaces de ser transportados hasta la superficie del sustrato y copiar su superficie realizando un buen mojado. Según va produciéndose el curado del adhesivo, éste va aumentando su viscosidad hasta comportarse como un sólido; una vez completado el curado, los adhesivos han de presentar propiedades mecánicas adecuadas a los requisitos de ensamblaje. En adhesión, la medida en la que un adhesivo es capaz de impregnar la superficie del sustrato sobre el cual se desea realizar la unión, realizar un contacto interfacial intimo y una buena penetración en las oquedades y rugosidades superficiales del sólido, se denomina mojado. Para que la adhesión sea buena, es condición indispensable que el mojado del sustrato por el adhesivo sea bueno. Para el estudio y cuantificación del mojado se utilizan medidas del ángulo de contacto que forma una gota de adhesivo depositada en el sólido tras esperar a que el sistema alcance el equilibrio. Dado el interés que tiene lo que ocurre en la interfase para alcanzar un mayor conocimiento de los procesos de adhesión, el objetivo principal de esta tesis es caracterizar morfológicamente la superficie de un adherente de aluminio para determinar la influencia que tiene en los parámetros que definen la unión adhesiva. Para ello se han marcado unos objetivos parciales que, fundamentalmente, son: • Caracterizar la superficie de un sustrato (aluminio) sometido a diferentes tratamientos superficiales, tanto mecánicos como químicos • Determinar la energía superficial del mismo sustrato después de los tratamientos superficiales mediante la medida de los ángulos de mojado • Analizar la influencia de la viscosidad en el mojado del sustrato, en función de la rugosidad • Determinar la aplicabilidad de la ecuación de Wenzel en función de la magnitud de la rugosidad • Validar los resultados de las características superficiales mediante la realización de ensayos de tracción Para alcanzar estos objetivos, se han empleado nueve tipos diferentes de tratamientos, en los que se ha buscado la obtención de muy diferentes acabados superficiales, razón por la que no todos los tratamientos que se han utilizado son de aplicación actual en la industria. Los tratamientos mecánicos han sido abrasivos de dos clases: • por rozamiento (Pulido y lijado con dos granulometrías diferentes) y • por impacto (Granallado y LSP) Los ataques químicos han sido, también, de dos tipos • Ácidos (HCl en dos concentraciones diferentes) y • Básicos (NaOH en dos concentraciones distintas) La caracterización superficial se ha realizado con el estudio de los parámetros de rugosidad superficiales, definidos en la normativa de rugosidad 3D, y con el estudio derivado de los análisis de la superficie por transformadas de Fourier La energía superficial se ha realizado mediante dos métodos: la determinación de la energía crítica, γc, por el método de Zisman y el cálculo de las componentes polar y dispersiva de la energía superficial mediante la aproximación de van Oss, Chaudhury y Good. Como estudio paralelo, se ha ensayado el efecto de la viscosidad del adhesivo y su velocidad de curado sobre unas muestras de aluminio con rugosidades diferentes. El estudio finaliza con las conclusiones que relacionan el tratamiento superficial y su influencia en el proceso de la adhesión, teniendo como elemento de referencia el efecto producido en las características topográficas y termodinámicas de la superficie.
Resumo:
This paper presents an ant colony optimization algorithm to sequence the mixed assembly lines considering the inventory and the replenishment of components. This is a NP-problem that cannot be solved to optimality by exact methods when the size of the problem growth. Groups of specialized ants are implemented to solve the different parts of the problem. This is intended to differentiate each part of the problem. Different types of pheromone structures are created to identify good car sequences, and good routes for the replenishment of components vehicle. The contribution of this paper is the collaborative approach of the ACO for the mixed assembly line and the replenishment of components and the jointly solution of the problem.
Resumo:
Entrevistas realizadas a Antonio Fernández Alba en el periódico ABC
Resumo:
La presente tesis aborda el estudio de los distintos regímenes de neutro de las instalaciones de baja tensión, comúnmente llamados sistemas de puesta a tierra, desde un doble punto de vista, con el objetivo final de establecer un estándar justificado para un posterior desarrollo normativo, y de diseño que facilite la operación y funcionamiento de la instalación eléctrica y de comunicaciones en los sistemas hospitalarios. En una primera parte de la tesis se detallará que aunque hay muchos estudios teórico-prácticos sobre la elección del régimen de neutro en base a criterios operativos y puramente eléctricos, criterios como seguridad frente a accidentes eléctricos, o en términos de disponibilidad, mantenimiento o fiabilidad, esas recomendaciones no se han trasladado de manera directa a la legislación española salvo en el caso de Salas de Intervención donde se obliga a un sistema IT. Por eso se justificará como una primera técnica correctora de un inadecuado funcionamiento electromagnético en Hospitales el establecer una propuesta de marco normativo donde se fijen los tipos de puesta a tierra en función del uso y tipología del edificio desde un punto de vista eléctrico Por otra parte, la influencia de los distintos regímenes de neutro en la transmisión de señales (compatibilidad magnética) no ha sido estudiada en toda su profundidad, no existiendo ni marco normativo obligado ni estudios en profundidad sobre estas afecciones. Por tanto y en una segunda parte de la tesis se propondrá como medida correctora para mejorar el funcionamiento electromagnético de un hospital qué el régimen de neutro TN-S es más respetuoso con el funcionamiento de los equipos de electromedicina que alberga en su interior, estableciendo así mismo una propuesta de norma que regule este diseño. En definitiva se justifica que es posible generar por diseño inicial de la red eléctrica, mediante un régimen de neutro TN-S, un contexto electromagnético óptimo para el funcionamiento del sistema hospitalario que no se logra con otras opciones contempladas en la normativa española. ABSTRACT This thesis deals with the study of various ground grid systems of low voltage installations, commonly called grounding systems, from two points of view, with the ultimate goal of establishing a standard justified from a policy perspective and design to facilitate the operation and functioning of the electrical system and hospital communications systems. In the first part of the thesis will be detailed that although there are many theoretical and practical studies on the choice of the neutral system based on operational criteria and purely electric, criteria such as safety against electrical accidents, or in terms of availability, maintenance and reliability, these recommendations have not been transferred directly to the Spanish legislation except in Intervention Rooms where a IT system is required. So be justified as a first corrective technique improper operation electromagnetic Hospitals proposal to establish a regulatory framework where ground types depending on the use and type of building are set from an electrical point of view . Moreover, the influence of the different regimes neutral signaling (magnetic compatibility) has not been studied in any depth, there being neither forced nor depth studies on these conditions regulatory framework. Thus in a second part of the thesis will be justified as a corrective measure to improve the electromagnetic performance of a hospital which the neutral TN-S is more respectful of the performance of medical electrical equipment housed in its interior, thus establishing same a proposed rule governing this design. Ultimately it is possible to generate justified by initial design of the grid, using a neutral system TN-S, electromagnetic optimal context for the operation of the hospital system is not achieved with other legal options in Spain.
Resumo:
En este artículo se sintetizan avances en la literatura relacionados con demandas, precios y costes del agua en distintos sectores, y el papel que los métodos y modelos económicos pueden jugar en el diseño de instrumentos y políticas eficientes para la gestión del agua en el nuevo contexto institucional definido por la DMA. Se analiza de forma específica la contribución de la Economía en la gestión del agua en la agricultura y en el uso urbano, y los distintos métodos para determinar el valor económico del agua en el medio ambiente. Tras esto se presenta el estado del arte de modelos que integran oferta y demanda a escala de cuenca acoplando hidrología, gestión y economía (modelos hidroeconómicos), y diversas aplicaciones a la resolución de problemas de gestión de recursos hídricos. Concluimos con un análisis de tendencias y retos futuros en el papel de los modelos y el análisis económico en la gestión de los recursos hídricos.
Resumo:
The operating theatres are the engine of the hospitals; proper management of the operating rooms and its staff represents a great challenge for managers and its results impact directly in the budget of the hospital. This work presents a MILP model for the efficient schedule of multiple surgeries in Operating Rooms (ORs) during a working day. This model considers multiple surgeons and ORs and different types of surgeries. Stochastic strategies are also implemented for taking into account the uncertain in surgery durations (pre-incision, incision, post-incision times). In addition, a heuristic-based methods and a MILP decomposition approach is proposed for solving large-scale ORs scheduling problems in computational efficient way. All these computer-aided strategies has been implemented in AIMMS, as an advanced modeling and optimization software, developing a user friendly solution tool for the operating room management under uncertainty.
Resumo:
Background: This study examined the daily surgical scheduling problem in a teaching hospital. This problem relates to the use of multiple operating rooms and different types of surgeons in a typical surgical day with deterministic operation durations (preincision, incision, and postincision times). Teaching hospitals play a key role in the health-care system; however, existing models assume that the duration of surgery is independent of the surgeon's skills. This problem has not been properly addressed in other studies. We analyze the case of a Spanish public hospital, in which continuous pressures and budgeting reductions entail the more efficient use of resources. Methods: To obtain an optimal solution for this problem, we developed a mixed-integer programming model and user-friendly interface that facilitate the scheduling of planned operations for the following surgical day. We also implemented a simulation model to assist the evaluation of different dispatching policies for surgeries and surgeons. The typical aspects we took into account were the type of surgeon, potential overtime, idling time of surgeons, and the use of operating rooms. Results: It is necessary to consider the expertise of a given surgeon when formulating a schedule: such skill can decrease the probability of delays that could affect subsequent surgeries or cause cancellation of the final surgery. We obtained optimal solutions for a set of given instances, which we obtained through surgical information related to acceptable times collected from a Spanish public hospital. Conclusions: We developed a computer-aided framework with a user-friendly interface for use by a surgical manager that presents a 3-D simulation of the problem. Additionally, we obtained an efficient formulation for this complex problem. However, the spread of this kind of operation research in Spanish public health hospitals will take a long time since there is a lack of knowledge of the beneficial techniques and possibilities that operational research can offer for the health-care system.
Resumo:
The inbound logistic for feeding the workstation inside the factory represents a critical issue in the car manufacturing industry. Nowadays, this issue is even more critical than in the past since more types of car are being produced in the assembly lines. Consequently, as workstations have to install many types of components, they also need to have an inventory of different types of the component in a compact space. The replenishment is a critical issue since a lack of inventory could cause line stoppage or reworking. On the other hand, an excess of inventory could increase the holding cost or even block the replenishment paths. The decision of the replenishment routes cannot be made without taking into consideration the inventory needed by each station during the production time which will depend on the production sequence. This problem deals with medium-sized instances and it is solved using online solvers. The contribution of this paper is a MILP for the replenishment and inventory of the components in a car assembly line.
Resumo:
Esta tesis aborda metodologías para el cálculo de riesgo de colisión de satélites. La minimización del riesgo de colisión se debe abordar desde dos puntos de vista distintos. Desde el punto de vista operacional, es necesario filtrar los objetos que pueden presentar un encuentro entre todos los objetos que comparten el espacio con un satélite operacional. Puesto que las órbitas, del objeto operacional y del objeto envuelto en la colisión, no se conocen perfectamente, la geometría del encuentro y el riesgo de colisión deben ser evaluados. De acuerdo con dicha geometría o riesgo, una maniobra evasiva puede ser necesaria para evitar la colisión. Dichas maniobras implican un consumo de combustible que impacta en la capacidad de mantenimiento orbital y por tanto de la visa útil del satélite. Por tanto, el combustible necesario a lo largo de la vida útil de un satélite debe ser estimado en fase de diseño de la misión para una correcta definición de su vida útil, especialmente para satélites orbitando en regímenes orbitales muy poblados. Los dos aspectos, diseño de misión y aspectos operacionales en relación con el riesgo de colisión están abordados en esta tesis y se resumen en la Figura 3. En relación con los aspectos relacionados con el diseño de misión (parte inferior de la figura), es necesario evaluar estadísticamente las características de de la población espacial y las teorías que permiten calcular el número medio de eventos encontrados por una misión y su capacidad de reducir riesgo de colisión. Estos dos aspectos definen los procedimientos más apropiados para reducir el riesgo de colisión en fase operacional. Este aspecto es abordado, comenzando por la teoría descrita en [Sánchez-Ortiz, 2006]T.14 e implementada por el autor de esta tesis en la herramienta ARES [Sánchez-Ortiz, 2004b]T.15 proporcionada por ESA para la evaluación de estrategias de evitación de colisión. Esta teoría es extendida en esta tesis para considerar las características de los datos orbitales disponibles en las fases operacionales de un satélite (sección 4.3.3). Además, esta teoría se ha extendido para considerar riesgo máximo de colisión cuando la incertidumbre de las órbitas de objetos catalogados no es conocida (como se da el caso para los TLE), y en el caso de querer sólo considerar riesgo de colisión catastrófico (sección 4.3.2.3). Dichas mejoras se han incluido en la nueva versión de ARES [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 puesta a disposición a través de [SDUP,2014]R.60. En fase operacional, los catálogos que proporcionan datos orbitales de los objetos espaciales, son procesados rutinariamente, para identificar posibles encuentros que se analizan en base a algoritmos de cálculo de riesgo de colisión para proponer maniobras de evasión. Actualmente existe una única fuente de datos públicos, el catálogo TLE (de sus siglas en inglés, Two Line Elements). Además, el Joint Space Operation Center (JSpOC) Americano proporciona mensajes con alertas de colisión (CSM) cuando el sistema de vigilancia americano identifica un posible encuentro. En función de los datos usados en fase operacional (TLE o CSM), la estrategia de evitación puede ser diferente debido a las características de dicha información. Es preciso conocer las principales características de los datos disponibles (respecto a la precisión de los datos orbitales) para estimar los posibles eventos de colisión encontrados por un satélite a lo largo de su vida útil. En caso de los TLE, cuya precisión orbital no es proporcionada, la información de precisión orbital derivada de un análisis estadístico se puede usar también en el proceso operacional así como en el diseño de la misión. En caso de utilizar CSM como base de las operaciones de evitación de colisiones, se conoce la precisión orbital de los dos objetos involucrados. Estas características se han analizado en detalle, evaluando estadísticamente las características de ambos tipos de datos. Una vez concluido dicho análisis, se ha analizado el impacto de utilizar TLE o CSM en las operaciones del satélite (sección 5.1). Este análisis se ha publicado en una revista especializada [Sánchez-Ortiz, 2015b]T.3. En dicho análisis, se proporcionan recomendaciones para distintas misiones (tamaño del satélite y régimen orbital) en relación con las estrategias de evitación de colisión para reducir el riesgo de colisión de manera significativa. Por ejemplo, en el caso de un satélite en órbita heliosíncrona en régimen orbital LEO, el valor típico del ACPL que se usa de manera extendida es 10-4. Este valor no es adecuado cuando los esquemas de evitación de colisión se realizan sobre datos TLE. En este caso, la capacidad de reducción de riesgo es prácticamente nula (debido a las grandes incertidumbres de los datos TLE) incluso para tiempos cortos de predicción. Para conseguir una reducción significativa del riesgo, sería necesario usar un ACPL en torno a 10-6 o inferior, produciendo unas 10 alarmas al año por satélite (considerando predicciones a un día) o 100 alarmas al año (con predicciones a tres días). Por tanto, la principal conclusión es la falta de idoneidad de los datos TLE para el cálculo de eventos de colisión. Al contrario, usando los datos CSM, debido a su mejor precisión orbital, se puede obtener una reducción significativa del riesgo con ACPL en torno a 10-4 (considerando 3 días de predicción). Incluso 5 días de predicción pueden ser considerados con ACPL en torno a 10-5. Incluso tiempos de predicción más largos se pueden usar (7 días) con reducción del 90% del riesgo y unas 5 alarmas al año (en caso de predicciones de 5 días, el número de maniobras se mantiene en unas 2 al año). La dinámica en GEO es diferente al caso LEO y hace que el crecimiento de las incertidumbres orbitales con el tiempo de propagación sea menor. Por el contrario, las incertidumbres derivadas de la determinación orbital son peores que en LEO por las diferencias en las capacidades de observación de uno y otro régimen orbital. Además, se debe considerar que los tiempos de predicción considerados para LEO pueden no ser apropiados para el caso de un satélite GEO (puesto que tiene un periodo orbital mayor). En este caso usando datos TLE, una reducción significativa del riesgo sólo se consigue con valores pequeños de ACPL, produciendo una alarma por año cuando los eventos de colisión se predicen a un día vista (tiempo muy corto para implementar maniobras de evitación de colisión).Valores más adecuados de ACPL se encuentran entre 5•10-8 y 10-7, muy por debajo de los valores usados en las operaciones actuales de la mayoría de las misiones GEO (de nuevo, no se recomienda en este régimen orbital basar las estrategias de evitación de colisión en TLE). Los datos CSM permiten una reducción de riesgo apropiada con ACPL entre 10-5 y 10-4 con tiempos de predicción cortos y medios (10-5 se recomienda para predicciones a 5 o 7 días). El número de maniobras realizadas sería una en 10 años de misión. Se debe notar que estos cálculos están realizados para un satélite de unos 2 metros de radio. En el futuro, otros sistemas de vigilancia espacial (como el programa SSA de la ESA), proporcionarán catálogos adicionales de objetos espaciales con el objetivo de reducir el riesgo de colisión de los satélites. Para definir dichos sistemas de vigilancia, es necesario identificar las prestaciones del catalogo en función de la reducción de riesgo que se pretende conseguir. Las características del catálogo que afectan principalmente a dicha capacidad son la cobertura (número de objetos incluidos en el catalogo, limitado principalmente por el tamaño mínimo de los objetos en función de las limitaciones de los sensores utilizados) y la precisión de los datos orbitales (derivada de las prestaciones de los sensores en relación con la precisión de las medidas y la capacidad de re-observación de los objetos). El resultado de dicho análisis (sección 5.2) se ha publicado en una revista especializada [Sánchez-Ortiz, 2015a]T.2. Este análisis no estaba inicialmente previsto durante la tesis, y permite mostrar como la teoría descrita en esta tesis, inicialmente definida para facilitar el diseño de misiones (parte superior de la figura 1) se ha extendido y se puede aplicar para otros propósitos como el dimensionado de un sistema de vigilancia espacial (parte inferior de la figura 1). La principal diferencia de los dos análisis se basa en considerar las capacidades de catalogación (precisión y tamaño de objetos observados) como una variable a modificar en el caso de un diseño de un sistema de vigilancia), siendo fijas en el caso de un diseño de misión. En el caso de las salidas generadas en el análisis, todos los aspectos calculados en un análisis estadístico de riesgo de colisión son importantes para diseño de misión (con el objetivo de calcular la estrategia de evitación y la cantidad de combustible a utilizar), mientras que en el caso de un diseño de un sistema de vigilancia, los aspectos más importantes son el número de maniobras y falsas alarmas (fiabilidad del sistema) y la capacidad de reducción de riesgo (efectividad del sistema). Adicionalmente, un sistema de vigilancia espacial debe ser caracterizado por su capacidad de evitar colisiones catastróficas (evitando así in incremento dramático de la población de basura espacial), mientras que el diseño de una misión debe considerar todo tipo de encuentros, puesto que un operador está interesado en evitar tanto las colisiones catastróficas como las letales. Del análisis de las prestaciones (tamaño de objetos a catalogar y precisión orbital) requeridas a un sistema de vigilancia espacial se concluye que ambos aspectos han de ser fijados de manera diferente para los distintos regímenes orbitales. En el caso de LEO se hace necesario observar objetos de hasta 5cm de radio, mientras que en GEO se rebaja este requisito hasta los 100 cm para cubrir las colisiones catastróficas. La razón principal para esta diferencia viene de las diferentes velocidades relativas entre los objetos en ambos regímenes orbitales. En relación con la precisión orbital, ésta ha de ser muy buena en LEO para poder reducir el número de falsas alarmas, mientras que en regímenes orbitales más altos se pueden considerar precisiones medias. En relación con los aspectos operaciones de la determinación de riesgo de colisión, existen varios algoritmos de cálculo de riesgo entre dos objetos espaciales. La Figura 2 proporciona un resumen de los casos en cuanto a algoritmos de cálculo de riesgo de colisión y como se abordan en esta tesis. Normalmente se consideran objetos esféricos para simplificar el cálculo de riesgo (caso A). Este caso está ampliamente abordado en la literatura y no se analiza en detalle en esta tesis. Un caso de ejemplo se proporciona en la sección 4.2. Considerar la forma real de los objetos (caso B) permite calcular el riesgo de una manera más precisa. Un nuevo algoritmo es definido en esta tesis para calcular el riesgo de colisión cuando al menos uno de los objetos se considera complejo (sección 4.4.2). Dicho algoritmo permite calcular el riesgo de colisión para objetos formados por un conjunto de cajas, y se ha presentado en varias conferencias internacionales. Para evaluar las prestaciones de dicho algoritmo, sus resultados se han comparado con un análisis de Monte Carlo que se ha definido para considerar colisiones entre cajas de manera adecuada (sección 4.1.2.3), pues la búsqueda de colisiones simples aplicables para objetos esféricos no es aplicable a este caso. Este análisis de Monte Carlo se considera la verdad a la hora de calcular los resultados del algoritmos, dicha comparativa se presenta en la sección 4.4.4. En el caso de satélites que no se pueden considerar esféricos, el uso de un modelo de la geometría del satélite permite descartar eventos que no son colisiones reales o estimar con mayor precisión el riesgo asociado a un evento. El uso de estos algoritmos con geometrías complejas es más relevante para objetos de dimensiones grandes debido a las prestaciones de precisión orbital actuales. En el futuro, si los sistemas de vigilancia mejoran y las órbitas son conocidas con mayor precisión, la importancia de considerar la geometría real de los satélites será cada vez más relevante. La sección 5.4 presenta un ejemplo para un sistema de grandes dimensiones (satélite con un tether). Adicionalmente, si los dos objetos involucrados en la colisión tienen velocidad relativa baja (y geometría simple, Caso C en la Figura 2), la mayor parte de los algoritmos no son aplicables requiriendo implementaciones dedicadas para este caso particular. En esta tesis, uno de estos algoritmos presentado en la literatura [Patera, 2001]R.26 se ha analizado para determinar su idoneidad en distintos tipos de eventos (sección 4.5). La evaluación frete a un análisis de Monte Carlo se proporciona en la sección 4.5.2. Tras este análisis, se ha considerado adecuado para abordar las colisiones de baja velocidad. En particular, se ha concluido que el uso de algoritmos dedicados para baja velocidad son necesarios en función del tamaño del volumen de colisión proyectado en el plano de encuentro (B-plane) y del tamaño de la incertidumbre asociada al vector posición entre los dos objetos. Para incertidumbres grandes, estos algoritmos se hacen más necesarios pues la duración del intervalo en que los elipsoides de error de los dos objetos pueden intersecar es mayor. Dicho algoritmo se ha probado integrando el algoritmo de colisión para objetos con geometrías complejas. El resultado de dicho análisis muestra que este algoritmo puede ser extendido fácilmente para considerar diferentes tipos de algoritmos de cálculo de riesgo de colisión (sección 4.5.3). Ambos algoritmos, junto con el método Monte Carlo para geometrías complejas, se han implementado en la herramienta operacional de la ESA CORAM, que es utilizada para evaluar el riesgo de colisión en las actividades rutinarias de los satélites operados por ESA [Sánchez-Ortiz, 2013a]T.11. Este hecho muestra el interés y relevancia de los algoritmos desarrollados para la mejora de las operaciones de los satélites. Dichos algoritmos han sido presentados en varias conferencias internacionales [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1. ABSTRACT This document addresses methodologies for computation of the collision risk of a satellite. Two different approaches need to be considered for collision risk minimisation. On an operational basis, it is needed to perform a sieve of possible objects approaching the satellite, among all objects sharing the space with an operational satellite. As the orbits of both, satellite and the eventual collider, are not perfectly known but only estimated, the miss-encounter geometry and the actual risk of collision shall be evaluated. In the basis of the encounter geometry or the risk, an eventual manoeuvre may be required to avoid the conjunction. Those manoeuvres will be associated to a reduction in the fuel for the mission orbit maintenance, and thus, may reduce the satellite operational lifetime. Thus, avoidance manoeuvre fuel budget shall be estimated, at mission design phase, for a better estimation of mission lifetime, especially for those satellites orbiting in very populated orbital regimes. These two aspects, mission design and operational collision risk aspects, are summarised in Figure 3, and covered along this thesis. Bottom part of the figure identifies the aspects to be consider for the mission design phase (statistical characterisation of the space object population data and theory computing the mean number of events and risk reduction capability) which will define the most appropriate collision avoidance approach at mission operational phase. This part is covered in this work by starting from the theory described in [Sánchez-Ortiz, 2006]T.14 and implemented by this author in ARES tool [Sánchez-Ortiz, 2004b]T.15 provided by ESA for evaluation of collision avoidance approaches. This methodology has been now extended to account for the particular features of the available data sets in operational environment (section 4.3.3). Additionally, the formulation has been extended to allow evaluating risk computation approached when orbital uncertainty is not available (like the TLE case) and when only catastrophic collisions are subject to study (section 4.3.2.3). These improvements to the theory have been included in the new version of ESA ARES tool [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 and available through [SDUP,2014]R.60. At the operation phase, the real catalogue data will be processed on a routine basis, with adequate collision risk computation algorithms to propose conjunction avoidance manoeuvre optimised for every event. The optimisation of manoeuvres in an operational basis is not approached along this document. Currently, American Two Line Element (TLE) catalogue is the only public source of data providing orbits of objects in space to identify eventual conjunction events. Additionally, Conjunction Summary Message (CSM) is provided by Joint Space Operation Center (JSpOC) when the American system identifies a possible collision among satellites and debris. Depending on the data used for collision avoidance evaluation, the conjunction avoidance approach may be different. The main features of currently available data need to be analysed (in regards to accuracy) in order to perform estimation of eventual encounters to be found along the mission lifetime. In the case of TLE, as these data is not provided with accuracy information, operational collision avoidance may be also based on statistical accuracy information as the one used in the mission design approach. This is not the case for CSM data, which includes the state vector and orbital accuracy of the two involved objects. This aspect has been analysed in detail and is depicted in the document, evaluating in statistical way the characteristics of both data sets in regards to the main aspects related to collision avoidance. Once the analysis of data set was completed, investigations on the impact of those features in the most convenient avoidance approaches have been addressed (section 5.1). This analysis is published in a peer-reviewed journal [Sánchez-Ortiz, 2015b]T.3. The analysis provides recommendations for different mission types (satellite size and orbital regime) in regards to the most appropriate collision avoidance approach for relevant risk reduction. The risk reduction capability is very much dependent on the accuracy of the catalogue utilized to identify eventual collisions. Approaches based on CSM data are recommended against the TLE based approach. Some approaches based on the maximum risk associated to envisaged encounters are demonstrated to report a very large number of events, which makes the approach not suitable for operational activities. Accepted Collision Probability Levels are recommended for the definition of the avoidance strategies for different mission types. For example for the case of a LEO satellite in the Sun-synchronous regime, the typically used ACPL value of 10-4 is not a suitable value for collision avoidance schemes based on TLE data. In this case the risk reduction capacity is almost null (due to the large uncertainties associated to TLE data sets, even for short time-to-event values). For significant reduction of risk when using TLE data, ACPL on the order of 10-6 (or lower) seems to be required, producing about 10 warnings per year and mission (if one-day ahead events are considered) or 100 warnings per year (for three-days ahead estimations). Thus, the main conclusion from these results is the lack of feasibility of TLE for a proper collision avoidance approach. On the contrary, for CSM data, and due to the better accuracy of the orbital information when compared with TLE, ACPL on the order of 10-4 allows to significantly reduce the risk. This is true for events estimated up to 3 days ahead. Even 5 days ahead events can be considered, but ACPL values down to 10-5 should be considered in such case. Even larger prediction times can be considered (7 days) for risk reduction about 90%, at the cost of larger number of warnings up to 5 events per year, when 5 days prediction allows to keep the manoeuvre rate in 2 manoeuvres per year. Dynamics of the GEO orbits is different to that in LEO, impacting on a lower increase of orbits uncertainty along time. On the contrary, uncertainties at short prediction times at this orbital regime are larger than those at LEO due to the differences in observation capabilities. Additionally, it has to be accounted that short prediction times feasible at LEO may not be appropriate for a GEO mission due to the orbital period being much larger at this regime. In the case of TLE data sets, significant reduction of risk is only achieved for small ACPL values, producing about a warning event per year if warnings are raised one day in advance to the event (too short for any reaction to be considered). Suitable ACPL values would lay in between 5•10-8 and 10-7, well below the normal values used in current operations for most of the GEO missions (TLE-based strategies for collision avoidance at this regime are not recommended). On the contrary, CSM data allows a good reduction of risk with ACPL in between 10-5 and 10-4 for short and medium prediction times. 10-5 is recommended for prediction times of five or seven days. The number of events raised for a suitable warning time of seven days would be about one in a 10-year mission. It must be noted, that these results are associated to a 2 m radius spacecraft, impact of the satellite size are also analysed within the thesis. In the future, other Space Situational Awareness Systems (SSA, ESA program) may provide additional catalogues of objects in space with the aim of reducing the risk. It is needed to investigate which are the required performances of those catalogues for allowing such risk reduction. The main performance aspects are coverage (objects included in the catalogue, mainly limited by a minimum object size derived from sensor performances) and the accuracy of the orbital data to accurately evaluate the conjunctions (derived from sensor performance in regards to object observation frequency and accuracy). The results of these investigations (section 5.2) are published in a peer-reviewed journal [Sánchez-Ortiz, 2015a]T.2. This aspect was not initially foreseen as objective of the thesis, but it shows how the theory described in the thesis, initially defined for mission design in regards to avoidance manoeuvre fuel allocation (upper part of figure 1), is extended and serves for additional purposes as dimensioning a Space Surveillance and Tracking (SST) system (bottom part of figure below). The main difference between the two approaches is the consideration of the catalogue features as part of the theory which are not modified (for the satellite mission design case) instead of being an input for the analysis (in the case of the SST design). In regards to the outputs, all the features computed by the statistical conjunction analysis are of importance for mission design (with the objective of proper global avoidance strategy definition and fuel allocation), whereas for the case of SST design, the most relevant aspects are the manoeuvre and false alarm rates (defining a reliable system) and the Risk Reduction capability (driving the effectiveness of the system). In regards to the methodology for computing the risk, the SST system shall be driven by the capacity of providing the means to avoid catastrophic conjunction events (avoiding the dramatic increase of the population), whereas the satellite mission design should consider all type of encounters, as the operator is interested on avoiding both lethal and catastrophic collisions. From the analysis of the SST features (object coverage and orbital uncertainty) for a reliable system, it is concluded that those two characteristics are to be imposed differently for the different orbital regimes, as the population level is different depending on the orbit type. Coverage values range from 5 cm for very populated LEO regime up to 100 cm in the case of GEO region. The difference on this requirement derives mainly from the relative velocity of the encounters at those regimes. Regarding the orbital knowledge of the catalogues, very accurate information is required for objects in the LEO region in order to limit the number of false alarms, whereas intermediate orbital accuracy can be considered for higher orbital regimes. In regards to the operational collision avoidance approaches, several collision risk algorithms are used for evaluation of collision risk of two pair of objects. Figure 2 provides a summary of the different collision risk algorithm cases and indicates how they are covered along this document. The typical case with high relative velocity is well covered in literature for the case of spherical objects (case A), with a large number of available algorithms, that are not analysed in detailed in this work. Only a sample case is provided in section 4.2. If complex geometries are considered (Case B), a more realistic risk evaluation can be computed. New approach for the evaluation of risk in the case of complex geometries is presented in this thesis (section 4.4.2), and it has been presented in several international conferences. The developed algorithm allows evaluating the risk for complex objects formed by a set of boxes. A dedicated Monte Carlo method has also been described (section 4.1.2.3) and implemented to allow the evaluation of the actual collisions among a large number of simulation shots. This Monte Carlo runs are considered the truth for comparison of the algorithm results (section 4.4.4). For spacecrafts that cannot be considered as spheres, the consideration of the real geometry of the objects may allow to discard events which are not real conjunctions, or estimate with larger reliability the risk associated to the event. This is of particular importance for the case of large spacecrafts as the uncertainty in positions of actual catalogues does not reach small values to make a difference for the case of objects below meter size. As the tracking systems improve and the orbits of catalogued objects are known more precisely, the importance of considering actual shapes of the objects will become more relevant. The particular case of a very large system (as a tethered satellite) is analysed in section 5.4. Additionally, if the two colliding objects have low relative velocity (and simple geometries, case C in figure above), the most common collision risk algorithms fail and adequate theories need to be applied. In this document, a low relative velocity algorithm presented in the literature [Patera, 2001]R.26 is described and evaluated (section 4.5). Evaluation through comparison with Monte Carlo approach is provided in section 4.5.2. The main conclusion of this analysis is the suitability of this algorithm for the most common encounter characteristics, and thus it is selected as adequate for collision risk estimation. Its performances are evaluated in order to characterise when it can be safely used for a large variety of encounter characteristics. In particular, it is found that the need of using dedicated algorithms depend on both the size of collision volume in the B-plane and the miss-distance uncertainty. For large uncertainties, the need of such algorithms is more relevant since for small uncertainties the encounter duration where the covariance ellipsoids intersect is smaller. Additionally, its application for the case of complex satellite geometries is assessed (case D in figure above) by integrating the developed algorithm in this thesis with Patera’s formulation for low relative velocity encounters. The results of this analysis show that the algorithm can be easily extended for collision risk estimation process suitable for complex geometry objects (section 4.5.3). The two algorithms, together with the Monte Carlo method, have been implemented in the operational tool CORAM for ESA which is used for the evaluation of collision risk of ESA operated missions, [Sánchez-Ortiz, 2013a]T.11. This fact shows the interest and relevance of the developed algorithms for improvement of satellite operations. The algorithms have been presented in several international conferences, [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1.
Resumo:
Este trabajo se ha centrado en la búsqueda y análisis de técnicas de saneamiento y depuración que proporcionen soluciones a poblaciones pequeñas, que por su situación económica o de desarrollo, carecen de estos servicios básicos. Es bien conocido los problemas que genera la falta de acceso al saneamiento básico en contextos de subdesarrollo, agravado en numerosos casos, por los incrementos en la dotación de agua sin introducir las infraestructuras para el tratamiento de las aguas residuales. Esta situación incide directamente sobre la salud de las personas y del medioambiente. Afortunadamente existen Organismos Internacionales y Agencias de Desarrollo y de Medioambiente, que intervienen directamente en estos temas. Los problemas no sólo se presentan en los llamados países en vías de desarrollo, sino que se ha comprobado que también afecta a poblaciones pequeñas con escasos recursos, del mundo más desarrollado. Muchas han sido las técnicas utilizadas con gran éxito en programas de cooperación, pero algunas han fracasado por pérdida de funcionalidad, por errores de diseño, por rápido deterioro de los materiales, o simplemente por falta de adaptabilidad al terreno o no previsión de controles y mantenimiento. La solución a estos eventos pasa por la innovación tanto tecnológica como de gestión, sin olvidar la componente socioeconómica y cultural. Tomar conciencia de un buen diseño adaptado a las características del terreno y de la población, evitaría fracasos por colapso, por falta de mantenimiento, de financiación etc. Por otra parte, se considera necesaria la implementación de programas educativos que incluyan mejoras en los hábitos higiénicos y el conocimiento de las infraestructuras que permitan a la población de destino, adquirir una formación sobre las propias instalaciones, su uso, su mantenimiento y conservación. El desarrollo y mejora de las técnicas de saneamiento y depuración requiere una continuidad en las investigaciones que facilite la adaptación de las instalaciones ya existentes a las diferentes coyunturas que puedan presentarse, garantizando su funcionamiento a largo plazo. Las técnicas denominadas “no convencionales” se caracterizan por ser soluciones económicas y sostenibles, que en algunos casos, requieren poco mantenimiento e incluso éste puede realizarse por personal no especializado, esto es, por los propios usuarios del servicio. Concretamente en el presente trabajo se ha llevado a cabo una revisión general de las tipologías conocidas, tanto convencionales como no convencionales y de su posible aplicación en función de la población de destino, con especial incidencia en las poblaciones más desfavorecidas. Una vez realizada, se han seleccionado las técnicas de saneamiento y depuración no convencionales por el interés personal en las poblaciones con mayores dificultades socioeconómicas. Se han estudiado distintas situaciones en diferentes países y contextos Nicaragua, Ecuador, India y España. Es en esta última, donde se han tenido más facilidades para la obtención de datos y análisis de los mismos, concretamente de la instalación del municipio de Fabara en la provincia de Zaragoza, situado en el Bajo Aragón. ABSTRACT The focus of this project lies on the research and analysis of sanitation and waste water treatment techniques able to provide solutions to small settlements which lack such basic services out of economic or underdevelopment reasons. The problems generated by the absence of access to basic sanitation services in underdevelopment contexts are well known, and many cases can be found where increase of water provision doesn’t involve installation of waste water treatment infrastructures. This situation has a direct impact on people’s health and also on the environment. Fortunately, there are International Organizations and Development Agencies which act directly on these matters. These problems don’t only occur in so called developing countries, as it has been confirmed that small settlements with scarce resources in the more developed world can also be affected. Many techniques have been successfully used in cooperation programs, but also some of them have failed due to loss of functionality, design mistakes, rapid material deterioration, or simply site inadequacy or lack of control and maintenance precautions. The solution to these incidents requires technological as well as management innovation, regarding for all cases the socioeconomic and cultural factors. The awareness of a good design, adapted to the site and population characteristics, would prevent from failures due to collapse, lack of maintenance, funding, etc. Furthermore, the implementation of education programs for improving hygienic habits and for transmitting the understanding of the infrastructures is considered necessary for allowing the aimed population to gain proper knowledge on their own infrastructure, its use, maintenance and preservation. The improvement of sanitation and waste water treatment techniques requires a continuous process of investigation, in order to adapt the existing infrastructure to the different situations that may come up, being able to ensure its long-term functioning. The so called non conventional techniques are characterized by being economic and sustainable solutions, requiring in some cases low maintenance, conducted even by non specialized personnel, that is, by the users themselves. In the present project a general overview of the already developed typologies has been carried out, taking into account the conventional as well as the non conven tional techniques and their possible application according to the aimed population, regarding especially the most underprivileged settlements. Thereupon, out of interest for the settlements with most socioeconomic difficulties, the non conventional sanitation and waste water techniques have been selected. A variety of situations in different countries and contexts has been examined, specifically in Nicaragua, Ecuador, India and Spain. The latest has proven easier for data collection and analysis, focusing finally on the existing infrastructure in the village of Fabara, province of Zaragoza, in the Bajo Aragón.
Resumo:
PURPOSE The decision-making process plays a key role in organizations. Every decision-making process produces a final choice that may or may not prompt action. Recurrently, decision makers find themselves in the dichotomous question of following a traditional sequence decision-making process where the output of a decision is used as the input of the next stage of the decision, or following a joint decision-making approach where several decisions are taken simultaneously. The implication of the decision-making process will impact different players of the organization. The choice of the decision- making approach becomes difficult to find, even with the current literature and practitioners’ knowledge. The pursuit of better ways for making decisions has been a common goal for academics and practitioners. Management scientists use different techniques and approaches to improve different types of decisions. The purpose of this decision is to use the available resources as well as possible (data and techniques) to achieve the objectives of the organization. The developing and applying of models and concepts may be helpful to solve managerial problems faced every day in different companies. As a result of this research different decision models are presented to contribute to the body of knowledge of management science. The first models are focused on the manufacturing industry and the second part of the models on the health care industry. Despite these models being case specific, they serve the purpose of exemplifying that different approaches to the problems and could provide interesting results. Unfortunately, there is no universal recipe that could be applied to all the problems. Furthermore, the same model could deliver good results with certain data and bad results for other data. A framework to analyse the data before selecting the model to be used is presented and tested in the models developed to exemplify the ideas. METHODOLOGY As the first step of the research a systematic literature review on the joint decision is presented, as are the different opinions and suggestions of different scholars. For the next stage of the thesis, the decision-making process of more than 50 companies was analysed in companies from different sectors in the production planning area at the Job Shop level. The data was obtained using surveys and face-to-face interviews. The following part of the research into the decision-making process was held in two application fields that are highly relevant for our society; manufacturing and health care. The first step was to study the interactions and develop a mathematical model for the replenishment of the car assembly where the problem of “Vehicle routing problem and Inventory” were combined. The next step was to add the scheduling or car production (car sequencing) decision and use some metaheuristics such as ant colony and genetic algorithms to measure if the behaviour is kept up with different case size problems. A similar approach is presented in a production of semiconductors and aviation parts, where a hoist has to change from one station to another to deal with the work, and a jobs schedule has to be done. However, for this problem simulation was used for experimentation. In parallel, the scheduling of operating rooms was studied. Surgeries were allocated to surgeons and the scheduling of operating rooms was analysed. The first part of the research was done in a Teaching hospital, and for the second part the interaction of uncertainty was added. Once the previous problem had been analysed a general framework to characterize the instance was built. In the final chapter a general conclusion is presented. FINDINGS AND PRACTICAL IMPLICATIONS The first part of the contributions is an update of the decision-making literature review. Also an analysis of the possible savings resulting from a change in the decision process is made. Then, the results of the survey, which present a lack of consistency between what the managers believe and the reality of the integration of their decisions. In the next stage of the thesis, a contribution to the body of knowledge of the operation research, with the joint solution of the replenishment, sequencing and inventory problem in the assembly line is made, together with a parallel work with the operating rooms scheduling where different solutions approaches are presented. In addition to the contribution of the solving methods, with the use of different techniques, the main contribution is the framework that is proposed to pre-evaluate the problem before thinking of the techniques to solve it. However, there is no straightforward answer as to whether it is better to have joint or sequential solutions. Following the proposed framework with the evaluation of factors such as the flexibility of the answer, the number of actors, and the tightness of the data, give us important hints as to the most suitable direction to take to tackle the problem. RESEARCH LIMITATIONS AND AVENUES FOR FUTURE RESEARCH In the first part of the work it was really complicated to calculate the possible savings of different projects, since in many papers these quantities are not reported or the impact is based on non-quantifiable benefits. The other issue is the confidentiality of many projects where the data cannot be presented. For the car assembly line problem more computational power would allow us to solve bigger instances. For the operation research problem there was a lack of historical data to perform a parallel analysis in the teaching hospital. In order to keep testing the decision framework it is necessary to keep applying more case studies in order to generalize the results and make them more evident and less ambiguous. The health care field offers great opportunities since despite the recent awareness of the need to improve the decision-making process there are many opportunities to improve. Another big difference with the automotive industry is that the last improvements are not spread among all the actors. Therefore, in the future this research will focus more on the collaboration between academia and the health care sector.