34 resultados para Operaciones de reducción


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Reducción del número de parcelas de muestreo al incorporar información auxiliar LiDAR en la estimación de variables dasométricas

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La mejora continua debería estar presente siempre en las empresas, dispongan o no de sistemas de gestión. Sin embargo, su aplicación en el sector de la construcción es especialmente difícil debido a las características particulares del mismo. Por este motivo se plantea el objetivo principal de esta Tesis Doctoral: “Establecer una metodología de trabajo que permita a las empresas constructoras implantar proyectos de mejora continua para incrementar la calidad de las viviendas entregadas a los usuarios”. En la investigación llevada a cabo se han inspeccionado 818 viviendas, recogiendo un total de 82.550 incidencias, las cuales se han analizado aplicando cuatro de las siete herramientas estadísticas básicas de la mejora continua (Hoja de recogida de datos, Estratificación, Histograma y Diagrama de Pareto), concluyendo que los tres oficios que concentran el 80% de los defectos, en los que convendría actuar para reducir de manera significativa los fallos de construcción en la fase de pre-entrega, son: Carpintería de Madera, Revestimientos Cerámicos e Instalación de Electricidad. De entre estos tres oficios se ha seleccionado el de Revestimientos Cerámicos para poner en práctica un proyecto de mejora continua. Analizando los datos relativos a este oficio se elabora un listado de 25 defectos tipo en los que se pueden agrupar todas las incidencias detectadas. Aplicando de nuevo las cuatro herramientas básicas de la calidad se destacan los 10 defectos tipo con mayor impacto en volumen de incidencias y en coste de reparación, para focalizar los esfuerzos de mejora. Con esta información se elabora un documento de criterios técnicos para la ejecución de los Revestimientos Cerámicos que se implanta, en parte, en varias obras para tratar de reducir los defectos detectados en las viviendas antes de la entrega a sus propietarios, y se definen unos Índices de Calidad para medir los resultados. Se toman datos de nuevo a 6 y 20 meses desde la implantación del protocolo, se analizan y se calculan los resultados del proyecto de mejora, concluyendo que se está avanzando positivamente. En base a toda la información recogida a lo largo del proceso de la investigación y de la experiencia del proyecto de mejora implantado, se presenta una propuesta de metodología para implementar proyectos de mejora, así como la documentación recomendada para su puesta en práctica, además de la documentación técnica específica para la prevención de los defectos de construcción en Revestimientos Cerámicos incluyendo las fichas de control para la recepción de materiales, control de ejecución y control de recepción del revestimiento terminado. ABSTRACT Continuous improvement should always be a core value in firms of all kinds, whether or not they implement management systems. Nevertheless, its application in the construction sector seems especially difficult due to its inherent intricacies and complexity. The study of this phenomenon is the main aim of the hereby presented PhD dissertation "Establishment of a working methodology that allows construction (related) firms to carry out projects of continuous improvement in order to increase the quality of housing upon delivery to the client". In the present research 818 housing units have been inspected, collecting a total of 82550 incidence entries, which have been analyzed by means of 4 out of the 7 basic statistical tools of continuous improvement: Data collection sheets, stratification, histogram, and Pareto diagram. The data shows that the 3 main trades where special actions should be taken in order to significantly reduce construction defects are: carpentry, ceramic cladding, and electricity systems. These trades combined account for the 80% of the total defects detected during the inspections. Among the mentioned works, ceramic tiling is selected as a continuous improvement case study project. Analysing data relative to this specific trade, a list of 25 defect types is developed. These types gather all detected defects under this group. Further applying the four statistical tools referred to above, the 10 most significant events are highlighted as to clearly determine the improvement measures. These events have the most impact on both volume of defects and reparation costs. This information is then put together in a document of technical criteria for the correct execution of ceramic tiling that is implemented in various ongoing projects under construction as to minimize the defects prior to the final delivery to the client. Also, a series of Quality Index are defined as criteria for execution suitability. 6 to 20 months after the implementation of this control protocol, the same process is repeated with the purpose of comparing results. It is concluded that a positive evolution takes place. Based both on the information collected throughout the research process and the experience of the case study, the dissertation proposes a methodology to successfully implement improvement projects along with reference documentation and specific technical documents for the prevention of construction defects in ceramic tiling, including (i) material reception control sheets, (ii) an execution control sheet, and a sheet relative to the (iii) control of the finished cladding.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este trabajo nos vamos a centrar en la metodolgía utilizada en la asignatura de Organización Industrial ya que se centra en el estudio de la dirección de operaciones, tema del IV Worshop OMTECH. Partimos de los estudios de Dobro et al.( 2011 )y de Dean & Jolly (2012) para proponer una nueva metodología en las aulas de Dirección de Operaciones, en general, y de Organización Industrial, en nuestro caso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El propósito de este artículo es desarrollar sobre una aplicación genérica PLM (Product Lifecycle Management), una solución que ayudará a las empresas proveedoras de servicios de ingeniería y fabricación del sector aeronáutico y renovables, a superar nuevos retos. En estos sectores los fabricantes de primer nivel (OEM?s) tienden a subcontratar el desarrollo y la fabricación de componentes a proveedores mediante paquetes de trabajo, como en el caso de los aerogeneradores. La gestión de dichos paquetes por los proveedores puede optimizarse mediante la implantación de una solución PLM. Esta herramienta es clave para garantizar el cumplimiento de los requerimientos del fabricante, y que el desarrollo de los paquetes se realizan en tiempo, coste y alcance. Una función a cubrir por la solución desarrollada sobre el PLM seleccionado será la Gestión de Programas y Proyectos. Es imprescindible que la solución aporte una Gestión de la Documentación que centralice todos los documentos, incluyendo entregables al cliente, de uso interno,? Para cumplir con las exigencias de calidad y normas de la industria, la aplicación contará con Gestión de la Configuración que asegure la validez de un producto obtenido durante cualquiera de las etapas del ciclo de vida, mediante control de cambios y última versión.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En general, la distribución de una flota de vehículos que recorre rutas fijas no se realiza completamente en base a criterios objetivos, primando otros aspectos. Este trabajo presenta una metodología para optimizar la distribución de una flota de vehículos a sus rutas, consiguiendo reducir el consumo y las emisiones. El método propuesto comprende: - Registro de las características cinemáticas de los vehículos que recorren un conjunto representativo de rutas. - Agrupamiento de las líneas en conglomerados de líneas similares empleando un algoritmo jerárquico que optimice el índice de semejanza entre rutas obtenido mediante contraste de hipótesis de las variables representativas. - Generación de un ciclo cinemático específico para cada conglomerado. - Tipificación de variables macroscópicas que faciliten la clasificación de las restantes líneas utilizando una red neuronal. - Conocimiento de las características de la flota disponible. - Uso de un modelo que estime, según la tecnología del vehículo, el consumo y las emisiones asociados a las variables cinemáticas de los ciclos. - Desarrollo de un algoritmo de reasignación de vehículos que optimice una función de coste dependiente de las emisiones. La metodología ha sido aplicada en 160 líneas de la EMT de Madrid, conociéndose los datos cinemáticos de 25 rutas. La redistribución de la flota contempla dos posibles escenarios para la función de coste.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El análisis de imágenes hiperespectrales permite obtener información con una gran resolución espectral: cientos de bandas repartidas desde el espectro infrarrojo hasta el ultravioleta. El uso de dichas imágenes está teniendo un gran impacto en el campo de la medicina y, en concreto, destaca su utilización en la detección de distintos tipos de cáncer. Dentro de este campo, uno de los principales problemas que existen actualmente es el análisis de dichas imágenes en tiempo real ya que, debido al gran volumen de datos que componen estas imágenes, la capacidad de cómputo requerida es muy elevada. Una de las principales líneas de investigación acerca de la reducción de dicho tiempo de procesado se basa en la idea de repartir su análisis en diversos núcleos trabajando en paralelo. En relación a esta línea de investigación, en el presente trabajo se desarrolla una librería para el lenguaje RVC – CAL – lenguaje que está especialmente pensado para aplicaciones multimedia y que permite realizar la paralelización de una manera intuitiva – donde se recogen las funciones necesarias para implementar dos de las cuatro fases propias del procesado espectral: reducción dimensional y extracción de endmembers. Cabe mencionar que este trabajo se complementa con el realizado por Raquel Lazcano en su Proyecto Fin de Grado, donde se desarrollan las funciones necesarias para completar las otras dos fases necesarias en la cadena de desmezclado. En concreto, este trabajo se encuentra dividido en varias partes. La primera de ellas expone razonadamente los motivos que han llevado a comenzar este Proyecto Fin de Grado y los objetivos que se pretenden conseguir con él. Tras esto, se hace un amplio estudio del estado del arte actual y, en él, se explican tanto las imágenes hiperespectrales como los medios y las plataformas que servirán para realizar la división en núcleos y detectar las distintas problemáticas con las que nos podamos encontrar al realizar dicha división. Una vez expuesta la base teórica, nos centraremos en la explicación del método seguido para componer la cadena de desmezclado y generar la librería; un punto importante en este apartado es la utilización de librerías especializadas en operaciones matriciales complejas, implementadas en C++. Tras explicar el método utilizado, se exponen los resultados obtenidos primero por etapas y, posteriormente, con la cadena de procesado completa, implementada en uno o varios núcleos. Por último, se aportan una serie de conclusiones obtenidas tras analizar los distintos algoritmos en cuanto a bondad de resultados, tiempos de procesado y consumo de recursos y se proponen una serie de posibles líneas de actuación futuras relacionadas con dichos resultados. ABSTRACT. Hyperspectral imaging allows us to collect high resolution spectral information: hundred of bands covering from infrared to ultraviolet spectrum. These images have had strong repercussions in the medical field; in particular, we must highlight its use in cancer detection. In this field, the main problem we have to deal with is the real time analysis, because these images have a great data volume and they require a high computational power. One of the main research lines that deals with this problem is related with the analysis of these images using several cores working at the same time. According to this investigation line, this document describes the development of a RVC – CAL library – this language has been widely used for working with multimedia applications and allows an optimized system parallelization –, which joins all the functions needed to implement two of the four stages of the hyperspectral imaging processing chain: dimensionality reduction and endmember extraction. This research is complemented with the research conducted by Raquel Lazcano in her Diploma Project, where she studies the other two stages of the processing chain. The document is divided in several chapters. The first of them introduces the motivation of the Diploma Project and the main objectives to achieve. After that, we study the state of the art of some technologies related with this work, like hyperspectral images and the software and hardware that we will use to parallelize the system and to analyze its performance. Once we have exposed the theoretical bases, we will explain the followed methodology to compose the processing chain and to generate the library; one of the most important issues in this chapter is the use of some C++ libraries specialized in complex matrix operations. At this point, we will expose the results obtained in the individual stage analysis and then, the results of the full processing chain implemented in one or several cores. Finally, we will extract some conclusions related with algorithm behavior, time processing and system performance. In the same way, we propose some future research lines according to the results obtained in this document

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El cambio climático y los diferentes aspectos del concepto dedesarrollo” están intrínsecamente interconectados. Por un lado, el desarrollo económico de nuestras sociedades ha contribuido a un aumento insostenible de las emisiones de gases de efecto invernadero, las cuales están desestabilizando el sistema climático global, generando al mismo tiempo una distribución desigual de la capacidad de las personas para hacer frente a estos cambios. Por otro lado, en la actualidad existe un amplio consenso sobre que el cambio climático impacta directamente y de manera negativa sobre el denominando desarrollo sostenible. De igual manera, cada vez existe un mayor consenso de que el cambio climático va a desafiar sustancialmente nuestra capacidad de erradicar la pobreza a medio y largo plazo. Ante esta realidad, no cabe duda de que las estrategias de adaptación son esenciales para mantener el desarrollo. Es por esto que hasta el momento, los mayores esfuerzos realizados por unir las agendas globales de la lucha contra la pobreza y del cambio climático se han dado en el entorno de la adaptación al cambio climático. Sin embargo, cada vez son más los actores que defienden, desde distintos escenarios, que existen sinergias entre la mitigación de emisiones y la mejora de las condiciones de vida de las poblaciones más vulnerables, favoreciendo así un “desarrollo sostenible” sin disminuir los recursos financieros destinados a la adaptación. Para hacer efectivo este potencial, es imprescindible identificar diseños de estrategias de mitigación que incrementen los resultados de desarrollo, contribuyendo al desarrollo sostenible al mismo tiempo que a reducir la pobreza. En este contexto se sitúa el objetivo principal de esta investigación, consistente en analizar los co-beneficios locales, para el desarrollo sostenible y la reducción la pobreza, de proyectos de mitigación del cambio climático que se implementan en Brasil. Por co-beneficios se entienden, en el lenguaje de las discusiones internacionales de cambio climático, aquellos beneficios que van más allá de la reducción de emisiones de Gases de Efecto Invernadero (GEI) intrínsecas por definición a los proyectos de mitigación. Los proyectos de mitigación más relevantes hasta el momento bajo el paraguas de la Convención Marco de las Naciones Unidas para el Cambio Climático (CMNUCC), son los denominados Mecanismos de Desarrollo Limpio (MDL) del Protocolo de Kioto. Sin embargo, existen alternativas de proyectos de mitigación (tales como los denominados “estándares adicionales” a los MDL de los Mercados Voluntarios de Carbono y las Tecnologías Sociales), que también serán tenidos en cuenta en el marco de este estudio. La elección del tema se justifica por la relevancia del mismo en un momento histórico en el que se está decidiendo el futuro del régimen climático a partir del año 2020. Aunque en el momento de redactar este documento, todavía no se ha acordado la forma que tendrán los futuros instrumentos de mitigación, sí que se sabe que los co-beneficios de estos instrumentos serán tan importantes, o incluso más, que las reducciones de GEI que generan. Esto se debe, principalmente, a las presiones realizadas en las negociaciones climáticas por parte de los países menos desarrollados, para los cuales el mayor incentivo de formar parte de dichas negociaciones se basa principalmente en estos potenciales co-beneficios. Los resultados de la tesis se estructuran alrededor de tres preguntas de investigación: ¿cómo están contribuyendo los MDL implementados en Brasil a generar co-beneficios que fomenten el desarrollo sostenible y reduzcan la pobreza?; ¿existen proyectos de mitigación en Brasil que por tener compromisos más exigentes en cuanto a su contribución al desarrollo sostenible y/o la reducción de la pobreza que los MDL estén siendo más eficientes que estos en relación a los co-beneficios que generan?; y ¿qué características de los proyectos de mitigación pueden resultar críticas para potenciar sus co-beneficios en las comunidades en las que se implementan? Para dar respuesta a estas preguntas, se ha desarrollado durante cuatro años una labor de investigación estructurada en varias fases y en la que se combinan diversas metodologías, que abarcan desde el desarrollo de un modelo de análisis de cobeneficios, hasta la aplicación del mismo tanto a nivel documental sobre 194 documentos de diseño de proyecto (denominado análisis ex-ante), como a través de 20 casos de estudio (denominado análisis ex-post). Con la realización de esta investigación, se ha confirmado que los requisitos existentes hasta el momento para registrar un proyecto como MDL bajo la CMNUCC no favorecen sustancialmente la generación de co-beneficios locales para las comunidades en las que se implementan. Adicionalmente, se han identificado prácticas y factores, que vinculadas a las actividades intrínsecas de los proyectos de mitigación, son efectivas para incrementar sus co-beneficios. Estas prácticas y factores podrán ser tenidas en cuenta tanto para mejorar los requisitos de los actuales proyectos MDL, como para apoyar la definición de los nuevos instrumentos climáticos. ABSTRACT Climate change and development are inextricably linked. On the one hand, the economic development of our societies has contributed to the unsustainable increase of Green House Gases emissions, which are destabilizing the global climate system while fostering an unequal distribution of people´s ability to cope with these changes. On the other hand, there is now a consensus that climate change directly impacts the so-called sustainable development. Likely, there is a growing agreement that climate change will substantially threaten our capacity to eradicate poverty in the medium and long term. Given this reality, there is no doubt that adaptation strategies are essentials to keep development. This is why, to date, much of the focus on poverty in the context of climate change has been on adaptation However, without diverting resources from adaptation, there may exist the potential to synergize efforts to mitigate emissions, contribute to sustainable development and reduce poverty. To fulfil this potential, it is key identifying how mitigation strategies can also support sustainable development and reduce poverty. In this context, the main purpose of this investigation is to explore the co-benefits, for sustainable development and for poverty reduction, of climate change mitigation projects being implemented in Brazil. In recent years the term co-benefits, has been used by policy makers and academics to refer the potentially large and diverse range of collateral benefits that can be associated with climate change mitigation policies in addition to the direct avoided climate impact benefits. The most relevant mitigation projects developed during the last years under the United Nations Framework Convention on Climate Change (UNFCCC) are the so-called Clean Development Mechanisms (CDM) of the Kyoto Protocol. Thus, this research will analyse this official mechanism. However, there are alternatives to the mitigation projects (such as the "add-on standards" of the Voluntary Carbon Markets, and the Social Technologies) that will also be assessed as part of the research. The selection of this research theme is justified because its relevance in a historic moment in which proposals for a future climate regime after 2020 are being negotiated. Although at the moment of writing this document, there is not a common understanding on the shape of the new mitigation instruments, there is a great agreement about the importance of the co-benefits of such instruments, which may be even more important for the Least Developed Countries that their expected greenhouse gases emissions reductions. The results of the thesis are structured around three research questions: how are the CDM projects being implemented in Brazil generating local co-benefits that foster sustainable development and poverty reduction?; are other mitigation projects in Brazil that due to their more stringent sustainable development and/o poverty reduction criteria, any more successful at delivering co-benefits than regular CDM projects?; and what are the distinguishing characteristics of mitigation projects that are successful at delivering co-benefits? To answer these research questions, during four years it has been developed a research work structured in several phases and combining various methodologies. Those methodologies cover from the development of a co-benefits assessment model, to the application of such model both to a desktop analysis of 194 project design documents, and to 20 case studies using field data based on site visits to the project sites. With the completion of this research, it has been confirmed that current requirements to register a CDM project under the UNFCCC not substantially favour co-benefits at the local level. In addition, some practices and factors enablers of co-benefits have been identified. These characteristics may be taken into consideration to improve the current CDM and to support the definition of the new international market mechanisms for climate mitigation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Walker et al. ([19], [20]) definieron dos familias de operaciones binarias sobre M (conjunto de las funciones de [0,1] en [0,1]), y determinaron que, bajo ciertas condiciones, estas operaciones son tnormas (normas triangulares) o t-conormas sobre L (subconjunto de las funciones normales y convexas de M). En este trabajo se introducen dos operaciones binarias sobre M, diferentes a las dadas por Walker et al., y se estudian varias propiedades de las mismas, con el objeto de deducir nuevas t-normas y t-conormas sobre L y sobre M.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se analiza la presencia de diferentes psicofármacos en el agua residual y los rendimientos de eliminación obtenidos en una depuradora convencional. Los psicofármacos prácticamente no se eliminan en el tratamiento biológico. Sin embargo, se ha obtenido una biodegradación considerable debido al tipo de compuesto y de la edad del fango. Además se estudian las retenciones de estos compuestos empleando tratamientos terciarios convencionales y plantas piloto de ultrafiltración y nanofiltración. Las eliminaciones obtenidas no difieren demasiado de un tipo de membrana a otro a pesar del diferente tamaño de paso entre ellas

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tesis aborda metodologías para el cálculo de riesgo de colisión de satélites. La minimización del riesgo de colisión se debe abordar desde dos puntos de vista distintos. Desde el punto de vista operacional, es necesario filtrar los objetos que pueden presentar un encuentro entre todos los objetos que comparten el espacio con un satélite operacional. Puesto que las órbitas, del objeto operacional y del objeto envuelto en la colisión, no se conocen perfectamente, la geometría del encuentro y el riesgo de colisión deben ser evaluados. De acuerdo con dicha geometría o riesgo, una maniobra evasiva puede ser necesaria para evitar la colisión. Dichas maniobras implican un consumo de combustible que impacta en la capacidad de mantenimiento orbital y por tanto de la visa útil del satélite. Por tanto, el combustible necesario a lo largo de la vida útil de un satélite debe ser estimado en fase de diseño de la misión para una correcta definición de su vida útil, especialmente para satélites orbitando en regímenes orbitales muy poblados. Los dos aspectos, diseño de misión y aspectos operacionales en relación con el riesgo de colisión están abordados en esta tesis y se resumen en la Figura 3. En relación con los aspectos relacionados con el diseño de misión (parte inferior de la figura), es necesario evaluar estadísticamente las características de de la población espacial y las teorías que permiten calcular el número medio de eventos encontrados por una misión y su capacidad de reducir riesgo de colisión. Estos dos aspectos definen los procedimientos más apropiados para reducir el riesgo de colisión en fase operacional. Este aspecto es abordado, comenzando por la teoría descrita en [Sánchez-Ortiz, 2006]T.14 e implementada por el autor de esta tesis en la herramienta ARES [Sánchez-Ortiz, 2004b]T.15 proporcionada por ESA para la evaluación de estrategias de evitación de colisión. Esta teoría es extendida en esta tesis para considerar las características de los datos orbitales disponibles en las fases operacionales de un satélite (sección 4.3.3). Además, esta teoría se ha extendido para considerar riesgo máximo de colisión cuando la incertidumbre de las órbitas de objetos catalogados no es conocida (como se da el caso para los TLE), y en el caso de querer sólo considerar riesgo de colisión catastrófico (sección 4.3.2.3). Dichas mejoras se han incluido en la nueva versión de ARES [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 puesta a disposición a través de [SDUP,2014]R.60. En fase operacional, los catálogos que proporcionan datos orbitales de los objetos espaciales, son procesados rutinariamente, para identificar posibles encuentros que se analizan en base a algoritmos de cálculo de riesgo de colisión para proponer maniobras de evasión. Actualmente existe una única fuente de datos públicos, el catálogo TLE (de sus siglas en inglés, Two Line Elements). Además, el Joint Space Operation Center (JSpOC) Americano proporciona mensajes con alertas de colisión (CSM) cuando el sistema de vigilancia americano identifica un posible encuentro. En función de los datos usados en fase operacional (TLE o CSM), la estrategia de evitación puede ser diferente debido a las características de dicha información. Es preciso conocer las principales características de los datos disponibles (respecto a la precisión de los datos orbitales) para estimar los posibles eventos de colisión encontrados por un satélite a lo largo de su vida útil. En caso de los TLE, cuya precisión orbital no es proporcionada, la información de precisión orbital derivada de un análisis estadístico se puede usar también en el proceso operacional así como en el diseño de la misión. En caso de utilizar CSM como base de las operaciones de evitación de colisiones, se conoce la precisión orbital de los dos objetos involucrados. Estas características se han analizado en detalle, evaluando estadísticamente las características de ambos tipos de datos. Una vez concluido dicho análisis, se ha analizado el impacto de utilizar TLE o CSM en las operaciones del satélite (sección 5.1). Este análisis se ha publicado en una revista especializada [Sánchez-Ortiz, 2015b]T.3. En dicho análisis, se proporcionan recomendaciones para distintas misiones (tamaño del satélite y régimen orbital) en relación con las estrategias de evitación de colisión para reducir el riesgo de colisión de manera significativa. Por ejemplo, en el caso de un satélite en órbita heliosíncrona en régimen orbital LEO, el valor típico del ACPL que se usa de manera extendida es 10-4. Este valor no es adecuado cuando los esquemas de evitación de colisión se realizan sobre datos TLE. En este caso, la capacidad de reducción de riesgo es prácticamente nula (debido a las grandes incertidumbres de los datos TLE) incluso para tiempos cortos de predicción. Para conseguir una reducción significativa del riesgo, sería necesario usar un ACPL en torno a 10-6 o inferior, produciendo unas 10 alarmas al año por satélite (considerando predicciones a un día) o 100 alarmas al año (con predicciones a tres días). Por tanto, la principal conclusión es la falta de idoneidad de los datos TLE para el cálculo de eventos de colisión. Al contrario, usando los datos CSM, debido a su mejor precisión orbital, se puede obtener una reducción significativa del riesgo con ACPL en torno a 10-4 (considerando 3 días de predicción). Incluso 5 días de predicción pueden ser considerados con ACPL en torno a 10-5. Incluso tiempos de predicción más largos se pueden usar (7 días) con reducción del 90% del riesgo y unas 5 alarmas al año (en caso de predicciones de 5 días, el número de maniobras se mantiene en unas 2 al año). La dinámica en GEO es diferente al caso LEO y hace que el crecimiento de las incertidumbres orbitales con el tiempo de propagación sea menor. Por el contrario, las incertidumbres derivadas de la determinación orbital son peores que en LEO por las diferencias en las capacidades de observación de uno y otro régimen orbital. Además, se debe considerar que los tiempos de predicción considerados para LEO pueden no ser apropiados para el caso de un satélite GEO (puesto que tiene un periodo orbital mayor). En este caso usando datos TLE, una reducción significativa del riesgo sólo se consigue con valores pequeños de ACPL, produciendo una alarma por año cuando los eventos de colisión se predicen a un día vista (tiempo muy corto para implementar maniobras de evitación de colisión).Valores más adecuados de ACPL se encuentran entre 5•10-8 y 10-7, muy por debajo de los valores usados en las operaciones actuales de la mayoría de las misiones GEO (de nuevo, no se recomienda en este régimen orbital basar las estrategias de evitación de colisión en TLE). Los datos CSM permiten una reducción de riesgo apropiada con ACPL entre 10-5 y 10-4 con tiempos de predicción cortos y medios (10-5 se recomienda para predicciones a 5 o 7 días). El número de maniobras realizadas sería una en 10 años de misión. Se debe notar que estos cálculos están realizados para un satélite de unos 2 metros de radio. En el futuro, otros sistemas de vigilancia espacial (como el programa SSA de la ESA), proporcionarán catálogos adicionales de objetos espaciales con el objetivo de reducir el riesgo de colisión de los satélites. Para definir dichos sistemas de vigilancia, es necesario identificar las prestaciones del catalogo en función de la reducción de riesgo que se pretende conseguir. Las características del catálogo que afectan principalmente a dicha capacidad son la cobertura (número de objetos incluidos en el catalogo, limitado principalmente por el tamaño mínimo de los objetos en función de las limitaciones de los sensores utilizados) y la precisión de los datos orbitales (derivada de las prestaciones de los sensores en relación con la precisión de las medidas y la capacidad de re-observación de los objetos). El resultado de dicho análisis (sección 5.2) se ha publicado en una revista especializada [Sánchez-Ortiz, 2015a]T.2. Este análisis no estaba inicialmente previsto durante la tesis, y permite mostrar como la teoría descrita en esta tesis, inicialmente definida para facilitar el diseño de misiones (parte superior de la figura 1) se ha extendido y se puede aplicar para otros propósitos como el dimensionado de un sistema de vigilancia espacial (parte inferior de la figura 1). La principal diferencia de los dos análisis se basa en considerar las capacidades de catalogación (precisión y tamaño de objetos observados) como una variable a modificar en el caso de un diseño de un sistema de vigilancia), siendo fijas en el caso de un diseño de misión. En el caso de las salidas generadas en el análisis, todos los aspectos calculados en un análisis estadístico de riesgo de colisión son importantes para diseño de misión (con el objetivo de calcular la estrategia de evitación y la cantidad de combustible a utilizar), mientras que en el caso de un diseño de un sistema de vigilancia, los aspectos más importantes son el número de maniobras y falsas alarmas (fiabilidad del sistema) y la capacidad de reducción de riesgo (efectividad del sistema). Adicionalmente, un sistema de vigilancia espacial debe ser caracterizado por su capacidad de evitar colisiones catastróficas (evitando así in incremento dramático de la población de basura espacial), mientras que el diseño de una misión debe considerar todo tipo de encuentros, puesto que un operador está interesado en evitar tanto las colisiones catastróficas como las letales. Del análisis de las prestaciones (tamaño de objetos a catalogar y precisión orbital) requeridas a un sistema de vigilancia espacial se concluye que ambos aspectos han de ser fijados de manera diferente para los distintos regímenes orbitales. En el caso de LEO se hace necesario observar objetos de hasta 5cm de radio, mientras que en GEO se rebaja este requisito hasta los 100 cm para cubrir las colisiones catastróficas. La razón principal para esta diferencia viene de las diferentes velocidades relativas entre los objetos en ambos regímenes orbitales. En relación con la precisión orbital, ésta ha de ser muy buena en LEO para poder reducir el número de falsas alarmas, mientras que en regímenes orbitales más altos se pueden considerar precisiones medias. En relación con los aspectos operaciones de la determinación de riesgo de colisión, existen varios algoritmos de cálculo de riesgo entre dos objetos espaciales. La Figura 2 proporciona un resumen de los casos en cuanto a algoritmos de cálculo de riesgo de colisión y como se abordan en esta tesis. Normalmente se consideran objetos esféricos para simplificar el cálculo de riesgo (caso A). Este caso está ampliamente abordado en la literatura y no se analiza en detalle en esta tesis. Un caso de ejemplo se proporciona en la sección 4.2. Considerar la forma real de los objetos (caso B) permite calcular el riesgo de una manera más precisa. Un nuevo algoritmo es definido en esta tesis para calcular el riesgo de colisión cuando al menos uno de los objetos se considera complejo (sección 4.4.2). Dicho algoritmo permite calcular el riesgo de colisión para objetos formados por un conjunto de cajas, y se ha presentado en varias conferencias internacionales. Para evaluar las prestaciones de dicho algoritmo, sus resultados se han comparado con un análisis de Monte Carlo que se ha definido para considerar colisiones entre cajas de manera adecuada (sección 4.1.2.3), pues la búsqueda de colisiones simples aplicables para objetos esféricos no es aplicable a este caso. Este análisis de Monte Carlo se considera la verdad a la hora de calcular los resultados del algoritmos, dicha comparativa se presenta en la sección 4.4.4. En el caso de satélites que no se pueden considerar esféricos, el uso de un modelo de la geometría del satélite permite descartar eventos que no son colisiones reales o estimar con mayor precisión el riesgo asociado a un evento. El uso de estos algoritmos con geometrías complejas es más relevante para objetos de dimensiones grandes debido a las prestaciones de precisión orbital actuales. En el futuro, si los sistemas de vigilancia mejoran y las órbitas son conocidas con mayor precisión, la importancia de considerar la geometría real de los satélites será cada vez más relevante. La sección 5.4 presenta un ejemplo para un sistema de grandes dimensiones (satélite con un tether). Adicionalmente, si los dos objetos involucrados en la colisión tienen velocidad relativa baja (y geometría simple, Caso C en la Figura 2), la mayor parte de los algoritmos no son aplicables requiriendo implementaciones dedicadas para este caso particular. En esta tesis, uno de estos algoritmos presentado en la literatura [Patera, 2001]R.26 se ha analizado para determinar su idoneidad en distintos tipos de eventos (sección 4.5). La evaluación frete a un análisis de Monte Carlo se proporciona en la sección 4.5.2. Tras este análisis, se ha considerado adecuado para abordar las colisiones de baja velocidad. En particular, se ha concluido que el uso de algoritmos dedicados para baja velocidad son necesarios en función del tamaño del volumen de colisión proyectado en el plano de encuentro (B-plane) y del tamaño de la incertidumbre asociada al vector posición entre los dos objetos. Para incertidumbres grandes, estos algoritmos se hacen más necesarios pues la duración del intervalo en que los elipsoides de error de los dos objetos pueden intersecar es mayor. Dicho algoritmo se ha probado integrando el algoritmo de colisión para objetos con geometrías complejas. El resultado de dicho análisis muestra que este algoritmo puede ser extendido fácilmente para considerar diferentes tipos de algoritmos de cálculo de riesgo de colisión (sección 4.5.3). Ambos algoritmos, junto con el método Monte Carlo para geometrías complejas, se han implementado en la herramienta operacional de la ESA CORAM, que es utilizada para evaluar el riesgo de colisión en las actividades rutinarias de los satélites operados por ESA [Sánchez-Ortiz, 2013a]T.11. Este hecho muestra el interés y relevancia de los algoritmos desarrollados para la mejora de las operaciones de los satélites. Dichos algoritmos han sido presentados en varias conferencias internacionales [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1. ABSTRACT This document addresses methodologies for computation of the collision risk of a satellite. Two different approaches need to be considered for collision risk minimisation. On an operational basis, it is needed to perform a sieve of possible objects approaching the satellite, among all objects sharing the space with an operational satellite. As the orbits of both, satellite and the eventual collider, are not perfectly known but only estimated, the miss-encounter geometry and the actual risk of collision shall be evaluated. In the basis of the encounter geometry or the risk, an eventual manoeuvre may be required to avoid the conjunction. Those manoeuvres will be associated to a reduction in the fuel for the mission orbit maintenance, and thus, may reduce the satellite operational lifetime. Thus, avoidance manoeuvre fuel budget shall be estimated, at mission design phase, for a better estimation of mission lifetime, especially for those satellites orbiting in very populated orbital regimes. These two aspects, mission design and operational collision risk aspects, are summarised in Figure 3, and covered along this thesis. Bottom part of the figure identifies the aspects to be consider for the mission design phase (statistical characterisation of the space object population data and theory computing the mean number of events and risk reduction capability) which will define the most appropriate collision avoidance approach at mission operational phase. This part is covered in this work by starting from the theory described in [Sánchez-Ortiz, 2006]T.14 and implemented by this author in ARES tool [Sánchez-Ortiz, 2004b]T.15 provided by ESA for evaluation of collision avoidance approaches. This methodology has been now extended to account for the particular features of the available data sets in operational environment (section 4.3.3). Additionally, the formulation has been extended to allow evaluating risk computation approached when orbital uncertainty is not available (like the TLE case) and when only catastrophic collisions are subject to study (section 4.3.2.3). These improvements to the theory have been included in the new version of ESA ARES tool [Domínguez-González and Sánchez-Ortiz, 2012b]T.12 and available through [SDUP,2014]R.60. At the operation phase, the real catalogue data will be processed on a routine basis, with adequate collision risk computation algorithms to propose conjunction avoidance manoeuvre optimised for every event. The optimisation of manoeuvres in an operational basis is not approached along this document. Currently, American Two Line Element (TLE) catalogue is the only public source of data providing orbits of objects in space to identify eventual conjunction events. Additionally, Conjunction Summary Message (CSM) is provided by Joint Space Operation Center (JSpOC) when the American system identifies a possible collision among satellites and debris. Depending on the data used for collision avoidance evaluation, the conjunction avoidance approach may be different. The main features of currently available data need to be analysed (in regards to accuracy) in order to perform estimation of eventual encounters to be found along the mission lifetime. In the case of TLE, as these data is not provided with accuracy information, operational collision avoidance may be also based on statistical accuracy information as the one used in the mission design approach. This is not the case for CSM data, which includes the state vector and orbital accuracy of the two involved objects. This aspect has been analysed in detail and is depicted in the document, evaluating in statistical way the characteristics of both data sets in regards to the main aspects related to collision avoidance. Once the analysis of data set was completed, investigations on the impact of those features in the most convenient avoidance approaches have been addressed (section 5.1). This analysis is published in a peer-reviewed journal [Sánchez-Ortiz, 2015b]T.3. The analysis provides recommendations for different mission types (satellite size and orbital regime) in regards to the most appropriate collision avoidance approach for relevant risk reduction. The risk reduction capability is very much dependent on the accuracy of the catalogue utilized to identify eventual collisions. Approaches based on CSM data are recommended against the TLE based approach. Some approaches based on the maximum risk associated to envisaged encounters are demonstrated to report a very large number of events, which makes the approach not suitable for operational activities. Accepted Collision Probability Levels are recommended for the definition of the avoidance strategies for different mission types. For example for the case of a LEO satellite in the Sun-synchronous regime, the typically used ACPL value of 10-4 is not a suitable value for collision avoidance schemes based on TLE data. In this case the risk reduction capacity is almost null (due to the large uncertainties associated to TLE data sets, even for short time-to-event values). For significant reduction of risk when using TLE data, ACPL on the order of 10-6 (or lower) seems to be required, producing about 10 warnings per year and mission (if one-day ahead events are considered) or 100 warnings per year (for three-days ahead estimations). Thus, the main conclusion from these results is the lack of feasibility of TLE for a proper collision avoidance approach. On the contrary, for CSM data, and due to the better accuracy of the orbital information when compared with TLE, ACPL on the order of 10-4 allows to significantly reduce the risk. This is true for events estimated up to 3 days ahead. Even 5 days ahead events can be considered, but ACPL values down to 10-5 should be considered in such case. Even larger prediction times can be considered (7 days) for risk reduction about 90%, at the cost of larger number of warnings up to 5 events per year, when 5 days prediction allows to keep the manoeuvre rate in 2 manoeuvres per year. Dynamics of the GEO orbits is different to that in LEO, impacting on a lower increase of orbits uncertainty along time. On the contrary, uncertainties at short prediction times at this orbital regime are larger than those at LEO due to the differences in observation capabilities. Additionally, it has to be accounted that short prediction times feasible at LEO may not be appropriate for a GEO mission due to the orbital period being much larger at this regime. In the case of TLE data sets, significant reduction of risk is only achieved for small ACPL values, producing about a warning event per year if warnings are raised one day in advance to the event (too short for any reaction to be considered). Suitable ACPL values would lay in between 5•10-8 and 10-7, well below the normal values used in current operations for most of the GEO missions (TLE-based strategies for collision avoidance at this regime are not recommended). On the contrary, CSM data allows a good reduction of risk with ACPL in between 10-5 and 10-4 for short and medium prediction times. 10-5 is recommended for prediction times of five or seven days. The number of events raised for a suitable warning time of seven days would be about one in a 10-year mission. It must be noted, that these results are associated to a 2 m radius spacecraft, impact of the satellite size are also analysed within the thesis. In the future, other Space Situational Awareness Systems (SSA, ESA program) may provide additional catalogues of objects in space with the aim of reducing the risk. It is needed to investigate which are the required performances of those catalogues for allowing such risk reduction. The main performance aspects are coverage (objects included in the catalogue, mainly limited by a minimum object size derived from sensor performances) and the accuracy of the orbital data to accurately evaluate the conjunctions (derived from sensor performance in regards to object observation frequency and accuracy). The results of these investigations (section 5.2) are published in a peer-reviewed journal [Sánchez-Ortiz, 2015a]T.2. This aspect was not initially foreseen as objective of the thesis, but it shows how the theory described in the thesis, initially defined for mission design in regards to avoidance manoeuvre fuel allocation (upper part of figure 1), is extended and serves for additional purposes as dimensioning a Space Surveillance and Tracking (SST) system (bottom part of figure below). The main difference between the two approaches is the consideration of the catalogue features as part of the theory which are not modified (for the satellite mission design case) instead of being an input for the analysis (in the case of the SST design). In regards to the outputs, all the features computed by the statistical conjunction analysis are of importance for mission design (with the objective of proper global avoidance strategy definition and fuel allocation), whereas for the case of SST design, the most relevant aspects are the manoeuvre and false alarm rates (defining a reliable system) and the Risk Reduction capability (driving the effectiveness of the system). In regards to the methodology for computing the risk, the SST system shall be driven by the capacity of providing the means to avoid catastrophic conjunction events (avoiding the dramatic increase of the population), whereas the satellite mission design should consider all type of encounters, as the operator is interested on avoiding both lethal and catastrophic collisions. From the analysis of the SST features (object coverage and orbital uncertainty) for a reliable system, it is concluded that those two characteristics are to be imposed differently for the different orbital regimes, as the population level is different depending on the orbit type. Coverage values range from 5 cm for very populated LEO regime up to 100 cm in the case of GEO region. The difference on this requirement derives mainly from the relative velocity of the encounters at those regimes. Regarding the orbital knowledge of the catalogues, very accurate information is required for objects in the LEO region in order to limit the number of false alarms, whereas intermediate orbital accuracy can be considered for higher orbital regimes. In regards to the operational collision avoidance approaches, several collision risk algorithms are used for evaluation of collision risk of two pair of objects. Figure 2 provides a summary of the different collision risk algorithm cases and indicates how they are covered along this document. The typical case with high relative velocity is well covered in literature for the case of spherical objects (case A), with a large number of available algorithms, that are not analysed in detailed in this work. Only a sample case is provided in section 4.2. If complex geometries are considered (Case B), a more realistic risk evaluation can be computed. New approach for the evaluation of risk in the case of complex geometries is presented in this thesis (section 4.4.2), and it has been presented in several international conferences. The developed algorithm allows evaluating the risk for complex objects formed by a set of boxes. A dedicated Monte Carlo method has also been described (section 4.1.2.3) and implemented to allow the evaluation of the actual collisions among a large number of simulation shots. This Monte Carlo runs are considered the truth for comparison of the algorithm results (section 4.4.4). For spacecrafts that cannot be considered as spheres, the consideration of the real geometry of the objects may allow to discard events which are not real conjunctions, or estimate with larger reliability the risk associated to the event. This is of particular importance for the case of large spacecrafts as the uncertainty in positions of actual catalogues does not reach small values to make a difference for the case of objects below meter size. As the tracking systems improve and the orbits of catalogued objects are known more precisely, the importance of considering actual shapes of the objects will become more relevant. The particular case of a very large system (as a tethered satellite) is analysed in section 5.4. Additionally, if the two colliding objects have low relative velocity (and simple geometries, case C in figure above), the most common collision risk algorithms fail and adequate theories need to be applied. In this document, a low relative velocity algorithm presented in the literature [Patera, 2001]R.26 is described and evaluated (section 4.5). Evaluation through comparison with Monte Carlo approach is provided in section 4.5.2. The main conclusion of this analysis is the suitability of this algorithm for the most common encounter characteristics, and thus it is selected as adequate for collision risk estimation. Its performances are evaluated in order to characterise when it can be safely used for a large variety of encounter characteristics. In particular, it is found that the need of using dedicated algorithms depend on both the size of collision volume in the B-plane and the miss-distance uncertainty. For large uncertainties, the need of such algorithms is more relevant since for small uncertainties the encounter duration where the covariance ellipsoids intersect is smaller. Additionally, its application for the case of complex satellite geometries is assessed (case D in figure above) by integrating the developed algorithm in this thesis with Patera’s formulation for low relative velocity encounters. The results of this analysis show that the algorithm can be easily extended for collision risk estimation process suitable for complex geometry objects (section 4.5.3). The two algorithms, together with the Monte Carlo method, have been implemented in the operational tool CORAM for ESA which is used for the evaluation of collision risk of ESA operated missions, [Sánchez-Ortiz, 2013a]T.11. This fact shows the interest and relevance of the developed algorithms for improvement of satellite operations. The algorithms have been presented in several international conferences, [Sánchez-Ortiz, 2013b]T.9, [Pulido, 2014]T.7,[Grande-Olalla, 2013]T.10, [Pulido, 2014]T.5, [Sánchez-Ortiz, 2015c]T.1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La dinámica estructural estudia la respuesta de una estructura ante cargas o fenómenos variables en el tiempo. En muchos casos, estos fenómenos requieren realizar análisis paramétricos de la estructura considerando una gran cantidad de configuraciones de diseño o modificaciones de la estructura. Estos cambios, ya sean en fases iniciales de diseño o en fases posteriores de rediseño, alteran las propiedades físicas de la estructura y por tanto del modelo empleado para su análisis, cuyo comportamiento dinámico se modifica en consecuencia. Un caso de estudio de este tipo de modificaciones es la supervisión de la integridad estructural, que trata de identificar la presencia de daño estructural y prever el comportamiento de la estructura tras ese daño, como puede ser la variación del comportamiento dinámico de la estructura debida a una delaminación, la aparición o crecimiento de grieta, la debida a la pérdida de pala sufrida por el motor de un avión en vuelo, o la respuesta dinámica de construcciones civiles como puentes o edificios frente a cargas sísmicas. Si a la complejidad de los análisis dinámicos requeridos en el caso de grandes estructuras se añade la variación de determinados parámetros en busca de una respuesta dinámica determinada o para simular la presencia de daños, resulta necesario la búsqueda de medios de simplificación o aceleración del conjunto de análisis que de otra forma parecen inabordables tanto desde el punto de vista del tiempo de computación, como de la capacidad requerida de almacenamiento y manejo de grandes volúmenes de archivos de datos. En la presente tesis doctoral se han revisado los métodos de reducción de elementos .nitos más habituales para análisis dinámicos de grandes estructuras. Se han comparado los resultados de casos de estudio de los métodos más aptos, para el tipo de estructuras y modificaciones descritas, con los resultados de aplicación de un método de reducción reciente. Entre los primeros están el método de condensación estática de Guyan extendido al caso con amortiguamiento no proporcional y posteriores implementaciones de condensaciones dinámicas en diferentes espacios vectoriales. El método de reducción recientemente presentado se denomina en esta tesis DACMAM (Dynamic Analysis in Complex Modal space Acceleration Method), y consiste en el análisis simplificado que proporciona una solución para la respuesta dinámica de una estructura, calculada en el espacio modal complejo y que admite modificaciones estructurales. El método DACMAM permite seleccionar un número reducido de grados de libertad significativos para la dinámica del fenómeno que se quiere estudiar como son los puntos de aplicación de la carga, localizaciones de los cambios estructurales o puntos donde se quiera conocer la respuesta, de forma que al implementar las modificaciones estructurales, se ejecutan los análisis necesarios sólo de dichos grados de libertad sin pérdida de precisión. El método permite considerar alteraciones de masa, rigidez, amortiguamiento y la adición de nuevos grados de libertad. Teniendo en cuenta la dimensión del conjunto de ecuaciones a resolver, la parametrización de los análisis no sólo resulta posible, sino que es también manejable y controlable gracias a la sencilla implementación del procedimiento para los códigos habituales de cálculo mediante elementos .nitos. En el presente trabajo se muestra la bondad y eficiencia del método en comparación con algunos de los métodos de reducción de grandes modelos estructurales, verificando las diferencias entre sí de los resultados obtenidos y respecto a la respuesta real de la estructura, y comprobando los medios empleados en ellos tanto en tiempo de ejecución como en tamaño de ficheros electrónicos. La influencia de los diversos factores que se tienen en cuenta permite identificar los límites y capacidades de aplicación del método y su exhaustiva comparación con los otros procedimientos. ABSTRACT Structural dynamics studies the response of a structure under loads or phenomena which vary over time. In many cases, these phenomena require the use of parametric analyses taking into consideration several design configurations or modifications of the structure. This is a typical need in an engineering o¢ ce, no matter the structural design is in early or final stages. These changes modify the physical properties of the structure, and therefore, the finite element model to analyse it. A case study, that exempli.es this circumstance, is the structural health monitoring to predict the variation of the dynamical behaviour after damage, such as a delaminated structure, a crack onset or growth, an aircraft that suffers a blade loss event or civil structures (buildings or bridges) under seismic loads. Not only large structures require complex analyses to appropriately acquire an accurate solution, but also the variation of certain parameters. There is a need to simplify the analytical process, in order to bring CPU time, data .les, management of solutions to a reasonable size. In the current doctoral thesis, the most common finite element reduction methods for large structures are reviewed. Results of case studies are compared between a recently proposed method, herein named DACMAM (Dynamic Analysis in Complex Modal space Acceleration Method), and different condensation methods, namely static or Guyan condensation and dynamic condensation in different vectorial spaces. All these methods are suitable for considering non-classical damping. The reduction method DACMAM consist of a structural modification in the complex modal domain which provides a dynamic response solution for the reduced models. This process allows the selection of a few degrees of freedom that are relevant for the dynamic response of the system. These d.o.f. are the load application points, relevant structural points or points in which it is important to know the response. Consequently, an analysis with structural modifications implies only the calculation of the dynamic response of the selected degrees of freedom added, but with no loss of information. Therefore, mass, stiffness or damping modifications are easily considered as well as new degrees of freedom. Taking into account the size of the equations to be solved, the parameterization of the dynamic solutions is not only possible, but also manageable and controllable due to the easy implementation of the procedure in the standard finite element solvers. In this thesis, the proposed reduction method for large structural models is compared with other published model order reduction methods. The comparison shows and underlines the efficiency of the new method, and veri.es the differences in the response when compared with the response of the full model. The CPU time, the data files and the scope of the parameterization are also addressed.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este estudio, englobado dentro del campo de la investigación operacional en aeropuertos, se considera el problema de la optimización de la secuencia de descontaminación de nieve de los tramos que componen el área de maniobras de un aeropuerto, denominado RM-AM. Este problema se enfrenta a la optimización de recursos limitados para retirar la nieve de las calles de rodadura y pistas, dejándolas en un estado aceptable para la operación de aeronaves. El campo de vuelos se divide en subconjuntos de tramos significativos para la operación y se establecen tiempos objetivo de apertura al tráfico de aeronaves. Se desarrollan varios algoritmos matemáticos en los que se proponen distintas funciones objetivo, como son la hora de finalización del proceso, la suma de las horas de finalización de cada tramo, o el retraso entre la hora estimada y la hora de finalización. Durante este proceso, se van introduciendo restricciones operativas relativas al cumplimiento de objetivos operativos parciales aplicados a las zonas de especial interés, o relativas a la operación de los equipos de descontaminación. El problema se resuelve mediante optimización basada en programación lineal. Los resultados de las pruebas computacionales se hacen sobre cinco modelos de área de maniobras en los que va creciendo la complejidad y el tamaño. Se comparan las prestaciones de los distintos algoritmos. Una vez definido el modelo matemático para la optiamización, se propone una metodología estructurada para abordar dicho problema para cualquier área de manobras. Se define una estrategia en la operación. Se acomete el área de maniobras por zonas, con la condición de que los subconjuntos de tramos significativos queden englobados dentro de una sola de estas zonas. El problema se resuelve mediante un proceso iterativo de optimización aplicado sucesivamente a las zonas que componen el área de maniobras durante cada iteración. Se analiza la repercusión de los resultados en los procesos DMAN, AMAN y TP, para la integración de los resultados en el cálculo de TSAT y EBIT. El método se particulariza para el caso del área de maniobras del Aeropuerto Adolfo Suárez Madrid Barajas. ABSTRACT This study, which lies within the field of operations research in airports, considers the optimisation of the sequence for clearing snow from stretches of the manoeuvring area of an airport, known as RM-AM. This issue involves the optimisation of limited resources to remove snow from taxiways and runways thereby leaving them in an acceptable condition for operating aircraft. The airfield is divided into subsets of significant stretches for the purpose of operations and target times are established during which these are open to aircraft traffic. The study contains several mathematical models each with different functions, such as the end time of the process, the sum of the end times of each stretch, and gap between the estimated and the real end times. During this process, we introduce different operating restrictions on partial fulfilment of the operational targets as applied to zones of special interest, or relating to the operation of the snow-clearing machines. The problem is solved by optimisation based on linear programming. Computational tests are carried out on five distinct models of the manoeuvring area, which cover increasingly complex situations and larger areas. The different algorithms are then compared to one other. Having defined the mathematical model for the optimisation, we then set out a structured methodology to deal with any type of manoeuvring area. In other words, we define an operational strategy. The airfield is divided into subsets of significant stretches for the purpose of operations and target times are set at which these are to be open to aircraft traffic. The manoeuvring area is also divided into zones, with the condition that the subsets of significant stretches lie within just one of these zones. The problem is solved by an iterative optimisation process based on linear programming applied successively to the zones that make up the manoeuvring area during each iteration. The impact of the results on DMAN, AMAN and TP processes is analysed for their integration into the calculation of TSAT and EBIT. The method is particularized for the case of the manoeuvring area of Adolfo Suarez Madrid - Barajas Airport.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este trabajo se estudia la modelización y optimización de procesos industriales de separación mediante el empleo de mezclas de líquidos iónicos como disolventes. Los disolventes habitualmente empleados en procesos de absorción o extracción suelen ser componentes orgánicos muy volátiles y dañinos para la salud humana. Las innovadoras propiedades que presentan los líquidos iónicos, los convierten en alternativas adecuadas para solucionar estos problemas. La presión de vapor de estos compuestos es muy baja y apenas varía con la temperatura. Por tanto, estos compuestos apenas se evaporan incluso a temperaturas altas. Esto supone una gran ventaja en cuanto al empleo de estos compuestos como disolventes industriales ya que permite el reciclaje continuo del disolvente al final del proceso sin necesidad de introducir disolvente fresco debido a la evaporación del mismo. Además, al no evaporarse, estos compuestos no suponen un peligro para la salud humana por inhalación; al contrario que otros disolventes como el benceno. El único peligro para la salud que tienen estos compuestos es por tanto el de contacto directo o ingesta, aunque de hecho muchos Líquidos Iónicos son inocuos con lo cual no existe peligro para la salud ni siquiera a través de estas vías. Los procesos de separación estudiados en este trabajo, se rigen por la termodinámica de fases, concretamente el equilibrio líquido-vapor. Para la predicción de los equilibrios se ha optado por el empleo de modelos COSMO (COnductor-like Screening MOdel). Estos modelos tienen su origen en el empleo de la termodinámica de solvatación y en la mecánica cuántica. En el desarrollo de procesos y productos, químicos e ingenieros frecuentemente precisan de la realización de cálculos de predicción de equilibrios de fase. Previamente al desarrollo de los modelos COSMO, se usaban métodos de contribución de grupos como UNIFAC o modelos de coeficientes de actividad como NRTL.La desventaja de estos métodos, es que requieren parámetros de interacción binaria que únicamente pueden obtenerse mediante ajustes por regresión a partir de resultados experimentales. Debido a esto, estos métodos apenas tienen aplicabilidad para compuestos con grupos funcionales novedosos debido a que no se dispone de datos experimentales para llevar a cabo los ajustes por regresión correspondientes. Una alternativa a estos métodos, es el empleo de modelos de solvatación basados en la química cuántica para caracterizar las interacciones moleculares y tener en cuenta la no idealidad de la fase líquida. Los modelos COSMO, permiten la predicción de equilibrios sin la necesidad de ajustes por regresión a partir de resultados experimentales. Debido a la falta de resultados experimentales de equilibrios líquido-vapor de mezclas en las que se ven involucrados los líquidos iónicos, el empleo de modelos COSMO es una buena alternativa para la predicción de equilibrios de mezclas con este tipo de materiales. Los modelos COSMO emplean las distribuciones superficiales de carga polarizada (sigma profiles) de los compuestos involucrados en la mezcla estudiada para la predicción de los coeficientes de actividad de la misma, definiéndose el sigma profile de una molécula como la distribución de probabilidad de densidad de carga superficial de dicha molécula. Dos de estos modelos son COSMO-RS (Realistic Solvation) y COSMO-SAC (Segment Activity Coefficient). El modelo COSMO-RS fue la primera extensión de los modelos de solvatación basados en continuos dieléctricos a la termodinámica de fases líquidas mientras que el modelo COSMO-SAC es una variación de este modelo, tal y como se explicará posteriormente. Concretamente en este trabajo se ha empleado el modelo COSMO-SAC para el cálculo de los coeficientes de actividad de las mezclas estudiadas. Los sigma profiles de los líquidos iónicos se han obtenido mediante el empleo del software de química computacional Turbomole y el paquete químico-cuántico COSMOtherm. El software Turbomole permite optimizar la geometría de la molécula para hallar la configuración más estable mientras que el paquete COSMOtherm permite la obtención del perfil sigma del compuesto mediante el empleo de los datos proporcionados por Turbomole. Por otra parte, los sigma profiles del resto de componentes se han obtenido de la base de datos Virginia Tech-2005 Sigma Profile Database. Para la predicción del equilibrio a partir de los coeficientes de actividad se ha empleado la Ley de Raoult modificada. Se ha supuesto por tanto que la fracción de cada componente en el vapor es proporcional a la fracción del mismo componente en el líquido, dónde la constante de proporcionalidad es el coeficiente de actividad del componente en la mezcla multiplicado por la presión de vapor del componente y dividido por la presión del sistema. Las presiones de vapor de los componentes se han obtenido aplicando la Ley de Antoine. Esta ecuación describe la relación entre la temperatura y la presión de vapor y se deduce a partir de la ecuación de Clausius-Clapeyron. Todos estos datos se han empleado para la modelización de una separación flash usando el algoritmo de Rachford-Rice. El valor de este modelo reside en la deducción de una función que relaciona las constantes de equilibrio, composición total y fracción de vapor. Para llevar a cabo la implementación del modelado matemático descrito, se ha programado un código empleando el software MATLAB de análisis numérico. Para comprobar la fiabilidad del código programado, se compararon los resultados obtenidos en la predicción de equilibrios de mezclas mediante el código con los resultados obtenidos mediante el simulador ASPEN PLUS de procesos químicos. Debido a la falta de datos relativos a líquidos iónicos en la base de datos de ASPEN PLUS, se han introducido estos componentes como pseudocomponentes, de manera que se han introducido únicamente los datos necesarios de estos componentes para realizar las simulaciones. El modelo COSMO-SAC se encuentra implementado en ASPEN PLUS, de manera que introduciendo los sigma profiles, los volúmenes de la cavidad y las presiones de vapor de los líquidos iónicos, es posible predecir equilibrios líquido-vapor en los que se ven implicados este tipo de materiales. De esta manera pueden compararse los resultados obtenidos con ASPEN PLUS y como el código programado en MATLAB y comprobar la fiabilidad del mismo. El objetivo principal del presente Trabajo Fin de Máster es la optimización de mezclas multicomponente de líquidos iónicos para maximizar la eficiencia de procesos de separación y minimizar los costes de los mismos. La estructura de este problema es la de un problema de optimización no lineal con variables discretas y continuas, es decir, un problema de optimización MINLP (Mixed Integer Non-Linear Programming). Tal y como se verá posteriormente, el modelo matemático de este problema es no lineal. Por otra parte, las variables del mismo son tanto continuas como binarias. Las variables continuas se corresponden con las fracciones molares de los líquidos iónicos presentes en las mezclas y con el caudal de la mezcla de líquidos iónicos. Por otra parte, también se ha introducido un número de variables binarias igual al número de líquidos iónicos presentes en la mezcla. Cada una de estas variables multiplican a las fracciones molares de sus correspondientes líquidos iónicos, de manera que cuando dicha variable es igual a 1, el líquido se encuentra en la mezcla mientras que cuando dicha variable es igual a 0, el líquido iónico no se encuentra presente en dicha mezcla. El empleo de este tipo de variables obliga por tanto a emplear algoritmos para la resolución de problemas de optimización MINLP ya que si todas las variables fueran continuas, bastaría con el empleo de algoritmos para la resolución de problemas de optimización NLP (Non-Linear Programming). Se han probado por tanto diversos algoritmos presentes en el paquete OPTI Toolbox de MATLAB para comprobar cuál es el más adecuado para abordar este problema. Finalmente, una vez validado el código programado, se han optimizado diversas mezclas de líquidos iónicos para lograr la máxima recuperación de compuestos aromáticos en un proceso de absorción de mezclas orgánicas. También se ha usado este código para la minimización del coste correspondiente a la compra de los líquidos iónicos de la mezcla de disolventes empleada en la operación de absorción. En este caso ha sido necesaria la introducción de restricciones relativas a la recuperación de aromáticos en la fase líquida o a la pureza de la mezcla obtenida una vez separada la mezcla de líquidos iónicos. Se han modelizado los dos problemas descritos previamente (maximización de la recuperación de Benceno y minimización del coste de operación) empleando tanto únicamente variables continuas (correspondientes a las fracciones o cantidades molares de los líquidos iónicos) como variables continuas y binarias (correspondientes a cada uno de los líquidos iónicos implicados en las mezclas).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El panorama global está cambiando, y esto influye sobre la forma en la que entendemos y tratamos de alcanzar un desarrollo humano sostenible. El crecimiento de la población conlleva una mayor presión sobre los recursos, pero también supone una mayor cantidad de mano de obra y de talento; la concentración en áreas urbanas está cambiando las dinámicas sociales y desafiando los canales de comercialización tradicionales, pero también genera nuevos mercados y fomenta la innovación; los cambios en la economía global están reduciendo los tradicionales desequilibrios de poder entre los países occidentales y el resto del mundo; y las crecientes interconexiones crean nuevos riesgos pero también oportunidades para lanzar iniciativas de alcance global. Todas estas tendencias nos están obligando a repensar qué es el desarrollo humano y de qué manera deberíamos afrontar el reto de la pobreza. Es comúnmente aceptado que la globalización implica interdependencia y que, para conseguir un desarrollo humano sostenible, la colaboración entre actores de distintos ámbitos es necesaria. Se observa una creciente convergencia de temas, intereses y soluciones en torno al desarrollo sostenible, incluso en diferentes países y sectores, lo que está facilitando la colaboración estratégica entre empresas, gobiernos y sociedad civil. Existen pocas duda a día de hoy sobre el papel fundamental que las empresas deben desempeñar en la transición mundial hacia la sostenibilidad ambiental y la erradicación de la pobreza. Las empresas están evolucionando desde un enfoque tradicional centrado en la maximización de beneficios económicos hacia un enfoque holístico que integra la sostenibilidad y la responsabilidad social como parte del núcleo de negocio de las compañías. En el ámbito medioambiental, muchas empresas ya han comenzado a actuar y tratan de reducir sus emisiones, sus desechos y su consumo de energía. Sin embargo la contribución de las empresas a la reducción de la pobreza no está tan clara. Actualmente en torno a 1,2 miles de millones de personas viven en situación de extrema pobreza. La mayoría de estas personas aún vive en zonas rurales donde la mayor parte de la población activa trabaja en el sector agrícola. Por lo tanto, mejorar las oportunidades y reducir los riesgos de los productores más vulnerables en el sector de la agricultura puede ser un motor de desarrollo rural y reducción de la pobreza, especialmente en países de bajo nivel de desarrollo cuyas economías están fundamentalmente basadas en la agricultura. Algunas empresas comienzan a incluir a los pobres en sus operaciones como consumidores, proveedores y emprendedores. Esta tesis se centra en las potenciales oportunidades relacionadas con la incorporación sostenible de los pobres como proveedores de productos y/o de mano de obra. La colaboración entre empresas y productores vulnerables de países en desarrollo es un tema relativamente nuevo y todavía poco estudiado. La pregunta que guía esta tesis es: “¿Cómo pueden las empresas facilitar la inclusión sostenible en cadenas de suministro de productores vulnerables de los países menos desarrollados?”. Para responder a la pregunta anterior, la autora ha aplicado una metodología de casos de estudio. Esta metodología se considera apropiada porque la investigación sobre cadenas de suministro inclusivas es todavía escasa y porque es necesario entender en profundidad un fenómeno de la vida real, y para ello es fundamental conocer su contexto. En primer lugar, se realiza una revisión de literatura para identificar las proposiciones y los constructos teóricos que guiarán la posterior recogida de datos. La revisión de literatura se divide en dos partes: una más general que explora la dimensión social de la sostenibilidad en cadenas de suministro, y una más específica que se centra en la incorporación de los pobres como proveedores en cadenas de suministro. A lo largo de la última década, ha habido un crecimiento exponencial de los estudios académicos sobre la sostenibilidad de las cadenas de suministro, pero la mayoría de los esfuerzos se han dirigido hacia la dimensión medioambiental de la sostenibilidad. Por lo tanto la revisión de literatura, que se presenta en la Sección 3.1 (página 35) y que profundiza en la sostenibilidad social de las cadenas de suministro, puede considerarse una contribución en sí misma. Esta revisión de literatura revela que la investigación sobre aspectos sociales en cadenas de suministro está cobrando impulso en distintas áreas de conocimiento, principalmente en los ámbitos de investigación sobre “gestión de cadenas de suministro”, “responsabilidad social corporativa” y “estudios del desarrollo”. La investigación existente sobre sostenibilidad social de cadenas de suministro se centra en tres temas: aclarar la definición de sostenibilidad social; analizar la implementación de estrategias de sostenibilidad social en cadenas de suministro; y estudiar el apoyo de las em presas líderes a proveedores vulnerables para facilitar su transición hacia la sostenibilidad. Un marco conceptual que resume los principales hallazgos de esta primera parte de la revisión de literatura es planteado en la Figura 7 (página 48). No obstante, en el área de investigación que está emergiendo en torno a la sostenibilidad social de las cadenas de suministro, los estudios relacionados con la reducción de la pobreza son aún escasos. Además se aprecia una falta de contribuciones desde y sobre los países menos desarrollados, así como una clara tendencia a reflejar la visión de las empresas líderes de las cadenas de suministro, olvidando la perspectiva de los proveedores. La segunda parte de la revisión de literatura presentada en la Sección 3.2 (página 51) profundiza en tres líneas de investigación que exploran, desde distintas perspectivas, la inclusión de los pobres en cadenas de suministro. Estas líneas son “Global Value Chains” (GVC), “Base of the Pyramid” (BoP) y “Sustainable Supply Chain Management” (SSCM). La investigación en GVC analiza las cadenas de suministro desde la perspectiva de la globalización económica y el comercio internacional, poniendo especial énfasis en las implicaciones para los países en desarrollo y las comunidades vulnerables. GVC caracteriza las cadenas de suministro según la forma en la que son gobernadas, las oportunidades de mejora que existen para los productores que forman parte de la cadena y el grado de inclusión o exclusión de las comunidades más pobres y vulnerables. La investigación en BoP explora las relaciones comerciales entre empresas y comunidades pobres. La premisa fundamental del concepto BoP es la posibilidad de combinar la generación de beneficios con la reducción de la pobreza. La propuesta original es que mediante la venta de productos y servicios a las comunidades pobres de países en desarrollo, la pobreza puede ser reducida al tiempo que las empresas incrementan sus beneficios, especialmente las grandes empresas multinacionales. Esta idea ha ido evolucionando y, a día de hoy, los investigadores BoP consideran la incorporación de los pobres no sólo como consumidores sino también como empleados, proveedores y co-creadores. La investigación en SSCM ha estado fundamentalmente orientada al estudio de la dimensión medioambiental de la sostenibilidad de cadenas de suministro. Sin embargo, la creciente externalización de la producción a países en desarrollo y las demandas de los grupos de interés para que las empresas aborden todos los aspectos de la sostenibilidad han llevado a los académicos de SSCM a reconocer la importancia de integrar asuntos relacionados con la reducción de la pobreza en sus investigaciones. Algunos estudios comienzan a apuntar los principales retos a los que se enfrentan las empresas para colaborar con productores vulnerables en sus cadenas de suministro. Estos retos son: falta de comunicación, altos costes de transacción y el incremento de la complejidad de las operaciones. Las contribuciones de estas tres líneas de investigación son complementarias para el estudio de las cadenas de suministro inclusivas. Sin embargo, raramente han sido consideradas conjuntamente, ya que pertenecen a ámbitos de conocimiento distintos. Esta tesis integra las aportaciones de GVC, BoP y SSCM en un marco conceptual para la creación y gestión de cadenas de suministro inclusivas. Este marco conceptual para cadenas de suministro inclusivas queda representado en la Figura 9 (página 68). El marco conceptual refleja las motivaciones que llevan a las empresas a colaborar con productores vulnerables, los retos a los que se enfrentan al hacerlo, y los caminos o estrategias que están siguiendo para construir y operar cadenas de suministro inclusivas de manera que sean beneficiosas tanto para la empresa como para los productores vulnerables. A fin de validar y refinar el marco conceptual propuesto, tres casos de estudio se llevan a cabo. Las cadenas de suministro analizadas por los casos de estudio pertenecen al sector agrícola y sus principales proveedores se encuentran en países de África subsahariana. Múltiples métodos de recolección de datos y triangulación son utilizados para mejorar la fiabilidad de los datos. La autora desarrolló trabajos de campo en Senegal, Etiopía y Tanzania. Estos viajes permitieron enriquecer el proceso de recogida de información mediante entrevistas semiestructuradas y conversaciones informales con los principales actores de la cadena de suministro y mediante la observación directa de los procesos y las interacciones entre productores vulnerables y empresas. El Caso de estudio A (Sección 5.1 en página 96) es un caso de estudio único. Analiza la cadena de suministro local de verduras en Senegal. La organización focal es Manobi, una empresa senegalesa que provee servicios de bajo coste a emprendedores locales del sector agrícola. El Caso de estudio A proporciona un interesante análisis del funcionamiento de una cadena de suministro local en un país en desarrollo y muestra como la provisión de servicios profesionales puede mejorar el desempeño de productores vulnerables. El Caso de estudio B (Sección 5.2 en página 122) es un caso de estudio único. Analiza la cadena de suministro global de flor cortada con origen en Etiopía. La organización focal es EHPEA, la Asociación Etíope de Productores y Exportadores Hortícolas, cuya misión es promover y salvaguardar la posición competitiva del sector agrícola etíope en el mercado global. El Caso de estudio B ayuda a comprender mejor la perspectiva de los proveedores respecto a los requerimiento de sostenibilidad del mercado global. También muestra cómo la inclusión de los productores en el proceso de desarrollo de un estándar privado facilita su implementación posterior. El Caso de estudio C (Sección 5.3 en página 143) es un caso de estudio múltiple. Analiza la cadena de suministro global de café especial con origen en Tanzania. Las organizaciones focales son comerciantes que conectan de manera directa a pequeños agricultores de café en países en desarrollo con empresas tostadoras de café en países desarrollados. El Caso de estudio C muestra cómo un pequeño agricultor puede proveer un producto “premium” al mercado global, y participar en un segmento diferenciado del mercado a través de una cadena de suministro transparente y eficiente. Las aportaciones empíricas de los casos de estudio ayudan a validar y mejorar el marco conceptual sobre cadenas de suministro inclusivas (ver discusión en el Capítulo 6 en página 170). El resultado es la propuesta de una nueva versión del marco conceptual representado en la Figura 40 (página 195). Los casos de estudio también proporcionan interesantes aportaciones en relación a la gestión de cadenas de suministro inclusivas y muestran las perspectivas de distintos actores implicados. Esta tesis arroja luz sobre el papel de las empresas en la creación y la gestión de cadenas de suministro inclusivas llevando a cabo una revisión de literatura multidisciplinar y analizando tres casos de estudio en países africanos. Como resultado, esta tesis presenta una serie de contribuciones empíricas y teóricas al ámbito de investigación emergente en torno a las cadenas de suministro inclusivas (Capítulo 7). Esta tesis también pretende ser útil a profesionales que deseen facilitar la incorporación de los pobres como proveedores en condiciones justas y beneficiosas. ABSTRACT The global outlook is changing, and this is influencing the way we understand and try to achieve sustainable human development. Population growth entails increasing pressure over resources, but it also provides greater workforce and talent; concentration in urban areas is changing social dynamics and challenging traditional marketing channels, but also creating news markets and driving innovation; the global economy shift is rebalancing the traditional power imbalance between Western countries and the rest of the world, making new opportunities to arise; and interconnections and global interdependence create new risks but also opportunities for launching initiatives with a global reach. All these trends are impelling us to rethink what development is and in which way poverty alleviation should be approached. It is generally agreed that globalization implies interdependence and, in order to achieve sustainable human development, collaboration of all actors is needed. A convergence of issues, interests and solutions related to sustainable development is being observed across countries and sectors, encouraging strategic collaboration among companies, governments and civil society. There is little doubt nowadays about the crucial role of the private sector in the world’s path towards environmental sustainability and poverty alleviation. Businesses are evolving from a “business as usual” stance to a more sustainable and responsible approach. In the environmental arena, many companies have already “walk the talk”, implementing environmental management systems and trying to reduce emissions and energy consumption. However, regarding poverty alleviation, their contribution is less clear. There are around 1.2 billion people living in extreme poverty. Most of this people still live in rural areas where the agricultural sector employs a big part of the active population. Therefore, improving opportunities and reducing risks for vulnerable producers in the agri-food sector can be a primary engine of rural development and poverty alleviation, particularly in the poor, agriculture-based economies of least developed countries. Some companies are beginning to include the poor into their operations as consumers, suppliers and entrepreneurs. This thesis focuses specifically on the potential opportunities related to the sustainable incorporation of the poor as suppliers of products and/or labor. Business collaboration with vulnerable producers in developing countries is a relatively new trend and it is still understudied. The overall question guiding this thesis is: “How can businesses facilitate the sustainable inclusion of vulnerable producers from least developed countries into supply chains?”. In order to answer the research question, the author has applied a case study research strategy. This methodology is considered appropriate because research about inclusive supply chains is still at an early stage, and because there is a need to understand a real-life phenomenon in depth, but such understanding encompasses important contextual conditions. First, a literature review is conducted, in order to identify the research propositions and theoretical constructs that will guide the data collection. The literature review is divided in two parts: a more general one that explores the social dimension of sustainability of supply chains, and a more specific one that focuses on the incorporation of the poor as suppliers in supply chains. During the last decade, there has been an exponential growth of studies in the field of supply chain sustainability, but research efforts have traditionally been directed towards the analysis of the environmental dimension. Therefore, the literature review presented in Section 3.1 (page 35) that delves into social sustainability of supply chains can be considered a contribution in itself. This literature review reveals that the investigation of social issues in supply chains is gaining momentum and comes from different academic disciplines, namely Supply Chain Management, Corporate Social Responsibility and Development Studies. Existing research about social sustainability of supply chains focuses on three issues: clarify the definition of social sustainability; analyze the implementation of social sustainability strategies in supply chains; and study lead companies’ support to vulnerable suppliers in their transition towards sustainability. A conceptual framework that outlines the main findings that emerge from this first part of literature review is proposed in Figure 7 (page 48). Nevertheless, in this nascent field of social sustainability of supply chains, studies related to poverty alleviation are still scarce. Moreover, a lack of contributions from and about least developed countries has been observed, as well as a tendency to reflect on the lead firms’ standpoint, neglecting the suppliers’ perspective. The second part of the literature review (Section 3.2 in page 51) delves into three research streams that are exploring the inclusion of the poor into supply chains from different viewpoints. These research streams are Global Value Chains (GVC), Base of the Pyramid (BoP) and Sustainable Supply Chain Management (SSCM). GVC research discusses the dynamics of economic globalization and international trade, putting special emphasis in the implications for developing countries and vulnerable communities. GVC characterizes supply chains by the way they are governed, the upgrading opportunities that exist for producers in the chain and the degree of inclusion or exclusion of impoverished communities. BoP research explores trading relationships between businesses and impoverished communities. The core premise of the BoP concept is the possibility to combine profits with poverty alleviation. The original BoP proposition is that by marketing innovative products and services to poor communities in developing countries, poverty would be reduced and companies would increase their benefits, especially multinational companies. This idea has evolved to consider the incorporation of the poor to business activities not only as consumers, but also as employees, entrepreneurs and co-creators. The SSCM school of thought has mainly focused on studying the environmental dimension of supply chain sustainability, neglecting the consideration of the social perspective. However, in recent years, increasing outsourcing of production to developing countries and stakeholders’ demands for a more holistic approach to business sustainability have led SSCM scholars to acknowledge the importance of integrating poverty concerns in this field’s research agenda. Some SSCM studies identify the main operational challenges for companies which engage with vulnerable suppliers in their supply chains: missing communication, higher transactional and operational costs and increased complexity. Contributions from these three research streams are complementary for the study of inclusive supply chains. However, they have been rarely considered together, since they belong to different research areas. This thesis seeks to play a dovetailing role in this scenario by proposing a conceptual framework for creating and operating inclusive supply chains that builds on contributions from GVC, SSCM and BoP research. This framework for inclusive supply chains is depicted in Figure 9 (page 68), and explains the motivations that drive businesses to collaborate with vulnerable suppliers, the chal lenges they face in doing so, and the pathways they are following in order to build and operate inclusive supply chains profitably for both buying companies and vulnerable suppliers. In order to validate and refine the proposed framework, three case studies are carried out. The supply chains analyzed by the case studies belong to the agri-food sector and source from Sub-Saharan African countries. Multiple data collection methods and triangulation are used in order to improve reliability of findings. The author carried out field work in Senegal, Ethiopia and Tanzania. These travels enriched the data collection process, providing semi-structured interviews and informal conversations with the main actors in the supply chains, as well as direct observation of processes and interactions among companies and vulnerable suppliers. Case study A (Section 5.1 in page 96) is a single case study. It analyzes a local supply chain in Senegal providing vegetables to the local market. The focal organization is Manobi, a Senegalese inclusive business which provides affordable ICT services to local entrepreneurs in the agri-food sector. Case study A provides interesting insights into the dynamics of local supply chains and how professional services can help to improve their performance. Case study B (Section 5.2 in page 122) is a single case study. It analyzes a global supply chain with origin in Ethiopia providing cut flowers to the global commodity market. The focal organization is EHPEA, Ethiopian Horticulture Producers and Exporters Association, whose mission is to promote and safeguard the competitive position of the Ethiopian horticulture sector within the global market. Case study B helps to better understand the suppliers’ perspective regarding global market sustainability requirements and shows how the inclusion of suppliers in the process of development of a private standard has a positive impact in its implementation. Case study C (Section 5.3 in page 143) is a multiple case study. It analyzes a global supply chain with origin in Tanzania providing coffee to the global niche market of specialty coffee. The focal organizations are traders who are directly connecting smallholder coffee farmers in developing countries to coffee roasters in developed countries. Case study C shows how smallholder farmers can supply a premium product and be incorporated in a differentiated market segment through a transparent and efficient supply chain. The empirical findings from the case studies help to validate and refine the conceptual framework (see discussion in Chapter 6). The proposal of a new version of the conceptual framework is depicted in Figure 40 (page 195). The case studies also provide interesting insights related to the management of inclusive supply chains and show the perspectives of the different actors involved. This thesis sheds some light on the role of businesses in the creation and operation of inclusive supply chains by carrying out a cross-disciplinary literature review and analyzing three case studies in African countries. In doing so, this thesis presents a series of theoretical and empirical contributions to the emerging academic field of inclusive supply chains (Chapter 7). This thesis also intends to be useful to practitioners willing to improve the incorporation of the poor as suppliers in fair and profitable conditions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un incendio en el interior de un almacén de pirotecnia puede provocar la iniciación más o menos simultánea de los artículos existentes en su interior, con su consecuente onda de choque potenciada por la presión de los propios gases generados en su interior. La finalidad de esta tesis doctoral consiste en analizar los fenómenos que se desarrollan como consecuencia de un incendio interior en los almacenes de pirotecnia y establecer posibles medidas eficaces de prevención y protección con objeto de reducir el riesgo de explosión.. Inicialmente se llevó a cabo un análisis del riesgo de explosión, evaluando las consecuencias en caso de producirse un fuego interior. Los resultados fueron catastróficos. Finalmente, y con objeto de minimizar la posibilidad de producirse un incendio en el interior de un almacén, se evaluaron diferentes sistemas de detección y extinción automática de incendios para almacenes pirotécnicos, realizándose pruebas a escala real. En particular, la presente tesis consta de los siguientes trabajos: 1) Evaluación de la sobrepresión generada por la explosión de artificios pirotécnicos en el interior de almacenes, mediante pruebas de explosión de artículos pirotécnicos, con el fin de evaluar las posibles consecuencias en caso de materializarse una explosión, y disponer de información que permita conocer el grado de resistencia de las estructuras de los almacenes, así como el diseño adecuado de las mismas para soportar los efectos de tales explosiones. 2) Evaluación del efecto de un incendio en el interior de un almacén de pirotecnia mediante pruebas a escala real, con el fin de evaluar la posibilidad de la iniciación simultánea de los artículos pirotécnicos almacenados en su interior, y su consecuente explosión, así como las consecuencias en caso de materializarse la explosión. 3) Análisis de sistemas de detección y extinción automática de incendios para almacenes de pirotecnia, mediante la realización de pruebas a escala real para verificar la eficiencia y eficacia de tales sistemas y agentes para sofocar un incendio pirotécnico de forma tal que se evite la posible explosión asociada. 4) Evaluación de nuevos agentes extintores utilizados en los sistemas de extinción automática de incendios, que actualmente se están utilizando en el sector pirotécnico nacional, mediante la realización de pruebas a escala real. Los resultados obtenidos han permitido al Ministerio de Industria, Energía y Turismo actualizar la reglamentación vigente aplicable (Instrucción Técnica Complementaria número 17 del Reglamento de artículos pirotécnicos y cartuchería, aprobado por el Real Decreto 563/2010, de 7 de mayo). ABSTRACT A fire inside a pyrotechnics magazine can cause the more or less simultaneous initiation of the stored articles, with the wave of shock that is produced promoted by the pressure of the gases generated in its interior. The purpose of this PhD thesis is to analyze the phenomena that develop as a result of a fire inside the pyrotechnics stores and establish possible effective prevention and protection measures to reduce the risk of explosionAn analysis of the risk of explosion and fire consequences in a pyrotechnic magazine, testing to real scale, was initially carried out. The results were catastrophic. Finally, and in order to minimize the possibility of a fire inside a pyrotechnic magazine, different systems of detection and automatic extinction of fires in pyrotechnic magazines were evaluated, testing to real scale. Particularly, this thesis has the following parts: 1) Evaluation of the pressure generated by the pyrotechnic explosion in a magazine, with explosión tests of pyrotechnic articles, in order to evaluate the possible consequences in case of materialize an explosion, and provide information to know the resistance grade of the magazine structures, as well as the right design of those to withstand the effects of such explosions. 2) Evaluation of the effect of a fire inside a pyrotechnic magazine by full-scale tests, in order to evaluate the possibility of simultaneous initiation of the pyrotechnic articles stored inside, and the resulting explosion, as well as the consequences in case of materialize an explosion. 3) Analysis and evaluation of detection and automatic fire extinguishing in pyrotechnic magazines, by full-scale tests in order to verify the efficiency and effectiveness of such systems and agents to quell a pyrotechnic fire and avoid the posible mass explosion. 4) Evaluation of new extinguishing agent used in automatic fire extinguishers, which are currently being used in the national fireworks industry, by full-scale tests. The results obtained have allowed the Ministry of Industry, Energy and Tourism, update the current regulation (Complementary Technical Instruction 17 of the Regulation of Pyrotecnic Articles and Ammunition, approved by the Royal Decree 563/2010, of May 7).