17 resultados para ALMACENES DE AUTOSERVICIO

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente documento evalúa la Cuenca Alta del Guadalquivir en busca de posibles estructuras viables como almacenes de CO2, tanto técnica como económicamente. Se lleva a cabo la selección de seis posibles estructuras, de las cuales solo tres han resultado viables atendiendo a criterios técnicos y socio-económicos. De estas tres, se evalúa la viabilidad económica de la de mayor capacidad, obteniendo como resultado que la capacidad estimada es demasiado baja para que sea rentable su uso como almacén de CO2 a nivel comercial en una industria tipo de la Unión Europea. Para ello nos basamos principalmente en la Ley 40/2010 que regula el almacenamiento geológico en nuestro país, el informe GeoCapacity elaborado por el IGME, atlas elaborados por el Departamento de Energía de los Estados Unidos (DOE), y en diversos documentos de carácter económico publicados a nivel Europeo. Este proyecto, está incluido dentro de la Cátedra TecFutura, y forma parte del proyecto AVANZACO2. Por tanto, ha contado con la colaboración de las empresas implicadas en dicho proyecto, Sacyr Vallehermoso y Gessal así como con investigadores de la UPM. En relación con dicho proyecto, se procesaron los datos obtenidos mediante la herramienta informática CO2SITEASSES. ABSTRACT This paper evaluates the Upper basin of the Guadalquivir in the search of viable structures for CO2 storage, both technically and economically. The selection of six possible structures has been made, of which only three have proved to be viable attending to technical an socio-economic criteria. Of these three, we evaluate the economic viability of the larger capacity. In result, the estimated capacity is too low to make it profitable for a commercial use. In order to do this, we rely primarily on the Law 40/2010, which regulate the geological storage in our country, the report GeoCapacity, prepared by the IGME, atlas prepared by de Department of Energy of the United States (DOE) and various economic papers published in Europe. This project is included in the “Cátedra TecFutura” and is part of AVANZACO2 project. Therefore it has enjoyed the cooperation of the companies involved in the project, Sacyr Vallehermoso and Gessal, as well as UPM researchers. Related to this project, the obtained data were processed using the software CO2SITEASSES

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un incendio en el interior de un almacén de pirotecnia puede provocar la iniciación más o menos simultánea de los artículos existentes en su interior, con su consecuente onda de choque potenciada por la presión de los propios gases generados en su interior. La finalidad de esta tesis doctoral consiste en analizar los fenómenos que se desarrollan como consecuencia de un incendio interior en los almacenes de pirotecnia y establecer posibles medidas eficaces de prevención y protección con objeto de reducir el riesgo de explosión.. Inicialmente se llevó a cabo un análisis del riesgo de explosión, evaluando las consecuencias en caso de producirse un fuego interior. Los resultados fueron catastróficos. Finalmente, y con objeto de minimizar la posibilidad de producirse un incendio en el interior de un almacén, se evaluaron diferentes sistemas de detección y extinción automática de incendios para almacenes pirotécnicos, realizándose pruebas a escala real. En particular, la presente tesis consta de los siguientes trabajos: 1) Evaluación de la sobrepresión generada por la explosión de artificios pirotécnicos en el interior de almacenes, mediante pruebas de explosión de artículos pirotécnicos, con el fin de evaluar las posibles consecuencias en caso de materializarse una explosión, y disponer de información que permita conocer el grado de resistencia de las estructuras de los almacenes, así como el diseño adecuado de las mismas para soportar los efectos de tales explosiones. 2) Evaluación del efecto de un incendio en el interior de un almacén de pirotecnia mediante pruebas a escala real, con el fin de evaluar la posibilidad de la iniciación simultánea de los artículos pirotécnicos almacenados en su interior, y su consecuente explosión, así como las consecuencias en caso de materializarse la explosión. 3) Análisis de sistemas de detección y extinción automática de incendios para almacenes de pirotecnia, mediante la realización de pruebas a escala real para verificar la eficiencia y eficacia de tales sistemas y agentes para sofocar un incendio pirotécnico de forma tal que se evite la posible explosión asociada. 4) Evaluación de nuevos agentes extintores utilizados en los sistemas de extinción automática de incendios, que actualmente se están utilizando en el sector pirotécnico nacional, mediante la realización de pruebas a escala real. Los resultados obtenidos han permitido al Ministerio de Industria, Energía y Turismo actualizar la reglamentación vigente aplicable (Instrucción Técnica Complementaria número 17 del Reglamento de artículos pirotécnicos y cartuchería, aprobado por el Real Decreto 563/2010, de 7 de mayo). ABSTRACT A fire inside a pyrotechnics magazine can cause the more or less simultaneous initiation of the stored articles, with the wave of shock that is produced promoted by the pressure of the gases generated in its interior. The purpose of this PhD thesis is to analyze the phenomena that develop as a result of a fire inside the pyrotechnics stores and establish possible effective prevention and protection measures to reduce the risk of explosionAn analysis of the risk of explosion and fire consequences in a pyrotechnic magazine, testing to real scale, was initially carried out. The results were catastrophic. Finally, and in order to minimize the possibility of a fire inside a pyrotechnic magazine, different systems of detection and automatic extinction of fires in pyrotechnic magazines were evaluated, testing to real scale. Particularly, this thesis has the following parts: 1) Evaluation of the pressure generated by the pyrotechnic explosion in a magazine, with explosión tests of pyrotechnic articles, in order to evaluate the possible consequences in case of materialize an explosion, and provide information to know the resistance grade of the magazine structures, as well as the right design of those to withstand the effects of such explosions. 2) Evaluation of the effect of a fire inside a pyrotechnic magazine by full-scale tests, in order to evaluate the possibility of simultaneous initiation of the pyrotechnic articles stored inside, and the resulting explosion, as well as the consequences in case of materialize an explosion. 3) Analysis and evaluation of detection and automatic fire extinguishing in pyrotechnic magazines, by full-scale tests in order to verify the efficiency and effectiveness of such systems and agents to quell a pyrotechnic fire and avoid the posible mass explosion. 4) Evaluation of new extinguishing agent used in automatic fire extinguishers, which are currently being used in the national fireworks industry, by full-scale tests. The results obtained have allowed the Ministry of Industry, Energy and Tourism, update the current regulation (Complementary Technical Instruction 17 of the Regulation of Pyrotecnic Articles and Ammunition, approved by the Royal Decree 563/2010, of May 7).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta Tesis se cuantifica la variación cromática que producen los barnices en el color de los diferentes tipos de maderas de construcción, obteniendo un modelo matemático de predicción de color de la madera. Se analizan las prestaciones de dieciséis barnices, supuestamente incoloros, aplicados sobre veinte tipos de maderas, angiospermas y gimnospermas, de distintas densidades y latitudes. Ambos materiales son de uso frecuente en el ámbito de la construcción y de fácil localización en las tiendas y almacenes de ambos sectores. Se utilizan técnicas de descomposición cromática, mediante el empleo de microscopio óptico de reflexión, para poder obtener un abanico gráfico de histogramas con valores numéricos de luminosidad y composición cromática, y de esta forma comprobar que los supuestos barnices que se venden como incoloros, no son totalmente incoloros sino que muestran tendencias a virar hacia alguno de los colores básicos. En el proceso experimental de la Tesis, se aplican 16 barnices sobre 20 tipos de maderas, obteniéndose los histogramas de las campañas de fotografías realizadas con cinco años de diferencia, obteniéndose no solo la variación de color que producen los barnices sobre el original de la madera, sino además la influencia de un envejecimiento a los cinco años. La Tesis relaciona el tipo de barniz idóneo para cada tipo de madera, de modo que produzca la menor variación cromática. La Tesis además obtiene un modelo matemático que permite predecir el color final de la madera tratada en función del color inicial de la madera sin barnizar. Se propone en esta Tesis una recomendación de los productos a utilizar en cada uno de los tipos de madera en base a su color inicial. This Thesis quantifies the chromatic variation caused by varnishes in the colour of different types of timbers, obtaining a mathematical model for predicting the timber’s colour. The performance of sixteen varnishes, supposedly colourless, is analysed, applied on twenty types of timber, angiosperms and gymnosperms, of different densities and latitudes. Both materials are of frequent use in the construction field and easily located in the stores and warehouses of both sectors. Chromatic decomposition techniques are used, through the utilization of a reflection optical microscope, in order to obtain a graphic range of histograms with numerical values of luminosity and chromatic composition, and this way confirm that the alleged varnishes sold as colourless are not completely colourless but are prone to shift towards one of the basic colours. During the Thesis’ experimental procedure 16 varnishes are applied on 20 types of timber, obtaining the colour histograms of the photography campaigns carried out with a five years difference, resulting in not only the colour variation caused by the varnishes on the original timber, but also the influence of its ageing five years later. The Thesis links the right type of varnish for each kind of timber, so that as little chromatic variation as possible occurs. The Thesis obtains as well a mathematical model, which makes it possible to predict the final colour of the treated timber depending on the original colour of the timber with no varnish. This Thesis proposes a recommendation of the products to use on each type of timber on the basis of its original colour.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto consiste en la construcción de una pabellón polideportivo Destinado a la utilización para la educación física, el deporte escolar, el deporte recreativo y el entrenamiento y la competición de ámbito local del deporte federativo. La motivación del promotor es proveer de las correspondientes dotaciones deportivas al citado sector de la ciudad, de reciente urbanización y en crecimiento actualmente. Para ello se decide la construcción de una pista polideportiva cubierta, en la que se dispone de espacios auxiliares para deportistas tales como almacenes, aseos y vestuarios, y de instalaciones para espectadores con un aforo de 280 espectadores sentados. Serán objeto de estudio la funcionalidad, el diseño de la obra civil y de las instalaciones e infraestructura, y la división de espacios. En la redacción y cálculos realizados se tendrán en cuenta las disposiciones y preceptos contenidos en la legislación vigente y se prestará especial atención al medio ambiente y al entorno circundante a la planta. Igualmente, se pretende obtener el mejor equilibrio posible entre la funcionalidad de las instalaciones proyectadas y su estética, optimizando todos aquellos factores y agentes que intervienen, con el objetivo de producir un producto de alta calidad y rentable al mismo tiempo. En una primera fase se realizará un Estudio Previo de Soluciones, que recogerá las informaciones básicas de las distintas posibilidades que pueden surgir a la hora de elaborar un proyecto de estas características. Se analizarán los criterios que permitan decidir cuál es el óptimo de construcción, y una vez decidida una solución en concreto, se pasará a realizar el Proyecto de Construcción. Por tanto en el Estudio Previo de Soluciones no se logrará llegar al grado de detalle al que estará el Proyecto de Construcción.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tanto los robots autónomos móviles como los robots móviles remotamente operados se utilizan con éxito actualmente en un gran número de ámbitos, algunos de los cuales son tan dispares como la limpieza en el hogar, movimiento de productos en almacenes o la exploración espacial. Sin embargo, es difícil garantizar la ausencia de defectos en los programas que controlan dichos dispositivos, al igual que ocurre en otros sectores informáticos. Existen diferentes alternativas para medir la calidad de un sistema en el desempeño de las funciones para las que fue diseñado, siendo una de ellas la fiabilidad. En el caso de la mayoría de los sistemas físicos se detecta una degradación en la fiabilidad a medida que el sistema envejece. Esto es debido generalmente a efectos de desgaste. En el caso de los sistemas software esto no suele ocurrir, ya que los defectos que existen en ellos generalmente no han sido adquiridos con el paso del tiempo, sino que han sido insertados en el proceso de desarrollo de los mismos. Si dentro del proceso de generación de un sistema software se focaliza la atención en la etapa de codificación, podría plantearse un estudio que tratara de determinar la fiabilidad de distintos algoritmos, válidos para desempeñar el mismo cometido, según los posibles defectos que pudieran introducir los programadores. Este estudio básico podría tener diferentes aplicaciones, como por ejemplo elegir el algoritmo menos sensible a los defectos, para el desarrollo de un sistema crítico o establecer procedimientos de verificación y validación, más exigentes, si existe la necesidad de utilizar un algoritmo que tenga una alta sensibilidad a los defectos. En el presente trabajo de investigación se ha estudiado la influencia que tienen determinados tipos de defectos software en la fiabilidad de tres controladores de velocidad multivariable (PID, Fuzzy y LQR) al actuar en un robot móvil específico. La hipótesis planteada es que los controladores estudiados ofrecen distinta fiabilidad al verse afectados por similares patrones de defectos, lo cual ha sido confirmado por los resultados obtenidos. Desde el punto de vista de la planificación experimental, en primer lugar se realizaron los ensayos necesarios para determinar si los controladores de una misma familia (PID, Fuzzy o LQR) ofrecían una fiabilidad similar, bajo las mismas condiciones experimentales. Una vez confirmado este extremo, se eligió de forma aleatoria un representante de clase de cada familia de controladores, para efectuar una batería de pruebas más exhaustiva, con el objeto de obtener datos que permitieran comparar de una forma más completa la fiabilidad de los controladores bajo estudio. Ante la imposibilidad de realizar un elevado número de pruebas con un robot real, así como para evitar daños en un dispositivo que generalmente tiene un coste significativo, ha sido necesario construir un simulador multicomputador del robot. Dicho simulador ha sido utilizado tanto en las actividades de obtención de controladores bien ajustados, como en la realización de los diferentes ensayos necesarios para el experimento de fiabilidad. ABSTRACT Autonomous mobile robots and remotely operated robots are used successfully in very diverse scenarios, such as home cleaning, movement of goods in warehouses or space exploration. However, it is difficult to ensure the absence of defects in programs controlling these devices, as it happens in most computer sectors. There exist different quality measures of a system when performing the functions for which it was designed, among them, reliability. For most physical systems, a degradation occurs as the system ages. This is generally due to the wear effect. In software systems, this does not usually happen, and defects often come from system development and not from use. Let us assume that we focus on the coding stage in the software development pro¬cess. We could consider a study to find out the reliability of different and equally valid algorithms, taking into account any flaws that programmers may introduce. This basic study may have several applications, such as choosing the algorithm less sensitive to pro¬gramming defects for the development of a critical system. We could also establish more demanding procedures for verification and validation if we need an algorithm with high sensitivity to programming defects. In this thesis, we studied the influence of certain types of software defects in the reliability of three multivariable speed controllers (PID, Fuzzy and LQR) designed to work in a specific mobile robot. The hypothesis is that similar defect patterns affect differently the reliability of controllers, and it has been confirmed by the results. From the viewpoint of experimental planning, we followed these steps. First, we conducted the necessary test to determine if controllers of the same family (PID, Fuzzy or LQR) offered a similar reliability under the same experimental conditions. Then, a class representative was chosen at ramdom within each controller family to perform a more comprehensive test set, with the purpose of getting data to compare more extensively the reliability of the controllers under study. The impossibility of performing a large number of tests with a real robot and the need to prevent the damage of a device with a significant cost, lead us to construct a multicomputer robot simulator. This simulator has been used to obtain well adjusted controllers and to carry out the required reliability experiments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se ha analizado el problema de la detección de fugas de CO2 en reservorios naturales utilizados como almacenes de este gas. Los trabajos han sido realizados sobre un área del Campo de Calatrava, Ciudad Real, España, donde a causa de la actividad volcánica remanente se pueden encontrar puntos de emisión de CO2. Se han utilizado imágenes QuickBird y WorldView-2 para la generación de firmas espectrales e índices de vegetación. Estos índices han sido evaluados para obtener los más idóneos para la detección de fugas de CO2. Palabras clave: teledetección, CO2, vegetación, satélite. ABSTRACT The problem of detecting CO2 leaks in natural reservoirs used to store the gas has been analyzed. The works have been done over an area where, because of the residual volcanic activity, CO2 delivery spots can be found. This area is located in Campo de Calatrava, Ciudad Real, Spain. QuickBird and WorldView-2 imagery has been used to generate spectral signatures and vegetation indexes. These indexes have been evaluated in order to obtain the most suitable ones to detect CO2 leaks. Keywords: remote sensing, CO2, vegetation, satellite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La computación distribuida ha estado presente desde hace unos cuantos años, pero es quizás en la actualidad cuando está contando con una mayor repercusión. En los últimos años el modelo de computación en la nube (Cloud computing) ha ganado mucha popularidad, prueba de ello es la cantidad de productos existentes. Todo sistema informático requiere ser controlado a través de sistemas de monitorización que permiten conocer el estado del mismo, de tal manera que pueda ser gestionado fácilmente. Hoy en día la mayoría de los productos de monitorización existentes limitan a la hora de visualizar una representación real de la arquitectura de los sistemas a monitorizar, lo que puede dificultar la tarea de los administradores. Es decir, la visualización que proporcionan de la arquitectura del sistema, en muchos casos se ve influenciada por el diseño del sistema de visualización, lo que impide ver los niveles de la arquitectura y las relaciones entre estos. En este trabajo se presenta un sistema de monitorización para sistemas distribuidos o Cloud, que pretende dar solución a esta problemática, no limitando la representación de la arquitectura del sistema a monitorizar. El sistema está formado por: agentes, que se encargan de la tarea de recolección de las métricas del sistema monitorizado; un servidor, al que los agentes le envían las métricas para que las almacenen en una base de datos; y una aplicación web, a través de la que se visualiza toda la información. El sistema ha sido probado satisfactoriamente con la monitorización de CumuloNimbo, una plataforma como servicio (PaaS), que ofrece interfaz SQL y procesamiento transaccional altamente escalable sobre almacenes clave valor. Este trabajo describe la arquitectura del sistema de monitorización, y en concreto, el desarrollo de la principal contribución al sistema, la aplicación web. ---ABSTRACT---Distributed computing has been around for quite a long time, but now it is becoming more and more important. In the last few years, cloud computing, a branch of distributed computing has become very popular, as its different products in the market can prove. Every computing system requires to be controlled through monitoring systems to keep them functioning correctly. Currently, most of the monitoring systems in the market only provide a view of the architectures of the systems monitored, which in most cases do not permit having a real view of the system. This lack of vision can make administrators’ tasks really difficult. If they do not know the architecture perfectly, controlling the system based on the view that the monitoring system provides is extremely complicated. The project introduces a new monitoring system for distributed or Cloud systems, which shows the real architecture of the system. This new system is composed of several elements: agents, which collect the metrics of the monitored system; a server, which receives the metrics from the agents and saves them in a database; and a web application, which shows all the data collected in an easy way. The monitoring system has been tested successfully with Cumulonimbo. CumuloNimbo is a platform as a service (PaaS) which offers an SQL interface and a high-scalable transactional process. This platform works over key-value storage. This project describes the architecture of the monitoring system, especially, the development of the web application, which is the main contribution to the system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El continuo desarrollo que está teniendo el mundo de las telecomunicaciones móviles hace que la red móvil esté sufriendo progresivos cambios para adaptarse a las nuevas tecnologías móviles que ofrecen un mejor servicio. El cambio en la red móvil no solo se produce por el desarrollo de las nuevas generaciones móviles. La red móvil se adapta también a la demanda de usuarios la cual no deja de incrementar a lo largo de los últimos años. Por tanto, los operadores tienen que ampliar su red instalando nodos que tengan las nuevas tecnologías y también las anteriores. Aparte de crear nuevos nodos también tienen que modificar sus nodos antiguos y convertirlos en nodos que soporten mayor número de usuarios. Hoy en día, en España, se están instalando nuevos nodos con 2G, 3G y 4G y además se están realizando ampliaciones de portadora para 3G. Este proyecto se divide en cuatro partes, la primera de ella se centra en explicar el proceso a seguir para la instalación de un nuevo nodo urbano. Este proceso es muy parecido para instalar un nodo con una tecnología u otra, en el caso del proyecto se explicarán los pasos a seguir para la instalación de un nodo con 2G y 3G. Posteriormente se explicará cómo se realizan las medidas para corroborar el correcto funcionamiento de un nodo rural y se compararán a las medidas de zona urbana mediante capturas de un nodo específico. En la penúltima parte del proyecto se estudia la cobertura en interiores y las diversas soluciones que se toman normalmente para mejorar dicha cobertura en edificios, almacenes y centros comerciales. Por último aparecen las conclusiones del proyecto y los trabajos futuros en donde se realiza una visión de posibles estudios relacionados con este proyecto y una visión de cómo puede quedar formada la red en unos años. ABSTRACT. Due to the continuous development of mobile telecommunications the mobile networks have undergone rapid changes to adapt to new mobile technologies that offer a better service. The mobile network change hasn´t only occurred because of the development of new generations of mobile radio-communications. The mobile network adapts itself to user demand, which has been growing over the last few years faster than expected. Therefore, mobile operators have to enlarge its network by installing nodes that share the old and new technologies. Apart from creating new nodes, the operators have to modify the old ones and turn them into nodes that support an increasing number of users. Nowadays, in Spain new nodes with 2G 3G and 4G are being installed, and carrier extensions for 3G are being made as well. This project is divided into four parts. The first chapter focuses on explaining the process that should be followed to install a new urban node. This process is similar to install a node with any of the technologies available. In the case of this project, the steps to follow in setting up a wireless node with 2G and 3G will be detailed. Afterwards, in the second chapter the document continues explaining the measurements that should be carried out to ensure proper performance of a rural node. Then, those measurements will be compared with the ones of an urban node. In the third part of the project it is explained how coverage indoor studies are performed, and the different solutions that are usually proposed to improve coverage in buildings, stores and shopping centers. The last chapter explains the conclusions that have been reached and future works. It is provided a widespread view of possible studies related to this project and how the mobile will improve in the following years.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el día a día y mantenimiento de una empresa o negocio, pronto surge la necesidad de gestionar y almacenar la información, y según va creciendo la cantidad de información relativa al negocio, es más importante o primordial la adopción de soluciones y/o aplicaciones informáticas que nos faciliten dichas labores. Años atrás, antes de que las aplicaciones informáticas estuvieran al alcance de todo tipo de negocios, no quedaba otra solución que almacenar grandes cantidades de información impresa, lo cual implica un gran esfuerzo y trabajo, disponer del espacio necesario y correr ciertos riesgos ante posibles errores o fallos en su gestión. Actualmente las aplicaciones informáticas están prácticamente al alcance de cualquier pequeña y mediana empresa. Con dichas aplicaciones conseguimos un gran almacenamiento, control y gestión de la información, y además se disminuye el esfuerzo humano, la necesidad de amplios almacenes, y probabilidad de errores en la gestión de dicha información. Pero no todo serán ventajas. Dependiendo del tipo y complejidad de la aplicación, se necesitará un personal más o menos especializado informáticamente, o bien la aplicación de una formación informática específica a aquel personal que la necesitase para poder manejar la aplicación correctamente. Por otro lado habría que invertir en la maquinaria adecuada para poder ejecutar la aplicación sin problemas, lo cual conlleva un coste y un futuro mantenimiento. Y además hay que ser conscientes que a partir del momento en que se informatiza un negocio, la empresa y el funcionamiento de la misma pasan a depender en mayor medida del correcto funcionamiento de una “máquina”, pero para ello existen sistemas y copias de seguridad que mitigan dichos riesgos. Es obvio que existen grandes ventajas y también ciertos riesgos, pero parece claro que una vez que se informatiza un negocio, el almacenamiento y gestión de la información es mucho más sencillo y ágil. Una vez decidida la informatización del negocio, hay que decidir si se acude a algunas de las soluciones informáticas que ya existen implementadas en el mercado, o bien se elige la solución de implementar una aplicación a medida según las necesidades y características del negocio. En función del tipo de negocio y los gustos del empresario, se adoptará por una solución u otra, siendo cualquiera de ellas totalmente válida. En el caso que nos aborda, acometeremos la informatización de un gimnasio que además ofertará como opción un servicio de guardería para los bebés de los clientes, para que de esta manera los clientes puedan realizar sus ejercicios físicos con total tranquilidad y despreocupación respecto a sus bebés. Los objetivos que se persiguen al informatizar el negocio son: -Agilizar, simplificar y potenciar la gestión de la empresa. -Reducir la cantidad de información impresa que se maneja actualmente. -Tener mayor control global del negocio. -Ofrecer mayor transparencia y velocidad de respuesta en la información proporcionada a los clientes. -Facilitar las posibles futuras ampliaciones del negocio. Para cumplir dichos objetivos se implementará una aplicación estructurada en los diferentes módulos que componen nuestro negocio, y a la vez tendrá un aspecto y funcionamiento muy homogéneo para facilitar su utilización y explotación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La geobotánica (fitogeografía), rama de la biogeografía, estudia cómo la tectónica de placas y las orogénesis determinan una distribución de tierras, mares y accidentes geográficos, el aislamiento o la conexión de poblaciones, la distribución espacial de las especies y los fenómenos de especialización. La corología, por su parte, se ocupa de la distribución geográfica de cada especie, siendo el clima y el suelo los principales factores que influyen en la misma. Como resumen podemos decir que para la geobotánica es de interés poder obtener y analizar: mapas corológicos, los factores limitantes climáticos y químicos, y la relación con el medio y otras especies. El objetivo de la aplicación Web desarrollada, basada en estándares OGC para el acceso y visualización de información geográfica, es dotar a los geobotánicos de una herramienta sencilla y accesible en Web, que ayude en los procesos de estudio y análisis de la distribución de especies vegetales en el territorio y sus condicionantes. La aplicación, desarrollada a partir de los datos del inventario botánico del profesor Martínez Labarga de la cuenca media del Tajo, permite realizar estudios y análisis geobotánicos, apoyándose en la confección de mapas corológicos y la correlación de la distribución de cada especie con las magnitudes climáticas de temperatura o precipitación y las características de los suelos sobre los que aparece. Esta aplicación dispone de una arquitectura de 3 capas (almacenes de datos, servicios y clientes) y ha sido desarrollada con tecnologías OpenSource (PostGIS, Geoserver, Apache httpd, OpenLayers, GeoExt, php) y consume datos propios publicados mediante estándares OGC (WMS y WFS) y capas de la IDE tanto de suelos (litológico, geológico, topográfico, ortoimágenes) como climáticos (precipitaciones y temperaturas ?CREAF). El desarrollo de la aplicación y la prueba de concepto han permitido identificar algunos problemas de rendimiento a la hora de realizar consultas al Atlas Climático de la Península Ibérica y se ha propuesto una solución basada en el cacheado de datos consultados en tiempo de ejecución

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta memoria estudiamos problemas geométricos relacionados con la Localización de Servicios. La Localización de Servicios trata de la ubicación de uno o más recursos (radares, almacenes, pozos exploradores de petróleo, etc) de manera tal que se optimicen ciertos objetivos (servir al mayor número de usuarios posibles, minimizar el coste de transporte, evitar la contaminación de poblaciones cercanas, etc). La resolución de este tipo de problemas de la vida real da lugar a problemas geométricos muy interesantes. En el planteamiento geométrico de muchos de estos problemas los usuarios potenciales del servicio son representados por puntos mientras que los servicios están representados por la figura geométrica que mejor se adapta al servicio prestado: un anillo para el caso de radares, antenas de radio y televisión, aspersores, etc, una cuña si el servicio que se quiere prestar es de iluminación, por ejemplo, etc. Estas son precisamente las figuras geométricas con las que hemos trabajado. En nuestro caso el servicio será sólo uno y el planteamiento formal del problema es como sigue: dado un anillo o una cuña de tamaño fijo y un conjunto de n puntos en el plano, hallar cuál tiene que ser la posición del mismo para que se cubra la mayor cantidad de puntos. Para resolver estos problemas hemos utilizado arreglos de curvas en el plano. Los arreglos son una estructura geométrica bien conocida y estudiada dentro de la Geometría Computacional. Nosotros nos hemos centrado en los arreglos de curvas de Jordán no acotadas que se intersectan dos a dos en a lo sumo dos puntos, ya que estos fueron los arreglos con los que hemos tenido que tratar para la resolución de los problemas. De entre las diferentes técnicas para la construcción de arreglos hemos estudiado el método incremental, ya que conduce a algoritmos que son en general más sencillos desde el punto de vista de la codificación. Como resultado de este estudio hemos obtenido nuevas cotas que mejoran la complejidad del tiempo de construcción de estos arreglos con algoritmos incrementales. La nueva cota Ο(n λ3(n)) supone una mejora respecto a la cota conocida hasta el momento: Ο(nλ4(n)).También hemos visto que en ciertas condiciones estos arreglos pueden construirse en tiempo Ο(nλ2(n)), que es la cota óptima para la construcción de estos arreglos. Restringiendo el estudio a curvas específicas, hemos obtenido que los arreglos de n circunferencias de k radios diferentes pueden construirse en tiempo Ο(n2 min(log(k),α(n))), resultado válido también para arreglos de elipses, parábolas o hipérbolas de tamaños diferentes cuando las figuras son todas isotéticas.---ABSTRACT--- In this work some geometric problems related with facility location are studied. Facility location deals with location of one or more facilities (radars, stores, oil wells, etc.) in such way that some objective functions are to be optimized (to cover the maximum number of users, to minimize the cost of transportation, to avoid pollution in the nearby cities, etc.). These kind of real world problems give rise to very interesting geometrical problems. In the geometric version of many of these problems, users are represented as points while facilities are represented as different geometric objects depending on the shape of the corresponding facility: an annulus in the case of radars, radio or TV antennas, agricultural spraying devices, etc. A wedge in many illumination or surveillance applications. These two shapes are the geometric figures considered in this Thesis. The formal setting of the problem is the following: Given an annulus or a wedge of fixed size and a set of n points in the plane, locate the best position for the annulus or the wedge so that it covers as many points as possible. Those problems are solved by using arrangements of curves in the plane. Arrangements are a well known geometric structure. Here one deals with arrangements of unbounded Jordan curves which intersect each other in at most two points. Among the different techniques for computing arrangements, incremental method is used because it is easier for implementations. New time complexity upper bounds has been obtained in this Thesis for the construction of such arrangements by means of incremental algorithms. New upper bound is Ο(nλ3(n)) which improves the best known up to now Ο(nλ4(n)). It is shown also that sometimes this arrangements can be constructed in Ο(nλ2(n)), which is the optimal bound for constructing these arrangements. With respect to specific type of curves, one gives an Ο(n2 min(log(k),α(n))), algorithm that constructs the arrangement of a set of n circles of k different radii. This algorithm is also valid for ellipses parabolas or hyperbolas of k different sizes when all of them are isothetic.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Logic programming (LP) is a family of high-level programming languages which provides high expressive power. With LP, the programmer writes the properties of the result and / or executable specifications instead of detailed computation steps. Logic programming systems which feature tabled execution and constraint logic programming have been shown to increase the declarativeness and efficiency of Prolog, while at the same time making it possible to write very expressive programs. Tabled execution avoids infinite failure in some cases, while improving efficiency in programs which repeat computations. CLP reduces the search tree and brings the power of solving (in)equations over arbitrary domains. Similarly to the LP case, CLP systems can also benefit from the power of tabling. Previous implementations which take ful advantage of the ideas behind tabling (e.g., forcing suspension, answer subsumption, etc. wherever it is necessary to avoid recomputation and terminate whenever possible) did not offer a simple, well-documented, easy-to-understand interface. This would be necessary to make the integratation of arbitrary CLP solvers into existing tabling systems possible. This clearly hinders a more widespread usage of the combination of both facilities. In this thesis we examine the requirements that a constraint solver must fulfill in order to be interfaced with a tabling system. We propose and implement a framework, which we have called Mod TCLP, with a minimal set of operations (e.g., entailment checking and projection) which the constraint solver has to provide to the tabling engine. We validate the design of Mod TCLP by a series of use cases: we re-engineer a previously existing tabled constrain domain (difference constraints) which was connected in an ad-hoc manner with the tabling engine in Ciao Prolog; we integrateHolzbauer’s CLP(Q) implementationwith Ciao Prolog’s tabling engine; and we implement a constraint solver over (finite) lattices. We evaluate its performance with several benchmarks that implement a simple abstract interpreter whose fixpoint is reached by means of tabled execution, and whose domain operations are handled by the constraint over (finite) lattices, where TCLP avoids recomputing subsumed abstractions.---ABSTRACT---La programación lógica con restricciones (CLP) y la tabulación son extensiones de la programación lógica que incrementan la declaratividad y eficiencia de Prolog, al mismo tiempo que hacen posible escribir programasmás expresivos. Las implementaciones anteriores que integran completamente ambas extensiones, incluyendo la suspensión de la ejecución de objetivos siempre que sea necesario, la implementación de inclusión (subsumption) de respuestas, etc., en todos los puntos en los que sea necesario para evitar recomputaciones y garantizar la terminación cuando sea posible, no han proporcionan una interfaz simple, bien documentada y fácil de entender. Esta interfaz es necesaria para permitir integrar resolutores de CLP arbitrarios en el sistema de tabulación. Esto claramente dificulta un uso más generalizado de la integración de ambas extensiones. En esta tesis examinamos los requisitos que un resolutor de restricciones debe cumplir para ser integrado con un sistema de tabulación. Proponemos un esquema (y su implementación), que hemos llamadoMod TCLP, que requiere un reducido conjunto de operaciones (en particular, y entre otras, entailment y proyección de almacenes de restricciones) que el resolutor de restricciones debe ofrecer al sistema de tabulación. Hemos validado el diseño de Mod TCLP con una serie de casos de uso: la refactorización de un sistema de restricciones (difference constraints) previamente conectado de un modo ad-hoc con la tabulación de Ciao Prolog; la integración del sistema de restricciones CLP(Q) de Holzbauer; y la implementación de un resolutor de restricciones sobre retículos finitos. Hemos evaluado su rendimiento con varios programas de prueba, incluyendo la implementación de un intérprete abstracto que alcanza su punto fijo mediante el sistema de tabulación y en el que las operaciones en el dominio son realizadas por el resolutor de restricciones sobre retículos (finitos) donde TCLP evita la recomputación de valores abstractos de las variables ya contenidos en llamadas anteriores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La conciencia de la crisis de la modernidad -que comienza ya a finales del siglo XIX- ha cobrado más experiencia debido al conocimiento de los límites del desarrollo económico, ya que como parecía razonable pensar, también los recursos naturales son finitos. En 1972, el Club de Roma analizó las distintas opciones disponibles para conseguir armonizar el desarrollo sostenible y las limitaciones medioambientales. Fue en 1987 cuando la Comisión Mundial para el Medio Ambiente y el Desarrollo de la ONU definía por primera vez el concepto de desarrollo sostenible. Definición que posteriormente fue incorporada en todos los programas de la ONU y sirvió de eje, por ejemplo, a la Cumbre de la Tierra celebrada en Río de Janeiro en 1992. Parece evidente que satisfacer la demanda energética, fundamentalmente desde la Revolución Industrial en el s XIX, trajo consigo un creciente uso de los combustibles fósiles, con la consiguiente emisión de los gases de efecto invernadero (GEI) y el aumento de la temperatura global media terrestre. Esta temperatura se incrementó en los últimos cien años en una media de 0.74ºC. La mayor parte del incremento observado desde la mitad del siglo XX en esta temperatura media se debe, con una probabilidad de al menos el 90%, al aumento observado en los GEI antropogénicos, siendo uno de ellos el CO2 que proviene de la transformación del carbono de los combustibles fósiles durante su combustión. Ante el creciente uso de los combustibles fósiles, los proyectos CAC, proyectos de captura, transporte y almacenamiento, se presentan como una contribución al desarrollo sostenible ya que se trata de una tecnología que permite mitigar el cambio climático. Para valorar si la tecnología CAC es sostenible, habrá que comprobar si existe o no capacidad para almacenar el CO2 en una cantidad mayor a la de producción y durante el tiempo necesario que impone la evolución de la concentración de CO2 en la atmósfera para mantenerla por debajo de las 450ppmv (concentración de CO2 que propone el Panel Intergubernamental para el Cambio Climático). El desarrollo de los proyectos CAC completos pasa por la necesaria selección de adecuados almacenes de CO2 que sean capaces de soportar los efectos de las presiones de inyección, así como asegurar la capacidad de dichos almacenes y la estanqueidad del CO2 en los mismos. La caracterización geológica de un acuífero susceptible de ser almacén de CO2 debe conducir a determinar las propiedades que dicho almacén posee para asegurar un volumen adecuado de almacenamiento, una inyectabilidad del CO2 en el mismo a un ritmo adecuado y la estanqueidad del CO2 en dicho acuífero a largo plazo. El presente trabajo pretende estudiar los parámetros que tienen influencia en el cálculo de la capacidad del almacén, para lo que en primer lugar se ha desarrollado la tecnología necesaria para llevar a cabo la investigación mediante ensayos de laboratorio. Así, se ha desarrollado una patente, "ATAP, equipo para ensayos petrofísicos (P201231913)", con la que se ha llevado a cabo la parte experimental de este trabajo para la caracterización de los parámetros que tienen influencia en el cálculo de la capacidad del almacén. Una vez desarrollada la tecnología, se aborda el estudio de los distintos parámetros que tienen influencia en la capacidad del almacén realizando ensayos con ATAP. Estos ensayos definen el volumen del almacenamiento, llegándose a la conclusión de que en la determinación de este volumen, juegan un papel importante el alcance de los mecanismos trampa, físicos o químicos, del CO2 en el almacén. Ensayos que definen la capacidad del almacén de "aceptar" o "rechazar" el CO2 inyectado, la inyectabilidad, y por último, ensayos encaminados a determinar posibles fugas que se pueden dar a través de los pozos de inyección, definidos estos como caminos preferenciales de fugas en un almacén subterráneo de CO2. Queda de este modo caracterizada la estanqueidad del CO2 en el acuífero a largo plazo y su influencia obvia en la determinación de la capacidad del almacén. Unido al propósito de la estimación de la capacidad del almacén, se encuentra el propósito de asegurar la estanqueidad de dichos almacenes en el tiempo, y adelantarse a la evolución de la pluma de CO2 en el interior de dichos almacenes. Para cumplir este propósito, se ha desarrollado un modelo dinámico a escala de laboratorio, mediante el programa ECLIPSE 300, con el fin de establecer una metodología para el cálculo de la capacidad estimada del almacén, así como el estudio de la evolución de la pluma de CO2 dentro del acuífero a lo largo del tiempo, partiendo de los resultados obtenidos en los ensayos realizados en ATAP y con la modelización de la probeta de roca almacén empleada en dichos ensayos. Presentamos por tanto un trabajo que establece las bases metodológicas para el estudio de la influencia de distintos parámetros petrofísicos en el cálculo de la capacidad del almacén unidos al desarrollo tecnológico de ATAP y su utilización para la determinación de dichos parámetros aplicables a cada acuífero concreto de estudio. ABSTRACT The crisis of modernity –which begins at the end of 19th Century- has been more important due to the knowledge of the limits of economic development, since it appeared to be thought reasonable, the natural resources are finite. In 1972, The Club of Rome analyzed the different options available in order to harmonize the sustainability and the environment development. It was in 1987 when The Global Commission on The Environment and the Development of UN, defined for the first time the concept of Sustainable Development. This definition that was fully incorporated in all the UN programs and it was useful as an axis, for example, in La Cumbre de la Tierra summit in Río de Janeiro in 1992. It seems obvious to satisfy energetic demand, basically after The Industrial Revolution in 19th Century, which represented an increasing use of fossil fuels, therefore greenhouse gases emission and the increasing of global average temperature. This temperature increased in the last 100 years up to 0.74ºC. The major part of the temperature increase is due to the increase observed in Greenhouse gases with human origin, at least with 90% of probability. The most important gas is the CO2 because of its quantity. In the face of the increasing use of fossil fuels, the CCS projects, Carbon Capture and Storage projects, appear as a contribution of sustainable development since it is a technology for avoiding the climate change. In order to evaluate if CCS technology is sustainable, it will be necessary to prove if the capacity for CO2 storage is available or not in a quantity greater than the production one and during the time necessary to keep the CO2 concentration in the atmosphere lower than 450ppmv (concentration imposed by IPCC). The development of full CCS projects goes through the selection of good CO2 storages that are able to support the effects of pressure injection, and assure the capacity of such storages and the watertightness of CO2. The geological characterization of the aquifer that could be potential CO2 storage should lead to determine the properties that such storage has in order to assure the adequate storage volume, the CO2 injectivity in a good rate, and the watertightness of the CO2 in the long term. The present work aims to study the parameters that have influence on the calculation of storage capacity, and for that purpose the appropriate technology has been developed for carrying out the research by mean of laboratory tests. Thus, a patent has been developed, "ATAP, equipo para ensayos petrofísicos (P201231913)", that has been used for developing the experimental part of this work. Once the technology has been developed, the study of different parameters, that have influence on the capacity of the storage, has been addressed developing different tests in ATAP. These tests define the storage volume which is related to the scope of different CO2 trap mechanisms, physical or chemical, in the storage. Tests that define the capacity of the storage to “accept” or “reject” the injected CO2, the injectivity, and tests led to determine possible leakages through injection wells. In this way we could talk about the watertightness in the aquifer in the long term and its influence on the storage capacity estimation. Together with the purpose of the storage capacity estimation, is the purpose of assuring the watertightness of such storages in the long term and anticipating the evolution of CO2 plume inside such aquifers. In order to fulfill this purpose, a dynamic model has been developed with ECLIPSE 300, for stablishing the methodology for the calculation of storage capacity estimation and the evolution of the CO2 plume, starting out with the tests carried out in ATAP. We present this work that establishes the methodology bases for the study of the influence of different petrophysics parameters in the calculation of the capacity of the storage together with the technological development of ATAP and its utilization for the determination of such parameters applicable to each aquifer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El avance tecnológico de los últimos años ha aumentado la necesidad de guardar enormes cantidades de datos de forma masiva, llegando a una situación de desorden en el proceso de almacenamiento de datos, a su desactualización y a complicar su análisis. Esta situación causó un gran interés para las organizaciones en la búsqueda de un enfoque para obtener información relevante de estos grandes almacenes de datos. Surge así lo que se define como inteligencia de negocio, un conjunto de herramientas, procedimientos y estrategias para llevar a cabo la “extracción de conocimiento”, término con el que se refiere comúnmente a la extracción de información útil para la propia organización. Concretamente en este proyecto, se ha utilizado el enfoque Knowledge Discovery in Databases (KDD), que permite lograr la identificación de patrones y un manejo eficiente de las anomalías que puedan aparecer en una red de comunicaciones. Este enfoque comprende desde la selección de los datos primarios hasta su análisis final para la determinación de patrones. El núcleo de todo el enfoque KDD es la minería de datos, que contiene la tecnología necesaria para la identificación de los patrones mencionados y la extracción de conocimiento. Para ello, se utilizará la herramienta RapidMiner en su versión libre y gratuita, debido a que es más completa y de manejo más sencillo que otras herramientas como KNIME o WEKA. La gestión de una red engloba todo el proceso de despliegue y mantenimiento. Es en este procedimiento donde se recogen y monitorizan todas las anomalías ocasionadas en la red, las cuales pueden almacenarse en un repositorio. El objetivo de este proyecto es realizar un planteamiento teórico y varios experimentos que permitan identificar patrones en registros de anomalías de red. Se ha estudiado el repositorio de MAWI Lab, en el que se han almacenado anomalías diarias. Se trata de buscar indicios característicos anuales detectando patrones. Los diferentes experimentos y procedimientos de este estudio pretenden demostrar la utilidad de la inteligencia de negocio a la hora de extraer información a partir de un almacén de datos masivo, para su posterior análisis o futuros estudios. ABSTRACT. The technological progresses in the recent years required to store a big amount of information in repositories. This information is often in disorder, outdated and needs a complex analysis. This situation has caused a relevant interest in investigating methodologies to obtain important information from these huge data stores. Business intelligence was born as a set of tools, procedures and strategies to implement the "knowledge extraction". Specifically in this project, Knowledge Discovery in Databases (KDD) approach has been used. KDD is one of the most important processes of business intelligence to achieve the identification of patterns and the efficient management of the anomalies in a communications network. This approach includes all necessary stages from the selection of the raw data until the analysis to determine the patterns. The core process of the whole KDD approach is the Data Mining process, which analyzes the information needed to identify the patterns and to extract the knowledge. In this project we use the RapidMiner tool to carry out the Data Mining process, because this tool has more features and is easier to use than other tools like WEKA or KNIME. Network management includes the deployment, supervision and maintenance tasks. Network management process is where all anomalies are collected, monitored, and can be stored in a repository. The goal of this project is to construct a theoretical approach, to implement a prototype and to carry out several experiments that allow identifying patterns in some anomalies records. MAWI Lab repository has been selected to be studied, which contains daily anomalies. The different experiments show the utility of the business intelligence to extract information from big data warehouse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo se centra en la elaboración de un estudio y análisis de una red de suministros, con el objetivo de reducir el stock de producto terminado y hacer una propuesta de rediseño de la red de abastecimiento y distribución. Los principales agentes implicados en el proyecto son la empresa Aguabuena1, matriz española de la multinacional Goodwater¹, SERTEC¹, la empresa de servicio técnico oficial de Aguabuena y principal agente implicado en el proyecto, y las 24 empresas de servicio técnico, EST’s, que trabajan con contratos de exclusividad para SERTEC en todo el territorio nacional, así como los proveedores de los equipos de filtrado de agua y los clientes. La actual red de suministros presenta evidentes deficiencias. Los problemas de abastecimiento que existen no permiten, por un lado, respetar los contratos de nivel de servicio establecidos entre SERTEC y los clientes y por otro, multiplican el número de traslados de material entre almacenes para satisfacer la demanda (estos almacenes están controlados y gestionados por las diferentes empresas de servicio técnico). Los traslados conllevan una gran dispersión del stock, en hasta 40 localizaciones en todo el territorio, y suponen unos costes de transporte elevados entre los puntos de origen, los almacenes de producto terminado donde se localiza el equipo de filtrado, y los puntos de destino donde se instalará el producto. Además el gran volumen de stock conlleva una inversión en equipos muy elevada y supone asumir un coste financiero excesivo para la organización. Con la elaboración del presente proyecto se pretende reducir el número de localizaciones con stock dentro del territorio nacional, a través del rediseño de la red de suministro, con una propuesta que se adapte a las necesidades de los clientes y agentes implicados. Antes de describir las nuevas propuestas de red de abastecimiento fue necesario conocer el coste y características de la red de distribución actual, con el fin de obtener un modelo con el que comparar las nuevas propuestas posibles a implementar. Por ello se realizó un análisis profundo de la operativa, características y costes del modelo logístico o red que se tiene implementada en la actualidad en el sistema. Este análisis permitió además dar a conocer el coste logístico que supone la actual red de abastecimiento que era, en líneas generales, desconocido para SERTEC, Aguabuena y las 24 EST’s. En esta etapa de análisis de la situación y del sistema logístico actual fue necesaria la recopilación de información al respecto: datos de demanda, datos de stock, datos de cobertura, maestro de materiales, almacenes, costes de transporte², almacenaje², expedición², preparación2… con el objetivo de evaluar el sistema logístico actual y tener unos baremos con los que estimar los costes de las propuestas futuras de red de abastecimiento. Una vez analizado el sistema actual, se identificaron oportunidades de mejora del mismo y se inició una nueva fase de diseño de propuestas de red para la distribución. La metodología seguida para la propuesta de escenarios de red fue la siguiente: En una primera etapa se realizó una sesión de trabajo con diferentes participantes que, a través de la técnica de brainstorming, realizaron una serie de propuestas de red. Estas propuestas de red fueron recogidas y evaluadas inicialmente aceptándose algunas de ellas para su valoración cualitativa específica. La segunda etapa consistió en la valoración cualitativa, que se realizó conforme a unos criterios establecidos y consensuados entre los participantes en la sesión de propuestas anterior. Se ponderó cada uno de los criterios y se resumió la valoración de cada escenario de red a través de medias ponderadas. Los escenarios o propuestas con mejor valoración pasaron a la tercera etapa del proceso; la etapa de análisis cuantitativo. En esta etapa se definieron y evaluaron de forma explícita los costes logísticos y financieros que conllevaba cada una de las propuestas de escenario de red. Para ello se establecieron algunas hipótesis de simplificación y cálculo en cada una de las propuestas, y se construyeron las cadenas de costes completas del proceso de distribución, desde la salida del producto desde el proveedor, hasta su instalación final en el punto de destino. Estas cadenas reflejan los costes imputables en el proceso de distribución, su valor y responsable y permiten tener una visión general y resumida de la propuesta de red logística. Entre las hipótesis de simplificación en las propuestas de escenario destaca la elaboración de un modelo de programación lineal que minimiza el coste de transporte desde n localizaciones con stock, especificadas de antemano, a todas las provincias del territorio nacional para diferentes tipologías de envío entre origen y destino. Una vez evaluadas las diferentes propuestas de escenario de red de forma cualitativa y cuantitativa se compararon las valoraciones de cada una de las propuestas y se procedió a señalar una o varias propuestas de posible implementación futura. Finalmente, para estas propuestas de implementación se realizó un estudio previo de riesgos y los impactos previstos para cada riesgo identificado, así como un análisis inicial del impacto ambiental que supondrían las propuestas de red a implementar. Los resultados obtenidos en el desarrollo del presente proyecto fueron los siguientes: Como conclusión de los análisis previos, se definieron 3 posibles escenarios de red a implementar en un futuro. Cada uno de los cuales cumple los requisitos y objetivos que se pretendían alcanzar al inicio del proyecto además de adecuarse a los requisitos iniciales establecidos y los acuerdos de nivel de servicio vigentes. Estos escenarios se denominaron C.1, C.2, y D.2 correspondientes con la nomenclatura que se fue dando a los diferentes escenarios en su etapa de proposición. - El escenario C.1 conlleva, según el estudio realizado, una reducción de localizaciones con stock de 40 a 1, con una reducción del volumen de stock del 84% y un aumento del coste logístico del 40% respecto a la situación actual. - El escenario C.2 conlleva, según el estudio realizado, una reducción de localizaciones con stock de 40 a 9, con una reducción del volumen de stock del 63% y un aumento del coste logístico del 5% respecto a la situación actual. - El escenario D.2 conlleva, según el estudio realizado, una reducción de localizaciones con stock de 40 a 16, con una reducción del volumen de stock del 42% y una reducción del coste logístico del 24% respecto a la situación actual. Los resultados obtenidos del proyecto estaban en consonancia con los objetivos propuestos y las metas a alcanzar en el inicio del mismo. Las conclusiones y recomendaciones derivadas de la realización de este proyecto se resumen en los siguientes puntos: - El rediseño de las redes de abastecimiento y distribución es un proceso complejo que engloba la integración y coordinación de numerosos agentes, procesos, y actividades. Es necesaria una atención especial y un enfoque claro en la visión de conjunto y coherencia que deben tener estos procesos de rediseño. - Las herramientas de análisis tales como la Programación Lineal o la simulación por ordenador de redes logísticas, así como los fundamentos estadísticos relativos a las distribuciones de probabilidad, simulación y valoración suponen una potente ayuda a la hora de caracterizar y rediseñar sistemas logísticos. - Las oportunidades de mejora operativa y económica en las organizaciones, derivadas del desarrollo de soluciones específicas adaptadas a las necesidades y características particulares de cada cadena de suministro, permiten obtener una ventaja competitiva y facilitan la mejora continua en aquellas organizaciones dispuestas al cambio y adaptación como pilares del crecimiento empresarial sostenible.