167 resultados para Optimización combinatoria
em Universidad Politécnica de Madrid
Resumo:
La tesis está focalizada en la resolución de problemas de optimización combinatoria, haciendo uso de las opciones tecnológicas actuales que ofrecen las tecnologías de la información y las comunicaciones, y la investigación operativa. Los problemas de optimización combinatoria se resuelven en general mediante programación lineal y metaheurísticas. La aplicación de las técnicas de resolución de los problemas de optimización combinatoria requiere de una elevada carga computacional, y los algoritmos deben diseñarse, por un lado pensando en la efectividad para encontrar buenas soluciones del problema, y por otro lado, pensando en un uso adecuado de los recursos informáticos disponibles. La programación lineal y las metaheurísticas son técnicas de resolución genéricas, que se pueden aplicar a diferentes problemas, partiendo de una base común que se particulariza para cada problema concreto. En el campo del desarrollo de software, los frameworks cumplen esa función de comenzar un proyecto con el trabajo general ya disponible, con la opción de cambiar o extender ese comportamiento base o genérico, para construir el sistema concreto, lo que permite reducir el tiempo de desarrollo, y amplía las posibilidades de éxito del proyecto. En esta tesis se han desarrollado dos frameworks de desarrollo. El framework ILP permite modelar y resolver problemas de programación lineal, de forma independiente al software de resolución de programación lineal que se utilice. El framework LME permite resolver problemas de optimización combinatoria mediante metaheurísticas. Tradicionalmente, las aplicaciones de resolución de problemas de optimización combinatoria son aplicaciones de escritorio que permiten gestionar toda la información de entrada del problema y resuelven el problema en local, con los recursos hardware disponibles. Recientemente ha aparecido un nuevo paradigma de despliegue y uso de aplicaciones que permite compartir recursos informáticos especializados por Internet. Esta nueva forma de uso de recursos informáticos es la computación en la nube, que presenta el modelo de software como servicio (SaaS). En esta tesis se ha construido una plataforma SaaS, para la resolución de problemas de optimización combinatoria, que se despliega sobre arquitecturas compuestas por procesadores multi-núcleo y tarjetas gráficas, y dispone de algoritmos de resolución basados en frameworks de programación lineal y metaheurísticas. Toda la infraestructura es independiente del problema de optimización combinatoria a resolver, y se han desarrollado tres problemas que están totalmente integrados en la plataforma SaaS. Estos problemas se han seleccionado por su importancia práctica. Uno de los problemas tratados en la tesis, es el problema de rutas de vehículos (VRP), que consiste en calcular las rutas de menor coste de una flota de vehículos, que reparte mercancías a todos los clientes. Se ha partido de la versión más clásica del problema y se han hecho estudios en dos direcciones. Por un lado se ha cuantificado el aumento en la velocidad de ejecución de la resolución del problema en tarjetas gráficas. Por otro lado, se ha estudiado el impacto en la velocidad de ejecución y en la calidad de soluciones, en la resolución por la metaheurística de colonias de hormigas (ACO), cuando se introduce la programación lineal para optimizar las rutas individuales de cada vehículo. Este problema se ha desarrollado con los frameworks ILP y LME, y está disponible en la plataforma SaaS. Otro de los problemas tratados en la tesis, es el problema de asignación de flotas (FAP), que consiste en crear las rutas de menor coste para la flota de vehículos de una empresa de transporte de viajeros. Se ha definido un nuevo modelo de problema, que engloba características de problemas presentados en la literatura, y añade nuevas características, lo que permite modelar los requerimientos de las empresas de transporte de viajeros actuales. Este nuevo modelo resuelve de forma integrada el problema de definir los horarios de los trayectos, el problema de asignación del tipo de vehículo, y el problema de crear las rotaciones de los vehículos. Se ha creado un modelo de programación lineal para el problema, y se ha resuelto por programación lineal y por colonias de hormigas (ACO). Este problema se ha desarrollado con los frameworks ILP y LME, y está disponible en la plataforma SaaS. El último problema tratado en la tesis es el problema de planificación táctica de personal (TWFP), que consiste en definir la configuración de una plantilla de trabajadores de menor coste, para cubrir una demanda de carga de trabajo variable. Se ha definido un modelo de problema muy flexible en la definición de contratos, que permite el uso del modelo en diversos sectores productivos. Se ha definido un modelo matemático de programación lineal para representar el problema. Se han definido una serie de casos de uso, que muestran la versatilidad del modelo de problema, y permiten simular el proceso de toma de decisiones de la configuración de una plantilla de trabajadores, cuantificando económicamente cada decisión que se toma. Este problema se ha desarrollado con el framework ILP, y está disponible en la plataforma SaaS. ABSTRACT The thesis is focused on solving combinatorial optimization problems, using current technology options offered by information technology and communications, and operations research. Combinatorial optimization problems are solved in general by linear programming and metaheuristics. The application of these techniques for solving combinatorial optimization problems requires a high computational load, and algorithms are designed, on the one hand thinking to find good solutions to the problem, and on the other hand, thinking about proper use of the available computing resources. Linear programming and metaheuristic are generic resolution techniques, which can be applied to different problems, beginning with a common base that is particularized for each specific problem. In the field of software development, frameworks fulfill this function that allows you to start a project with the overall work already available, with the option to change or extend the behavior or generic basis, to build the concrete system, thus reducing the time development, and expanding the possibilities of success of the project. In this thesis, two development frameworks have been designed and developed. The ILP framework allows to modeling and solving linear programming problems, regardless of the linear programming solver used. The LME framework is designed for solving combinatorial optimization problems using metaheuristics. Traditionally, applications for solving combinatorial optimization problems are desktop applications that allow the user to manage all the information input of the problem and solve the problem locally, using the available hardware resources. Recently, a new deployment paradigm has appeared, that lets to share hardware and software resources by the Internet. This new use of computer resources is cloud computing, which presents the model of software as a service (SaaS). In this thesis, a SaaS platform has been built for solving combinatorial optimization problems, which is deployed on architectures, composed of multi-core processors and graphics cards, and has algorithms based on metaheuristics and linear programming frameworks. The SaaS infrastructure is independent of the combinatorial optimization problem to solve, and three problems are fully integrated into the SaaS platform. These problems have been selected for their practical importance. One of the problems discussed in the thesis, is the vehicle routing problem (VRP), which goal is to calculate the least cost of a fleet of vehicles, which distributes goods to all customers. The VRP has been studied in two directions. On one hand, it has been quantified the increase in execution speed when the problem is solved on graphics cards. On the other hand, it has been studied the impact on execution speed and quality of solutions, when the problem is solved by ant colony optimization (ACO) metaheuristic, and linear programming is introduced to optimize the individual routes of each vehicle. This problem has been developed with the ILP and LME frameworks, and is available in the SaaS platform. Another problem addressed in the thesis, is the fleet assignment problem (FAP), which goal is to create lower cost routes for a fleet of a passenger transport company. It has been defined a new model of problem, which includes features of problems presented in the literature, and adds new features, allowing modeling the business requirements of today's transport companies. This new integrated model solves the problem of defining the flights timetable, the problem of assigning the type of vehicle, and the problem of creating aircraft rotations. The problem has been solved by linear programming and ACO. This problem has been developed with the ILP and LME frameworks, and is available in the SaaS platform. The last problem discussed in the thesis is the tactical planning staff problem (TWFP), which is to define the staff of lower cost, to cover a given work load. It has been defined a very rich problem model in the definition of contracts, allowing the use of the model in various productive sectors. It has been defined a linear programming mathematical model to represent the problem. Some use cases has been defined, to show the versatility of the model problem, and to simulate the decision making process of setting up a staff, economically quantifying every decision that is made. This problem has been developed with the ILP framework, and is available in the SaaS platform.
Resumo:
Debido a las limitaciones de las técnicas de optimización convencionales, en el siguiente trabajo se presenta una metaheurística basada en un algoritmo genético (AG), para resolver problemas de programación de tipo flow shop, con el objetivo de minimizar el tiempo de finalización de todos los trabajos, más conocido como makespan. Este problema, considerado de difícil solución, es típico de la optimización combinatoria y se presenta en talleres con tecnología de maquinado, donde existen máquinas-herramientas convencionales y se fabrican diferentes tipos de piezas que tienen en común una misma ruta tecnológica (orden del proceso). La solución propuesta se probó con problemas clásicos publicados por otros autores, obteniéndose resultados satisfactorios en cuanto a la calidad de las soluciones encontradas y el tiempo de cómputo empleado.
Resumo:
En este trabajo se utiliza la metaheurística nombrada algoritmo genético, para dos variantes típicas de problemas de planificación presentes en un taller de maquinado de piezas: las variantes flujo general y flujo regular, y se ha seleccionado la minimización del tiempo de finalización de todos los trabajos o camino máximo, como objetivo a optimizar en un plan de trabajo. Este problema es considerado de difícil solución y es típico de la optimización combinatoria. Los resultados demuestran la calidad de las soluciones encontradas en correspondencia con el tiempo de cómputo empleado, al ser comparados con problemas clásicos reportados por otros autores. La representación propuesta de cada cromosoma genera el universo completo de soluciones factibles, donde es posible encontrar valores óptimos globales de solución y cumple con las restricciones del problema.
Resumo:
La seguridad verificada es una metodología para demostrar propiedades de seguridad de los sistemas informáticos que se destaca por las altas garantías de corrección que provee. Los sistemas informáticos se modelan como programas probabilísticos y para probar que verifican una determinada propiedad de seguridad se utilizan técnicas rigurosas basadas en modelos matemáticos de los programas. En particular, la seguridad verificada promueve el uso de demostradores de teoremas interactivos o automáticos para construir demostraciones completamente formales cuya corrección es certificada mecánicamente (por ordenador). La seguridad verificada demostró ser una técnica muy efectiva para razonar sobre diversas nociones de seguridad en el área de criptografía. Sin embargo, no ha podido cubrir un importante conjunto de nociones de seguridad “aproximada”. La característica distintiva de estas nociones de seguridad es que se expresan como una condición de “similitud” entre las distribuciones de salida de dos programas probabilísticos y esta similitud se cuantifica usando alguna noción de distancia entre distribuciones de probabilidad. Este conjunto incluye destacadas nociones de seguridad de diversas áreas como la minería de datos privados, el análisis de flujo de información y la criptografía. Ejemplos representativos de estas nociones de seguridad son la indiferenciabilidad, que permite reemplazar un componente idealizado de un sistema por una implementación concreta (sin alterar significativamente sus propiedades de seguridad), o la privacidad diferencial, una noción de privacidad que ha recibido mucha atención en los últimos años y tiene como objetivo evitar la publicación datos confidenciales en la minería de datos. La falta de técnicas rigurosas que permitan verificar formalmente este tipo de propiedades constituye un notable problema abierto que tiene que ser abordado. En esta tesis introducimos varias lógicas de programa quantitativas para razonar sobre esta clase de propiedades de seguridad. Nuestra principal contribución teórica es una versión quantitativa de una lógica de Hoare relacional para programas probabilísticos. Las pruebas de correción de estas lógicas son completamente formalizadas en el asistente de pruebas Coq. Desarrollamos, además, una herramienta para razonar sobre propiedades de programas a través de estas lógicas extendiendo CertiCrypt, un framework para verificar pruebas de criptografía en Coq. Confirmamos la efectividad y aplicabilidad de nuestra metodología construyendo pruebas certificadas por ordendor de varios sistemas cuyo análisis estaba fuera del alcance de la seguridad verificada. Esto incluye, entre otros, una meta-construcción para diseñar funciones de hash “seguras” sobre curvas elípticas y algoritmos diferencialmente privados para varios problemas de optimización combinatoria de la literatura reciente. ABSTRACT The verified security methodology is an emerging approach to build high assurance proofs about security properties of computer systems. Computer systems are modeled as probabilistic programs and one relies on rigorous program semantics techniques to prove that they comply with a given security goal. In particular, it advocates the use of interactive theorem provers or automated provers to build fully formal machine-checked versions of these security proofs. The verified security methodology has proved successful in modeling and reasoning about several standard security notions in the area of cryptography. However, it has fallen short of covering an important class of approximate, quantitative security notions. The distinguishing characteristic of this class of security notions is that they are stated as a “similarity” condition between the output distributions of two probabilistic programs, and this similarity is quantified using some notion of distance between probability distributions. This class comprises prominent security notions from multiple areas such as private data analysis, information flow analysis and cryptography. These include, for instance, indifferentiability, which enables securely replacing an idealized component of system with a concrete implementation, and differential privacy, a notion of privacy-preserving data mining that has received a great deal of attention in the last few years. The lack of rigorous techniques for verifying these properties is thus an important problem that needs to be addressed. In this dissertation we introduce several quantitative program logics to reason about this class of security notions. Our main theoretical contribution is, in particular, a quantitative variant of a full-fledged relational Hoare logic for probabilistic programs. The soundness of these logics is fully formalized in the Coq proof-assistant and tool support is also available through an extension of CertiCrypt, a framework to verify cryptographic proofs in Coq. We validate the applicability of our approach by building fully machine-checked proofs for several systems that were out of the reach of the verified security methodology. These comprise, among others, a construction to build “safe” hash functions into elliptic curves and differentially private algorithms for several combinatorial optimization problems from the recent literature.
Resumo:
Spain is the fifth-largest producer of melon (Cucumis melo L.) and the second exporter in the world. To a national level, Castilla-La Mancha emphasize and, specifically, Ciudad Real, where is cultivated 27% of national area dedicated to this crop and 30% of melon national production. Melon crop is cultivating majority in Ciudad Real and it is mainly located in the Alto Guadiana, where the major aquifers of the region are located, the aquifer 23 or Mancha Occidental and the aquifer 24 or Campo de Montiel, both declared overexploited and vulnerable zones to nitrate pollution from agricultural sources. The problem is exacerbated because in this area, groundwater is the basic resource of supply to populations, and even often the only one. Given the importance of melon in the area, recent research has focused on the irrigation of melon crop. Unfortunately, scant information has been forthcoming on the effect of N fertilizer on melon piel de sapo crop, so it is very important to tackle in a serious study that lead to know the N requirements on the melon crop melon by reducing the risks of contamination by nitrate leaching without affecting productivity and crop quality. In fact, the recommended dose is often subjective and practice is a N overdose. In this situation, the taking of urgent measures to optimize the use of N fertilization is required. To do it, the effect of N in a melon crop, fertirrigated and on plastic mulch, was studied. The treatments consisted in different rates of N supply, considering N fertilizer and N content in irrigation water, so the treatment applied were: 30 (N30), 85 (N85), 112 (N112) and 139 (N139) Kg N ha-1 in 2005; 93 (N93), 243 (N243) and 393 (N393) kg ha-1 in 2006; and 11 (N11), 61 (N61), 95 (N95) and 148 (N148) kg ha-1 in 2007. A randomized complete-block design was used and each treatment was replicated four times. The results showed a significant effect of N on dry biomass and two patterns of growth were observed. On the one hand, a gradual increase in vegetative biomass of the plant, leaves and stem, with increasing N, and on the other hand, an increase of fruit biomass also with increasing N up to a maximum of biomass corresponding to the optimal dose determined in 90 kg ha-1 of N applied, corresponding to 160 kg ha-1 of N available for melon crop, since this optimum dose, the fruit biomass suffers a decline. A significant effect was observed in concentration and N uptake in leaf, steam, fruit and whole plant, increasing in all of them with increasing of N doses. Fast N uptake occurred from 30-35 to 70-80 days after transplanting, coinciding with the fruit development. The N had a clear influence on the melon yield, its components, skin thickness and flesh ratio. The melon yield increased, as the mean fruit weight and number of fruits per m2 with increasing N until achieve an above 95% of the maximum yield when the N applied is 90 kg ha-1 or 160 kg ha-1 of N available. When N exceeds the optimal amount, there is a decline in yield, reducing the mean fruit weight and number of fruits per square meter, and was also observed a decrease in fruit quality by increasing the skin thickness and decrease the flesh ratio, which means an increase in fruit hollowed with excessive N doses. There was a trend for all indexes of N use efficiency (NUE) to decline with increasing N rate. We observed two different behaviours in the calculation result of the NUE; on the one hand, all the efficiency indexes calculated with N applied and N available had an exponential trend, and on the other hand, all the efficiency indexes calculated with N uptake has a linear trend. The linear regression cuts the exponential curve, delimiting a range within which lies the optimum quantity of N. The N leaching as nitrates increased exponentially with the amount of N. The increase of N doses was affected on the N mineralization. There was a negative exponential effect of N available on the mineralization of this element that occurs in the soil during the growing season, calculated from the balances of this element. The study of N leaching for each N rate used, allowed to us to establish several environmental indices related to environmental risk that causes the use of such doses, a simple way for them to be included in the code of Best Management Practices.
Resumo:
El propósito del artículo es analizar la importancia del sistema de información gerencial para la optimización de portafolios de inversión administrados por las sociedades de corretaje de títulos valores de la Bolsa de Valores de Caracas (BVC). Para tal fin, se estudia el sistema de información gerencial y su importancia en la planificación estratégica de las organizaciones. Se examina la teoría de portafolio de inversiones y las estrategias de inversión para la conformación de portafolios de inversiones con los títulos valores. Se investiga la BVC y las negociaciones de valores con sus miembros. Se diagnostica la presencia de sistema de información gerencial para la administración de portafolios de inversión en las operaciones bursátil aplicados por las sociedades de corretaje de títulos valores. Se determina la relevancia competitiva en el sistema de información gerencial como herramienta de optimización de portafolios de inversión, en las sociedades de corretaje de títulos valores. La investigación llevada a cabo fue de tipo descriptivo, el diseño de investigación fue no experimental-transeccional. El método empleado fue el hipotético deductivo. Los resultados de la investigación indican que la BVC tiene 63 miembros activos y solo 6 (6%) manejan el SIG mientras, que el 59 (91%) operan manual. La conclusión apunta a que más de la mitad de las casas de bolsa le resta importancia a los SIG a pesar de las ventajas competitivas que representan en la calidad de la administración de portafolios.
Resumo:
En la práctica habitual, para la elaboración de morteros se recomienda la utilización de granulometrías continuas. El requisito de continuidad y que los tamaños de partícula se encuentren dentro de los límites establecidos por “husos granulométricos” surge de las teorías clásicas de Fuller – Thompson y se apoya en la necesidad de obtener mezclas con adecuada docilidad en el estado fresco. Sin embargo, las distribuciones continuas de árido no representan las únicas alternativas para obtener mezclas que tengan una adecuada docilidad en estado fresco y mediante nuevos criterios de interferencia de partículas es posible demostrar que las distribuciones discontinuas aun siendo más compactas y con menor requerimientos de volumen de pasta pueden ser igual de dóciles en estado fresco. Aunque el volumen mínimo de pasta está condicionado por su fluidez y viscosidad estos parámetros pueden modificarse mediante la incorporación de filler de distinta naturaleza y aditivos químicos de reciente desarrollo. En consecuencia, se propone analizar la posibilidad de minimizar el contenido de pasta de morteros de base cemento, manteniendo las prestaciones en el estado fresco, con el objetivo de obtener una mejor estabilidad volumétrica, posibilitando mejor control de la retracción y de la fisuración. Para ello se emplearán criterios de interferencia de partículas, combinados con el uso de filler de distinta naturaleza La reducción del contenido de pasta conducirá también a mejorar el perfil sostenible de los morteros. El proceso de optimización tiene una base racional y, por lo tanto, será aplicable a distintos tipos de mortero, y las proporciones óptimas podrán adecuarse según las prestaciones requeridas para el material. SUMMARY In common practice, continuous sand gradings are recommended to produce ordinary mortars. This requirement, along with grading limits are based on classical theories, such as Fuller, aimed at achieving a reasonable packing density without compromising workability at the fresh state. Nevertheless, there are other alternatives, such as discontinuous curves based on particle interference criteria, which are capable of having even higher packing density. The less the content of voids in the granular skeleton, the less the amount of cement paste required to fill in these voids and coating the particles. Yet, the minimum volume of paste in a mortar is determined by requirements associated to the fresh state and thus, fluidity and viscosity of the paste play a significant role on the matter. These two properties can be modified by the use of suitable fillers and by the use of last-generation chemical admixtures. As a result, it is proposed to analyse the possibility of combining current particle interference criteria with the use of different types of filler and chemical admixtures to optimise cement-based mortar formulations. This optimisation is aimed at reducing the paste content while maintaining a suitable performance at the fresh state. The reduction in paste content would lead to a better dimensional stability, with better control of shrinkage and cracking behaviour. The foreseen optimisation process will have a strong rational basis and thus, it should be potentially useful to optimise mortar proportions according to a performance-based approach.
Resumo:
Mostraremos los resultados obtenidos en la búsqueda de las condiciones de crecimiento óptimas para que las propiedades magnéticas de aleaciones de CoP sean las adecuadas para utilizarlas como núcleos de sensores. Demostraremos que utilizando una densidad de corriente adecuada en el proceso de electrodeposición, es posible obtener aleaciones formadas por capas ferromagnéticas de distinta composición que presentan anisotropía en el plano y un campo coercitivo comparable al de las aleaciones producidas por enfriamiento ultrarrápido. Como ánodos empleamos láminas de cobalto de 1 mm de espesor y una pureza del 99.95%. Como sustratos utilizamos tanto láminas de Cu como sustratos fabricados por sputtering. Durante la electrodeposición se ha utilizado la agitación del electrolito y la vibración del cátodo para facilitar el desprendimiento de las burbujas de H2 que se generan durante el proceso. De esta forma se han obtenido las monocapas controlando los dos parámetros siguientes: la densidad de corriente y el tiempo de aplicación de la misma. Por otro lado, para las multicapas se han aplicado pulsos de corriente donde se han tenido que controlar la duración de los pulsos y la intensidad de los mismos.
Resumo:
La catenaria rígida presenta algunas características que la hacen especialmente apropiada para su montaje en líneas de metro, si bien el aumento del límite de velocidad de los vehículos destinados a las líneas modernas exige un diseño más eficiente para estos sistemas. En este trabajo se ha analizado el comportamiento dinámico de este tipo de sistemas de captación, a fin de diseñar un nuevo carril conductor con un comportamiento dinámico superior al de los ya existentes. Esto implica la posibilidad de aumentar la velocidad de circulación o la distancia entre soportes, con el consiguiente ahorro del coste de instalación. A tal fin, se ha modelizado un sistema pantógrafo-catenaria real, empleando técnicas avanzadas de modelado y simulación. Se ha realizado un estudio de sensibilidad, para analizar la influencia de cada variable de diseño sobre el comportamiento dinámico del conjunto, y se ha diseñado un carril conductor con mejores prestaciones que el actual.
Resumo:
En este trabajo se presentan las líneas de investigación, y resultados, de Materiales Amorfos, Tratamiento y Caracterización de materiales y Simulación de Procesos del Grupo de Sensores y Actuadores. Estas líneas de investigación están orientadas al desarrollo y aplicación de tecnologías, dentro del ámbito de la edificación, enfocadas a la mejora de la eficiencia energética. Se llevan a cabo, principalmente, en la Escuela Universitaria de Arquitectura técnica, y para ello se dispone de los medios asociados al Grupo de Sensores y Actuadores y situados en el laboratorio de Automatismos de la Escuela Universitaria de Arquitectura técnica.
Resumo:
El presente trabajo de investigación pretende desarrollar prácticas de dimensionamiento, órdenes de magnitud y criterios de diseño que permitan al proyectista predimensionar secciones transversales de puentes de sección cajón de hormigón pretensado de carretera que sean técnicamente viables al igual que económicamente óptimas. En la elaboración del trabajo se consideraron tres grupos de normativas de aplicación de cargas y diseño estructural de puentes de hormigón pretensado al igual que dos grupos de precios referenciales aplicables en un país desarrollado y en país en vías de desarrollo. Inicialmente se desarrollan las principales características y propiedades de los puentes pretensados de sección cajón, al igual que se exponen varias recomendaciones clásicas de predimensionamiento recabadas de la bibliografía especializada. Posteriormente, se desarrollan las ecuaciones y expresiones que condicionan las principales solicitaciones sobre la estructura al igual que su capacidad resistente frente a las mismas, siguiendo las especificaciones establecidas en las diferentes normativas. Seguidamente, con las mencionadas expresiones se ejecuta un análisis paramétrico para cuantificar la influencia que las diferentes dimensiones transversales de un puente de sección cajón tienen en el comportamiento estructural y en el costo del puente. Finalmente, se presentan los resultados producidos por el análisis paramétrico para derivar conclusiones y recomendaciones finales. Como futura línea de investigación se incluye un anejo que describe novedosas técnicas informáticas de optimización.
Resumo:
El objetivo del proyecto ha sido la optimización de una planta de tratamiento de áridos de la empresa ÁRIDOS TRUSAN S.L., situada en las terrazas del río Jarama. Los dos principales problemas que presentaba la empresa fueron los siguientes: El brusco descenso de la demanda, debido al parón que se ha producido en el sector de la construcción, los cantos rodados de tamaños excesivamente grandes, presentes en la materia prima a procesar, así como la alta proporción de finos. El proyecto se ha centrado en la incorporación de nuevos productos, con la instalación de diversas máquinas y variaciones en los procesos de producción, con el fin de aprovechar al máximo la materia prima; también se ha considerado la eliminación de finos a la entrada del molino de impactos con el fin de disminuir así el desgaste que estos provocan en los elementos de desgaste del molino (acero). Se han incorporado nuevas etapas al proceso de producción como son: Triturar los bolos más grandes para poder introducir estos al molino de impactos y el lavado de la materia prima mediante noria e hidrociclón para evitar así la excesiva presencia de finos.
Resumo:
El transporte marítimo, responsable de la canalización del 90% de los flujos comerciales internacionales, se organiza en torno a los puertos. Éstos, que resultan plataformas indispensables para el desarrollo de la economía, compiten entre sí para maximizar el tráfico atraído hacia sus instalaciones. El papel estratégico de los puertos tiene un expreso reconocimiento en el contexto de la Unión Europea, tanto desde la óptica del comercio como bajo el prisma del transporte. No en vano, por los puertos europeos transita más del 90 % del comercio de la Unión con terceros países y aproximadamente, el 40 % del tráfico intracomunitario. Los puertos españoles configuran un eje neurálgico en el desarrollo del transporte marítimo a nivel internacional y una plataforma logística para todo el sur de Europa. Sus más de siete mil novecientos kilómetros de costa y un emplazamiento geográfico estratégico, confirman al territorio nacional como un punto de especial interés por sus establecimientos portuarios. La actividad del Sistema Portuario Español con una cifra de negocio de más de 1000 millones de euros, representa anualmente un 20 % del Producto Interior Bruto específico del sector transporte, aporta un 1.1% al Producto Interior Bruto Nacional y genera 145.000 empleos directos e indirectos. Debido a la actual coyuntura económica ahora, más que nunca, la competencia interportuaria se ha intensificado y sólo aquellos puertos que sean capaces de adaptarse a las nuevas necesidades y que puedan prestar unos servicios portuarios de calidad, fiables y a precios competitivos estarán en condiciones de mantener sus tráficos. La entrada en vigor de la Ley 33/2010, de 5 de agosto, de modificación de la Ley 48/2003, de 26 de noviembre, de régimen económico y de prestación de servicios en los puertos de interés general, marca como uno de sus objetivos principales el fomento de la eficiencia y la competitividad de nuestros puertos a través de la promoción de la competencia. La Ley avanza en la liberalización de los servicios portuarios, en particular, destaca el servicio portuario de manipulación de mercancías en donde se introducen algunas modificaciones con las que pretende dotar de transparencia, así como normalizar el acceso a la profesión y a la formación. Surge por tanto, la conveniencia de investigar las condiciones de prestación de los servicios portuarios, su impacto en la competitividad del sistema portuario y sobre cada uno de los agentes que forman parte de la cadena global del transporte marítimo. En primer lugar, la Autoridad Portuaria, como organismo público que tiene entre sus competencias la gestión y control de los servicios portuarios para lograr que se desarrollen en condiciones óptimas de eficacia, economía, productividad y seguridad. Al analizar el sector mediante el modelo de “Cinco Fuerzas de Porter” descubrimos que el creciente poder de los proveedores de servicios portuarios, especialmente el de manipulación de mercancías y el proceso de descentralización en la gestión de los puertos de interés general está restando atractivo y competitividad al sector. Además según la encuesta realizada a los representantes de las Autoridades Portuarias, existe prácticamente unanimidad acerca de la importancia de los servicios portuarios en la competitividad del puerto y la falta de transparencia existente, particularmente en el servicio de manipulación de mercancías. Por otro lado, pone de manifiesto los aspectos considerados más importantes, que son el coste y la fiabilidad en la prestación del servicio. A continuación se investiga la repercusión del coste de los servicios portuarios en el precio final del producto, es decir, cómo inciden éstos en la competitividad del tejido empresarial al que sirven los puertos y su impacto en el consumidor final. Concluyendo que el coste de los servicios portuarios tiene de media un peso del 12 % frente al coste global del transporte marítimo y aproximadamente un 0.5% respecto al precio del producto. Posteriormente se realiza una exhaustiva investigación de las principales empresas prestadoras de servicios portuarios en España, se sintetizan los principales datos y se realiza un análisis de la estructura y evolución del sector. Se observa una tendencia a la integración en grandes grupos empresariales vinculados al sector marítimo y a la concentración sectorial. Siendo conscientes de la importancia de la optimización de los servicios portuarios para las empresas operadoras de terminales y navieras, se ha procedido a contrastar la hipótesis inicial de que el servicio de manipulación de mercancías es el responsable de la mayor parte (65 %) del coste del paso de la mercancía por el puerto. Por tanto, a la vista de los resultados obtenidos, por la importancia manifestada tanto por parte de las Autoridades Portuarias como por las empresas operadoras de terminales, a partir de éste punto se particulariza la investigación para el servicio portuario de manipulación de mercancías. Se selecciona una muestra significativa de empresas estibadoras, se procede a homogeneizar sus cuentas de pérdidas y ganancias y sus balances. Posteriormente se calcula y analiza un elevado número de ratios económico-financieros que tendremos en cuenta a la hora de evaluar una solicitud para el otorgamiento de una licencia para la prestación del servicio de manipulación de mercancías. Asimismo se ha procedido a realizar una cuenta de pérdidas y ganancias y un balance modelo, tanto para la empresa media, construida a partir de los ratios medios, como para una empresa ideal desde el punto de vista empresarial, construida a partir de los mejores ratios obtenidos. Ante la necesidad detectada en el estado del arte de la falta de mecanismos para dotar de transparencia al sector, mediante esta estructura la Autoridad Portuaria dispondrá de una herramienta que le permita objetivizar el proceso de toma de decisiones a la hora de establecer sus condiciones en los Pliegos de Prescripciones Particulares y otorgar las licencias, así como evaluar la rentabilidad de la empresa a lo largo del periodo de prestación del servicio. Por un lado, una empresa prestadora de servicios portuarios, debe obtener una rentabilidad acorde con las expectativas de sus accionistas y como mínimo superior al coste de capital de la misma. Al mismo tiempo, la Administración que tutela la prestación del servicio, la Autoridad Portuaria, debe verificar la viabilidad de la propuesta, pues ello será garantía de éxito de la empresa y por tanto de continuidad de prestación del servicio en el puerto pero también debe asegurar una competitividad en costes. Al proceder a la extracción de conclusiones a partir de los ratios económico-financieros obtenidos para las empresas estibadoras (Ratio medio Beneficios/Ventas=4.68%) se pone de manifiesto que claramente el problema de ineficiencia y sobrecostes no está siendo provocado por unos elevados márgenes de rentabilidad de éstas. Por tanto, se analizan otros agentes integrantes en el proceso y se detecta la particular situación de la mano de obra del estibador portuario. Se investigan las ventajosas condiciones laborales que disfrutan y se proponen una serie de medidas que producirían una mejora en la competitividad del servicio que conllevarían una reducción de un 30 % sobre los costes totales del paso de la mercancía por el puerto. En un sector global como es el marítimo, con un escenario cada vez más dinámico y competitivo, con la presente tesis doctoral se trata de asegurar que los factores clave de éxito identificados se cumplan, siendo uno de éstos el liderazgo en costes, que necesariamente se deberá equilibrar con la viabilidad económica de la empresa en la prestación del servicio de la manera más eficiente y productiva, haciendo el puerto más atractivo tanto para los clientes actuales como potenciales.
Resumo:
Para llegar a conseguir un país de calidad se ha de construir un país para todos los ciudadanos. Por ello uno de los grandes cambios en el proceso de transformación de las ciudades actuales, ya que se está produciendo y que se acelerará en el futuro, es su adecuación al uso por personas con limitaciones. En este sentido, en los próximos años debemos procurar avanzar hacia un paso más accesible y apto incluso para aquellas personas que por su avanzada edad, discapacidades, movilidad y/o comunicación reducida temporal o definitiva, se ven o verán afectados por una falta de autonomía, debido a las innumerables barreras físicas o sensoriales con que se encuentran todavía en la sociedad actual que les impiden poder realizar una vida lo más independiente posible, con seguridad y confort. La sociedad del futuro ha de ser una sociedad sin barreras, impidiendo vernos afectados por ellas, sobre todo cuando lleguemos a mayores, lo que nos debe motivar para realizar un esfuerzo de divulgación y formación que haga posible su definitiva eliminación. Es necesario que todos tengamos una sensibilidad y actitud positivas para conseguir la eliminación tanto de las barreras arquitectónicas propiamente dichas, como aquellas que afectan a las personas que padecen disminuciones sensoriales, mostrando a su vez un comportamiento que elimine los prejuicios sociales, pues como se ha venido sosteniendo “La accesibilidad no es solamente una necesidad para las personas con discapacidad, sino una ventaja para todos los ciudadanos”. Es responsabilidad de la sociedad en su conjunto y muy especialmente de los poderes públicos modificar el entorno de modo que pueda ser utilizado en igualdad de condiciones por todos y cada uno de los ciudadanos. En este sentido también es imprescindible hacer extensiva esta responsabilidad al tejido empresarial, a la universidad y a la sociedad civil en general. Especial responsabilidad tienen todos aquellos profesionales cuyo desempeño está directamente involucrado en los procesos de diseño, desarrollo e implantación de entornos, productos y servicios que serán utilizados por los ciudadanos. La discriminación de las personas con discapacidad responde a motivos similares a la que se ejerce contra otros grupos humanos, también alejados del arquetipo social predominante, tales como las personas mayores, los inmigrantes y las personas con opciones sexuales distintas a la establecida. Estos grupos sociales no disfrutan de los mismos niveles de participación que el resto y, lo que supone una preocupación aún mayor, se encuentran con enormes dificultades para promover cambios en esta sociedad. La “invisibilidad social” de estos grupos representa una barrera para que los sistemas democráticos representen en la práctica a todos los ciudadanos.
Resumo:
La acumulación de material sólido en embalses, cauces fluviales y en zonas marítimas hace que la extracción mecánica de estos materiales por medio de succión sea cada vez mas frecuente, por ello resulta importante estudiar el rendimiento de la succión de estos materiales analizando la forma de las boquillas y los parámetros del flujo incluyendo la bomba. Esta tesis estudia, mediante equipos experimentales, la eficacia de distintos dispositivos de extracción de sólidos (utilizando boquillas de diversas formas y bombas de velocidad variable). El dispositivo experimental ha sido desarrollado en el Laboratorio de Hidráulica de la E.T.S.I. de Caminos, C. y P. de la Universidad Politécnica de Madrid. Dicho dispositivo experimental incluye un lecho sumergido de distintos tipos de sedimentos, boquillas de extracción de sólidos y bomba de velocidad variable, así como un elemento de separación del agua y los sólidos extraídos. Los parámetros básicos analizados son el caudal líquido total bombeado, el caudal sólido extraído, diámetro de la tubería de succión, forma y sección de la boquilla extractora, así como los parámetros de velocidad y rendimiento en la bomba de velocidad variable. Los resultados de las medidas obtenidas en el dispositivo experimental han sido estudiados por medio del análisis dimensional y con métodos estadísticos. A partir de este estudio se ha desarrollado una nueva formulación, que relaciona el caudal sólido extraído con los diámetros de tubería y boquilla, caudal líquido bombeado y velocidad de giro de la bomba. Así mismo, desde el punto de vista práctico, se han analizado la influencia de la forma de la boquilla con la capacidad de extracción de sólidos a igualdad del resto de los parámetros, de forma que se puedan recomendar que forma de la boquilla es la más apropiada. The accumulation of solid material in reservoirs, river channels and sea areas causes the mechanical extraction of these materials by suction is becoming much more common, so it is important to study the performance of the suction of these materials analyzing the shape of the nozzles and flow parameters, including the pump. This thesis studies, using experimental equipment, the effectiveness of different solids removal devices (using nozzles of different shapes and variable speed pumps). The experimental device was developed at the Hydraulics Laboratory of the Civil University of the Polytechnic University of Madrid. The device included a submerged bed with different types of sediment solids, different removal nozzles and variable speed pump. It also includes a water separation element and the solids extracted. The key parameters analyzed are the total liquid volume pumped, the solid volume extracted, diameter of the suction pipe, a section of the nozzle and hood, and the parameters of speed and efficiency of the variable speed pump. The basic parameters analyzed are the total liquid volume pumped, the removed solid volume, the diameter of the suction pipe, the shape and cross-section of the nozzle, and the parameters of speed, efficiency and energy consumed by the variable speed pump. The measurements obtained on the experimental device have been studied with dimensional analysis and statistical methods. The outcome of this study is a new formulation, which relates the solid volume extracted with the pipe and nozzle diameters, the pumped liquid flow and the speed of the pump. Also, from a practical point of view, the influence of the shape of the nozzle was compared with the solid extraction capacity, keeping equal the rest of the parameters. So, a recommendation of the best shape of the nozzle can be given.