1000 resultados para Programación lineal
Resumo:
El desarrollo de modelos económicos lineales fue uno de los logros más signifi cativos en teoría económica en la Norteamérica de la posguerra. La programación lineal, desarrollada por George B. Dantzig (1947), los modelos de insumo producto de Wassily Leontief (1946) y la teoría de juegos de John. Von Neumann (1944) se constituyeron en tres ramas diferentes de la teoría económica lineal. Sus aplicaciones en variados campos del conocimiento, como la Economía y la Ciencia Política, y en actividades de gestión en la industria y en el gobierno son cada vez más signifi cativas. El objetivo principal de este trabajo es el de presentar un modelo práctico de los procesos de producción típicos de una fábrica o empresa que transforma insumos en productos. El modelo se desarrolla en el contexto y con los conceptos propios de la teoría de modelos económicos lineales, y el enfoque de la investigación de operaciones, también conocido como el de las ciencias de la administración.
Resumo:
Esta obra consta de trece capítulos a lo largo de los cuales se describe al detalle el proceso de planificación, evaluación y control en proyectos de ingeniería, para lo cual todos han de precisar: a) Las características especiales de cada caso. b) El ámbito espacial en el que se desarrolla. c) La complejidad y duración. d) La experiencia en proyectos similares y conocimientos de los mismos. Los contenidos de los capítulos son, los siguientes: 1. Estudios de planificación y programación. 2. Actuaciones previas a la concesión del proyecto. 3. Gráfica de barras. 4. Métodos del camino crítico y P.E.R.T. 5. Aplicaciones prácticas de los métodos de planificación. 6. Técnica de la Línea de Balance (LOB). 7. Programación lineal. 8. Teoría de colas. 9. Modelos de inventarios. Demanda Determinista. 10. Análisis económico básico. 11. Análisis financiero de proyectos. 12. Evaluación económico financiera de inversiones. 13. Decisiones técnico-económicas. Aplicaciones en la ingeniería de la construcción. Ejemplos resueltos.
Resumo:
La optimización de sistemas y modelos se ha convertido en uno de los factores más importantes a la hora de buscar la mayor eficiencia de un proceso. Este concepto no es ajeno al transporte escolar, ambiente que cambia constantemente al ritmo de las necesidades de sus clientes, y que responde ante una fuerte responsabilidad frente a sus usuarios, los niños que hacen uso del servicio, en cuanto al cumplimiento de tiempos y seguridad, mientras busca constantemente la reducción de costos. Este proyecto expone las problemáticas presentadas en The English School en esta área y propone un modelo de optimización simple que permitirá notables mejoras en términos de tiempos y costos, de tal forma que genere beneficios para la institución en términos financieros y de satisfacción al cliente. Por medio de la implementación de este modelo será posible identificar errores comunes del proceso, se identificarán soluciones prácticas de fácil aplicación en el manejo del transporte y se presentarán los resultados obtenidos en la muestra utilizada para desarrollar el proyecto.
Resumo:
La hipótesis de trabajo es: si en el aprendizaje de las matemáticas intervienen imágenes impresas con texto escrito que hace referencia a ellas, tomando como base el sistema de programación lineal y la técnica de preguntas y respuestas, entonces se facilita y retiene más tiempo el aprendizaje de los conocimientos. Niños y niñas de 7 años de los colegios Viaro y Canigó en número total de 330, con grupo experimental y control. Introduce el concepto de aprendizaje y aproximación teórica a la imagen en educación. Tras formular la hipótesis toma un diseño simple con dos grupos al azar con sólo postest, siendo la variable independiente= 'utilizar la imagen impresa con texto escrito que haga referencia al fotograma, siguiendo la técnica lineal' y la variable dependiente= 'en Matemáticas se facilita y retiene el aprendizaje de los conocimientos'. Selecciona la muestra y crea el material e instrumento de evaluación. Aplica la prueba y compara los grupos experimental y control, considerando la variable CI. Extrae conclusiones al efecto. Prueba de instrucción creada al efecto con 50 cuestiones. Validez y fiabilidad. Prueba T de significación entre el test inmediato y el diferido. Índices de tendencia central. T de Student entre CI y resultado en la prueba. Representaciones gráficas de los resultados. Cierta superioridad del grupo experimental sobre el control en cuanto a conocimientos que se debían adquirir. Alto índice de fiabilidad (83 por ciento) y buena discriminación. Los fotogramas han constituído un valioso recurso didáctico. El conocimiento de los objetivos en cada sección por parte del alumno ha estimulado el rendimiento y ahorrado tiempo en la totalización del programa.
Resumo:
Realizado en la Facultad de Ciencias de Salamanca, por 2 profesores del centro, para las asignaturas de Investigación Operativa y Técnicas de Investigación Operativa para las titulaciones de Matemáticas, Estadística e Informática. En este proyecto se han centrado en la elaboración de un software de Investigación Operativa que cubriera los aspectos de la Programación Lineal y de Análisis de Sensibilidad. La aplicación Invesope (Investigación Operativa) ha sido pensada desde un principio como un elemento didáctico para estudiantes y profesores interesados en este tema. El proyecto se llevó a cabo en tres fases: 1. Desarrollo de una interfaz gráfica de usuario de fácil manejo; 2. Implementar la resolución de problemas de Programación Lineal a través del Algoritmo del Simplex; 3. Desarrollo de la resolución de problemas de Análisis de Sensibilidad, mostrando los resultados obtenidos en ellos mediante tablas. Los resultados obtenidos permiten disponer de un software de Investigación Operativa cuya evaluación ha sido positiva pero puede mejorarse con el tiempo y se está trabajando en ello.
Resumo:
Analizar la eficiencia técnica de las universidades públicas españolas. Departamentos de Fundamentos del Análisis Económico de 23 universidades públicas españolas. El fundamento teórico consiste en la aplicación del análisis microeconómico a la evaluación y control de la eficiencia en las instituciones de educación superior. Analiza la naturaleza de la tecnología de producción de las universidades públicas. Se lleva a cabo una aplicación del modelo de frontera no paramétrico para la estimación del rendimiento productivo en una muestra de departamentos universitarios. Ahonda en la tecnología de producción educativa al medir las relaciones tecnológicas del sector y evaluar las economías de alcance de los departamentos universitarios. Evalúa la eficiencia de dos programas públicos del Ministerio de Educación, en concreto la política de creación de nuevas universidades públicas en los 80 y 90 y el programa de doctorados de calidad. Los resultados revelan que existe un significativo margen de mejora potencial en el rendimiento productivo de los departamentos. El valor medio de la relación técnica de sustitución entre profesores numerarios y no numerarios para el conjunto de departamentos ineficientes es de 1,8285. Es decir, cuando se incrementa el número de profesores no numerarios en una unidad, de acuerdo a las relaciones tecnológicas del conjunto de departamentos ineficientes, sería posible reducir el número de profesores numerarios en 1,8285 sin que se viese alterado el nivel de producción. El proceso productivo de las instituciones de educación superior es un proceso de producción conjunto, en el que la docencia y la investigación constituyen los dos outputs fundamentales. Los resultados obtenidos evidencian la existencia de unas potenciales economías de alcance en la producción conjunta de investigación y de docencia en los estudios de doctorado. Estas estimaciones revelan la existencia de sinergias como resultado de la producción conjunta de estos dos outputs. En cuanto a la eficiencia de la política de creación de universidades públicas, los resultados obtenidos revelan que la eficacia media con la que operan los departamentos nuevos cuando se comparan exclusivamente con el resto de los departamentos de su mismo grupo es de 80 por ciento frente a la eficiencia intragrupos del 69 para los departamentos antiguos. Por tanto, la antigüedad del departamento es un factor que influye positivamente en su eficiencia, en la medida en que la eficiencia del programa atribuible al conjunto de departamentos antiguos es superior a la que exhiben los departamentos nuevos. El análisis de la eficiencia en el Sector Público implica mayores problemas que los que surgen en una evaluación de la eficiencia privada, sobre todo, en lo concerniente a la determinación y reconocimiento de las diferencias de calidad en la prestación de los servicios públicos. En el sector público, la evaluación de la eficiencia técnica resulta lo más apropiado porque puede expresarse tanto en términos de output como de input. Para su medición el método más adecuado es el enfoque no paramétrico (DEA), que se basa en modelos de programación lineal.
Resumo:
Se estudia la teoría de grafos en relación con el teorema de Euler. La teoría de grafos se refiere a la teoría de conjuntos relativa a las relaciones binarias de un conjunto numerable consigo mismo. Esta teoría posee un vasto campo de aplicaciones en Física, Economía, Teoría de la Información, Programación Lineal, Transportas, Psicología, e incluso en ciertos dominios del arte. Se pretende realizar un trabajo que sirva como seminario optativo para los alumnos de COU, que presente a los alumnos un teorema clásico de geometría mediante la teoría de grafos, un aspecto bastante olvidado en los programas. Se utilizan los métodos y el lenguaje de la teoría de grafos para demostrar el teorema de Euler, que liga caras, vértices y aristas de un poliedro regular. Para todo ello en primer lugar se sistematizan una serie de conceptos previos, se analizan las propiedades de distintos tipos de grafos, y por último, se realizan demostraciones.
Resumo:
Se exponen las dificultades que plantea la evaluación de los objetivos y actividades del lenguaje, entre otros motivos por la estructura radial de la lengua que impide una programación lineal. Por ello, se propone a los profesores la utilización de unos instrumentos de valoración que, aunque menos difundidos, se adaptan bien a las características peculiares del lenguaje. Estos instrumentos son la lectura informal como diagnóstico para identificar niveles de lectura y un ejemplo de evaluación de una composición escrita por el alumno.
Resumo:
All-Optical Label Swapping (AOLS) es una tecnología clave para la implementación de nodos de conmutación completamente óptica de paquetes. Sin embargo, el costo de su desarrollo es proporcional al tamaño del espacio de etiquetas (label space). Debido a que los principios de funcionamiento de AOLS son casos particulares de los del MultiProtocol Label Switching (MPLS), esta tesis estudia métodos generales, aplicables a ambos, con el propósito de reducir el espacio de etiquetas tanto como sea posible. Modelos de programación lineal entera y heurísticas son propuestos para el caso en el que se permite apilar una etiqueta extra. Encontramos que cerca del 50% del espacio de etiquetas puede ser reducido, si se permite colocar una etiqueta extra en la pila. Además, particularmente para AOLS, encontramos que se puede reducir el espacio de etiquetas cerca al 25% si se duplica la capacidad de los enlaces y se permite re-encaminar el tráfico.
Resumo:
Diseño de la estrategia para la compañía L-B, que se dedica al transporte de combustibles pesados: Búnker, residuo eléctrico y residuo cementero desde los terminales de Shushufindi y Guayaquil. Los capítulos 1 y 2, analizan la compañía y su ambiente externo que es común para todas las empresas del sector en nuestro País. También se analiza el ambiente interno de la empresa, centrándose el análisis en todas las actividades que desarrolla la empresa para brindar su servicio a los clientes. En el capítulo 3, se diseña una filosofía institucional para la empresa, debido a que en la actualidad no se cuenta con una. Se define la visión y la misión de la empresa, así como sus valores corporativos, políticas y objetivos que finalmente permiten generar una estrategia que oriente los esfuerzos de la empresa en los próximos cinco años. Finalmente, se ha desarrollado un modelo de programación lineal que permite optimizar la distribución de las unidades de transporte en las diferentes rutas del país, con el fin de maximizar la utilidad de la compañía. El modelo planteado sirve de soporte a la estrategia global que se plantea para la compañía.
Resumo:
Incluye Bibliografía
Resumo:
El avance de la presión antrópica sobre las márgenes de los cauces, y la creciente dificultad técnica, política y social para ejecutar nuevos proyectos de grandes presas, promueve la necesidad de utilizar más eficientemente los sistemas de control de avenidas existentes. En el presente trabajo se presenta una metodología de análisis para evaluar y comparar las estrategias de gestión de embalses, considerando su operación individual, a fin de establecer la más adecuada. En particular se comparan dos modos de gestión ante situación de avenidas: el Método de Evaluación Volumétrica (MEV) desarrollado por Girón (1988), de amplia difusión en España, y un modelo de optimización de la gestión mediante Programación Lineal Entera Mixta (PLEM). Para ello se ha implementado un entorno de cálculo con estructura modular. El primer módulo permite generar un conjunto representativo de hidrogramas de entrada a los embalses mediante simulación de Monte Carlo. Luego, dos módulos que funcionan en paralelo simulan la gestión del embalse según las dos estrategias mencionadas (MEV y PLEM). Finalmente, se evalúa el comportamiento de ambas estrategias ante el conjunto de solicitaciones hidrológicas generado. Se propone el empleo del Índice de Riesgo Global (I1), que pondera el resultado de la estrategia de gestión frente a un conjunto de hidrogramas de solicitación. Dicho indicador tiene en cuenta el daño esperado debido a los caudales máximos vertidos y el riesgo para la presa debido a los niveles máximos alcanzados en el embalse. Para ello se analiza la función de distribución de probabilidad de las dos variables (máximo caudal vertido y máximo nivel alcanzado) para la población de hidrogramas analizada. El modelo PLEM se calibra empleando el índice I1. Este mismo índice es utilizado para comparar ambas estrategias, entendiendo como la más adecuada aquella que tenga asociado el menor I1. Este sistema de análisis se aplicó a tres embalses de la cuenca del río Segura, con diferentes características en lo referente al tipo y capacidad de aliviadero, volumen de embalse y de resguardo. En los tres casos se han obtenido mejores resultados con el modelo PLEM que con el modelo MEV, tanto en lo concerniente a caudales máximos vertidos como a los niveles máximos alcanzados, para todo el rango de avenidas analizado. Sin embargo, la diferencia entre ambas estrategias no es muy significativa y el MEV presenta características que lo hacen más adecuado para su empleo en tiempo real
Resumo:
La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.
Resumo:
Con 1.300 millones de personas en el mundo sin acceso a la electricidad (la mayoría en entornos rurales de países empobrecidos), la energía solar fotovoltaica constituye una solución viable técnica y económicamente para electrificar las zonas más remotas del planeta donde las redes eléctricas convencionales no llegan. Casi todos los países en el mundo han desarrollado algún tipo de programa de electrificación fotovoltaica rural durante los últimos 40 años, principalmente los países más pobres, donde a través de diferentes modelos de financiación, se han instalado millones de sistemas solares domiciliarios (pequeños sistemas fotovoltaicos para uso doméstico). Durante este largo período, se han ido superando muchas barreras, como la mejora de la calidad de los sistemas fotovoltaicos, la reducción de costes, la optimización del diseño y del dimensionado de los sistemas, la disponibilidad financiera para implantar programas de electrificación rural, etc. Gracias a esto, la electrificación rural descentralizada ha experimentado recientemente un salto de escala caracterizada por la implantación de grandes programas con miles de sistemas solares domiciliarios e integrando largos períodos de mantenimiento. Muchos de estos grandes programas se están llevando a cabo con limitado éxito, ya que generalmente parten de supuestos e hipótesis poco contrastadas con la realidad, comprometiendo así un retorno económico que permita el desarrollo de esta actividad a largo plazo. En este escenario surge un nuevo reto: el de cómo garantizar la sostenibilidad de los grandes programas de electrificación rural fotovoltaica. Se argumenta que la principal causa de esta falta de rentabilidad es el imprevisto alto coste de la fase de operación y mantenimiento. Cuestiones clave tales como la estructura de costes de operación y mantenimiento o la fiabilidad de los componentes del sistema fotovoltaico no están bien caracterizados hoy en día. Esta situación limita la capacidad de diseñar estructuras de mantenimiento capaces de asegurar la sostenibilidad y la rentabilidad del servicio de operación y mantenimiento en estos programas. Esta tesis doctoral tiene como objetivo responder a estas cuestiones. Se ha realizado varios estudios sobre la base de un gran programa de electrificación rural fotovoltaica real llevado a cabo en Marruecos con más de 13.000 sistemas solares domiciliarios instalados. Sobre la base de este programa se ha hecho una evaluación en profundidad de la fiabilidad de los sistemas solares a partir de los datos de mantenimiento recogidos durante 5 años con más de 80.000 inputs. Los resultados han permitido establecer las funciones de fiabilidad de los equipos tal y como se comportan en condiciones reales de operación, las tasas de fallos y los tiempos medios hasta el fallo para los principales componentes del sistema, siendo este el primer caso de divulgación de resultados de este tipo en el campo de la electrificación rural fotovoltaica. Los dos principales componentes del sistema solar domiciliario, la batería y el módulo fotovoltaico, han sido analizados en campo a través de una muestra de 41 sistemas trabajando en condiciones reales pertenecientes al programa solar marroquí. Por un lado se ha estudiado la degradación de la capacidad de las baterías y por otro la degradación de potencia de los módulos fotovoltaicos. En el caso de las baterías, los resultados nos han permitido caracterizar la curva de degradación en capacidad llegando a obtener una propuesta de nueva definición del umbral de vida útil de las baterías en electrificación rural. También sobre la base del programa solar de Marruecos se ha llevado a cabo un estudio de caracterización de los costes reales de operación y mantenimiento a partir de la base de datos de contabilidad del programa registrados durante 5 años. Los resultados del estudio han permitido definir cuáles son costes que más incidencia tienen en el coste global. Se han obtenido los costes unitarios por sistema instalado y se han calculado los montantes de las cuotas de mantenimiento de los usuarios para garantizar la rentabilidad de la operación y mantenimiento. Finalmente, se propone un modelo de optimización matemática para diseñar estructuras de mantenimiento basado en los resultados de los estudios anteriores. La herramienta, elaborada mediante programación lineal entera mixta, se ha aplicado al programa marroquí con el fin de validar el modelo propuesto. ABSTRACT With 1,300 million people worldwide deprived of access to electricity (mostly in rural environments), photovoltaic solar energy has proven to be a cost‐effective solution and the only hope for electrifying the most remote inhabitants of the planet, where conventional electric grids do not reach because they are unaffordable. Almost all countries in the world have had some kind of rural photovoltaic electrification programme during the past 40 years, mainly the poorer countries, where through different organizational models, millions of solar home systems (small photovoltaic systems for domestic use) have been installed. During this long period, many barriers have been overcome, such as quality enhancement, cost reduction, the optimization of designing and sizing, financial availability, etc. Thanks to this, decentralized rural electrification has recently experienced a change of scale characterized by new programmes with thousands of solar home systems and long maintenance periods. Many of these large programmes are being developed with limited success, as they have generally been based on assumptions that do not correspond to reality, compromising the economic return that allows long term activity. In this scenario a new challenge emerges, which approaches the sustainability of large programmes. It is argued that the main cause of unprofitability is the unexpected high cost of the operation and maintenance of the solar systems. In fact, the lack of a paradigm in decentralized rural services has led to many private companies to carry out decentralized electrification programmes blindly. Issues such as the operation and maintenance cost structure or the reliability of the solar home system components have still not been characterized. This situation does not allow optimized maintenance structure to be designed to assure the sustainability and profitability of the operation and maintenance service. This PhD thesis aims to respond to these needs. Several studies have been carried out based on a real and large photovoltaic rural electrification programme carried out in Morocco with more than 13,000 solar home systems. An in‐depth reliability assessment has been made from a 5‐year maintenance database with more than 80,000 maintenance inputs. The results have allowed us to establish the real reliability functions, the failure rate and the main time to failure of the main components of the system, reporting these findings for the first time in the field of rural electrification. Both in‐field experiments on the capacity degradation of batteries and power degradation of photovoltaic modules have been carried out. During the experiments both samples of batteries and modules were operating under real conditions integrated into the solar home systems of the Moroccan programme. In the case of the batteries, the results have enabled us to obtain a proposal of definition of death of batteries in rural electrification. A cost assessment of the Moroccan experience based on a 5‐year accounting database has been carried out to characterize the cost structure of the programme. The results have allowed the major costs of the photovoltaic electrification to be defined. The overall cost ratio per installed system has been calculated together with the necessary fees that users would have to pay to make the operation and maintenance affordable. Finally, a mathematical optimization model has been proposed to design maintenance structures based on the previous study results. The tool has been applied to the Moroccan programme with the aim of validating the model.
Resumo:
En la actualidad, la gestión de embalses para el control de avenidas se realiza, comúnmente, utilizando modelos de simulación. Esto se debe, principalmente, a su facilidad de uso en tiempo real por parte del operador de la presa. Se han desarrollado modelos de optimización de la gestión del embalse que, aunque mejoran los resultados de los modelos de simulación, su aplicación en tiempo real se hace muy difícil o simplemente inviable, pues está limitada al conocimiento de la avenida futura que entra al embalse antes de tomar la decisión de vertido. Por esta razón, se ha planteado el objetivo de desarrollar un modelo de gestión de embalses en avenidas que incorpore las ventajas de un modelo de optimización y que sea de fácil uso en tiempo real por parte del gestor de la presa. Para ello, se construyó un modelo de red Bayesiana que representa los procesos de la cuenca vertiente y del embalse y, que aprende de casos generados sintéticamente mediante un modelo hidrológico agregado y un modelo de optimización de la gestión del embalse. En una primera etapa, se generó un gran número de episodios sintéticos de avenida utilizando el método de Monte Carlo, para obtener las lluvias, y un modelo agregado compuesto de transformación lluvia- escorrentía, para obtener los hidrogramas de avenida. Posteriormente, se utilizaron las series obtenidas como señales de entrada al modelo de gestión de embalses PLEM, que optimiza una función objetivo de costes mediante programación lineal entera mixta, generando igual número de eventos óptimos de caudal vertido y de evolución de niveles en el embalse. Los episodios simulados fueron usados para entrenar y evaluar dos modelos de red Bayesiana, uno que pronostica el caudal de entrada al embalse, y otro que predice el caudal vertido, ambos en un horizonte de tiempo que va desde una a cinco horas, en intervalos de una hora. En el caso de la red Bayesiana hidrológica, el caudal de entrada que se elige es el promedio de la distribución de probabilidad de pronóstico. En el caso de la red Bayesiana hidráulica, debido al comportamiento marcadamente no lineal de este proceso y a que la red Bayesiana devuelve un rango de posibles valores de caudal vertido, se ha desarrollado una metodología para seleccionar un único valor, que facilite el trabajo del operador de la presa. Esta metodología consiste en probar diversas estrategias propuestas, que incluyen zonificaciones y alternativas de selección de un único valor de caudal vertido en cada zonificación, a un conjunto suficiente de episodios sintéticos. Los resultados de cada estrategia se compararon con el método MEV, seleccionándose las estrategias que mejoran los resultados del MEV, en cuanto al caudal máximo vertido y el nivel máximo alcanzado por el embalse, cualquiera de las cuales puede usarse por el operador de la presa en tiempo real para el embalse de estudio (Talave). La metodología propuesta podría aplicarse a cualquier embalse aislado y, de esta manera, obtener, para ese embalse particular, diversas estrategias que mejoran los resultados del MEV. Finalmente, a modo de ejemplo, se ha aplicado la metodología a una avenida sintética, obteniendo el caudal vertido y el nivel del embalse en cada intervalo de tiempo, y se ha aplicado el modelo MIGEL para obtener en cada instante la configuración de apertura de los órganos de desagüe que evacuarán el caudal. Currently, the dam operator for the management of dams uses simulation models during flood events, mainly due to its ease of use in real time. Some models have been developed to optimize the management of the reservoir to improve the results of simulation models. However, real-time application becomes very difficult or simply unworkable, because the decision to discharge depends on the unknown future avenue entering the reservoir. For this reason, the main goal is to develop a model of reservoir management at avenues that incorporates the advantages of an optimization model. At the same time, it should be easy to use in real-time by the dam manager. For this purpose, a Bayesian network model has been developed to represent the processes of the watershed and reservoir. This model learns from cases generated synthetically by a hydrological model and an optimization model for managing the reservoir. In a first stage, a large number of synthetic flood events was generated using the Monte Carlo method, for rain, and rain-added processing model composed of runoff for the flood hydrographs. Subsequently, the series obtained were used as input signals to the reservoir management model PLEM that optimizes a target cost function using mixed integer linear programming. As a result, many optimal discharge rate events and water levels in the reservoir levels were generated. The simulated events were used to train and test two models of Bayesian network. The first one predicts the flow into the reservoir, and the second predicts the discharge flow. They work in a time horizon ranging from one to five hours, in intervals of an hour. In the case of hydrological Bayesian network, the chosen inflow is the average of the probability distribution forecast. In the case of hydraulic Bayesian network the highly non-linear behavior of this process results on a range of possible values of discharge flow. A methodology to select a single value has been developed to facilitate the dam operator work. This methodology tests various strategies proposed. They include zoning and alternative selection of a single value in each discharge rate zoning from a sufficient set of synthetic episodes. The results of each strategy are compared with the MEV method. The strategies that improve the outcomes of MEV are selected and can be used by the dam operator in real time applied to the reservoir study case (Talave). The methodology could be applied to any single reservoir and, thus, obtain, for the particular reservoir, various strategies that improve results from MEV. Finally, the methodology has been applied to a synthetic flood, obtaining the discharge flow and the reservoir level in each time interval. The open configuration floodgates to evacuate the flow at each interval have been obtained applying the MIGEL model.