3 resultados para Optimización
em Repositorio Institucional de la Universidad de Málaga
Resumo:
La presente memoria de Tesis Doctoral ha seguido un largo recorrido desde sus inicios allá por el año 2007, dado el interés del doctorando por la mejora de la gestión de los proyectos que se desarrollaban en aquellos momentos. La fortuna de haber conocido proyectos de edificación singular en multitud de países, especialmente provenientes del mundo anglosajón, centroamericano y francés, ha abierto el campo de investigación del doctorando hacia la estandarización de la documentación de los proyectos más allá de la actual tendencia en España. En la actualidad, la evolución de los proyectos en el mundo ha sido vertiginosa, apareciendo nuevos sistemas de gestión de proyectos y nuevas tecnologías de gestión de la información gráfica (BIM). A lo largo de la investigación hemos querido desarrollar un sistema novedoso de gestión de proyectos que hemos llamado SGDP que incluya no sólo una nueva forma de gestionar los documentos de un proyecto, sino de crearlos, mantenerlos y mejorarlos. Además, surge la necesidad de conocer cómo de productivos son y van a ser nuestros proyectos, por lo que hemos intentado aportar una sencilla pero operativa forma de definir la rentabilidad de un proyecto de ingeniería y herramientas prototipo que favorezcan el conocimiento de los costes de los proyectos. Para desarrollar estas ideas y herramientas se ha contado durante toda las fases de la investigación con la empresa piloto sobre la que se han implementado los prototipos de las herramientas de la gestión documental y de contabilidad de costes de los proyectos además de ser sobre la que se han generado las nuevas estructuras de proyectos, codificaciones y otras novedosas funciones del SGDP aquí descrito.
Resumo:
Uno de los grandes retos de la HPC (High Performance Computing) consiste en optimizar el subsistema de Entrada/Salida, (E/S), o I/O (Input/Output). Ken Batcher resume este hecho en la siguiente frase: "Un supercomputador es un dispositivo que convierte los problemas limitados por la potencia de cálculo en problemas limitados por la E/S" ("A Supercomputer is a device for turning compute-bound problems into I/O-bound problems") . En otras palabras, el cuello de botella ya no reside tanto en el procesamiento de los datos como en la disponibilidad de los mismos. Además, este problema se exacerbará con la llegada del Exascale y la popularización de las aplicaciones Big Data. En este contexto, esta tesis contribuye a mejorar el rendimiento y la facilidad de uso del subsistema de E/S de los sistemas de supercomputación. Principalmente se proponen dos contribuciones al respecto: i) una interfaz de E/S desarrollada para el lenguaje Chapel que mejora la productividad del programador a la hora de codificar las operaciones de E/S; y ii) una implementación optimizada del almacenamiento de datos de secuencias genéticas. Con más detalle, la primera contribución estudia y analiza distintas optimizaciones de la E/S en Chapel, al tiempo que provee a los usuarios de una interfaz simple para el acceso paralelo y distribuido a los datos contenidos en ficheros. Por tanto, contribuimos tanto a aumentar la productividad de los desarrolladores, como a que la implementación sea lo más óptima posible. La segunda contribución también se enmarca dentro de los problemas de E/S, pero en este caso se centra en mejorar el almacenamiento de los datos de secuencias genéticas, incluyendo su compresión, y en permitir un uso eficiente de esos datos por parte de las aplicaciones existentes, permitiendo una recuperación eficiente tanto de forma secuencial como aleatoria. Adicionalmente, proponemos una implementación paralela basada en Chapel.
Resumo:
La optimización de carteras de inversión presenta un gran número de dificultades, siendo una de las más importantes la gestión de la incertidumbre que surge en diferentes aspectos del proceso. Este trabajo propone matizar esta última mejorando la robustez de las soluciones mediante el uso de $\epsilon$-vecindarios combinados con un mecanismo de remuestreo basado en marcas temporales. La aproximación se ha incorporado a cuatro metaheurísticas multi-objetivo del estado del arte, que se han evaluado sobre un histórico bastante amplio de activos. Los resultados han mostrado una mejora significativa de la fiabilidad de la frontera eficiente estimada.