197 resultados para Algorismes paral·lels
Resumo:
Este es un proyecto orientado hacia la optimización de actividades productivas en plantas industriales de empresas pymes (pequeñas y medianas empresas) mediante entornos de programación. Más concretamente la idea es realizar una aplicación que permita realizar planificaciones eficientes de cómo distribuir el trabajo a los operarios de producción dentro de una planta industrial convencional. Dichas plantas disponen de una serie de recursos, máquinas, que junto a su plantilla de trabajadores deben realizar las diferentes órdenes de fabricación. Estas tareas se han de poder realizar dentro de un marco de tiempo aceptable y a la vez adecuado al servicio que desea dar la planta a sus clientes. Por tal de abarcar de forma correcta este problema se distribuye el proyecto final de carrera en tres bloques principales: El primero de ellos es buscar un algoritmo/s que permita encontrar una solución aceptable, una buena solución. En segundo lugar realizar un estudio de los datos necesarios para poder llevar a cabo dicho algoritmo y diseñar una base de datos que disponga de la información adecuada para la organización de los recursos. Seguidamente, el programa que ejecutará la planificación del conjunto de órdenes de fabricación de la planta y su evaluación del nivel de eficiencia de la solución propuesta. El programa será realizado en el lenguaje de programación Java. Y finalmente, la presentación de los resultados y la bondad de la heurística desarrollada.
Resumo:
El projecte d’intercanvi d’energia intel·ligent defensa la idea que és possible un nou model energètic. Aquest nou model pretén aprofitar al màxim possible els recursos energètics que provenen de fonts d’energies renovables i consisteix en la integració de xarxa elèctrica i telecomunicacions en la que usuaris són consumidors i a l’hora productors d’energia elèctrica mitjançant els seus propis sistemes de generació basats en energies renovables, amb la finalitat d’adaptar la demanda a l’oferta. El projecte desenvolupa la part que s’encarrega de fer aquesta gestió de repartiment i intercanvi d’electricitat entre els usuaris, utilitzant les politiques de gestió de processos per una CPU. Per això s’ha fet una adaptació dels algorismes que utilitzen els sistemes operatius a l’àmbit de la xarxa d’intercanvi. Per comprovar els resultats d’aquest estudi, s’han fet les simulacions del model proposat en un entorn web (www.energiainteligent.com) per tal de poder fer una anàlisi dels resultats.
Resumo:
An increasing number of studies have sprung up in recent years seeking to identify individual inventors from patent data. Different heuristics have been suggested to use their names and other information disclosed in patent documents in order to find out “who is who” in patents. This paper contributes to this literature by setting forth a methodology to identify them using patents applied to the European Patent Office (EPO hereafter). As in the large part of this literature, we basically follow a three-steps procedure: (1) the parsing stage, aimed at reducing the noise in the inventor’s name and other fields of the patent; (2) the matching stage, where name matching algorithms are used to group possible similar names; (3) the filtering stage, where additional information and different scoring schemes are used to filter out these potential same inventors. The paper includes some figures resulting of applying the algorithms to the set of European inventors applying to the EPO for a large period of time.
Resumo:
"Vegeu el resum a l'inici del document del fitxer adjunt."
Resumo:
Avui en dia la biologia aporta grans quantitats de dades que només la informàtica pot tractar. Les aplicacions bioinformàtiques són la més important eina d’anàlisi i comparació que tenim per entendre la vida i aconseguir desxifrar aquestes dades. Aquest projecte centra el seu esforç en l’estudi de les aplicacions dedicades a l’alineament de seqüències genètiques, i més concretament a dos algoritmes, basats en programació dinàmica i òptims: el Needleman&Wunsch i el Smith&Waterman. Amb l’objectiu de millorar el rendiment d’aquests algoritmes per a alineaments de seqüències grans, proposem diferents versions d’implementació. Busquem millorar rendiments en temps i espai. Per a aconseguir millorar els resultats aprofitem el paral·lelisme. Els resultats dels anàlisis de les versions els comparem per obtenir les dades necessàries per valorar cost, guany i rendiment.
Resumo:
El trabajo realizado se divide en dos bloques bien diferenciados, ambos relacionados con el análisis de microarrays. El primer bloque consiste en agrupar las condiciones muestrales de todos los genes en grupos o clústers. Estas agrupaciones se obtienen al aplicar directamente sobre la microarray los siguientes algoritmos de agrupación: SOM,PAM,SOTA,HC y al aplicar sobre la microarray escalada con PC y MDS los siguientes algoritmos: SOM,PAM,SOTA,HC y K-MEANS. El segundo bloque consiste en realizar una búsqueda de genes basada en los intervalos de confianza de cada clúster de la agrupación activa. Las condiciones de búsqueda ajustadas por el usuario se validan para cada clúster respecto el valor basal 0 y respecto el resto de clústers, para estas validaciones se usan los intervalos de confianza. Estos dos bloques se integran en una aplicación web ya existente, el applet PCOPGene, alojada en el servidor: http://revolutionresearch.uab.es.
Resumo:
"Vegeu el resum a l'inici del document del fitxer adjunt"
Resumo:
In a seminal paper [10], Weitz gave a deterministic fully polynomial approximation scheme for counting exponentially weighted independent sets (which is the same as approximating the partition function of the hard-core model from statistical physics) in graphs of degree at most d, up to the critical activity for the uniqueness of the Gibbs measure on the innite d-regular tree. ore recently Sly [8] (see also [1]) showed that this is optimal in the sense that if here is an FPRAS for the hard-core partition function on graphs of maximum egree d for activities larger than the critical activity on the innite d-regular ree then NP = RP. In this paper we extend Weitz's approach to derive a deterministic fully polynomial approximation scheme for the partition function of general two-state anti-ferromagnetic spin systems on graphs of maximum degree d, up to the corresponding critical point on the d-regular tree. The main ingredient of our result is a proof that for two-state anti-ferromagnetic spin systems on the d-regular tree, weak spatial mixing implies strong spatial mixing. his in turn uses a message-decay argument which extends a similar approach proposed recently for the hard-core model by Restrepo et al [7] to the case of general two-state anti-ferromagnetic spin systems.
Resumo:
Land cover classification is a key research field in remote sensing and land change science as thematic maps derived from remotely sensed data have become the basis for analyzing many socio-ecological issues. However, land cover classification remains a difficult task and it is especially challenging in heterogeneous tropical landscapes where nonetheless such maps are of great importance. The present study aims to establish an efficient classification approach to accurately map all broad land cover classes in a large, heterogeneous tropical area of Bolivia, as a basis for further studies (e.g., land cover-land use change). Specifically, we compare the performance of parametric (maximum likelihood), non-parametric (k-nearest neighbour and four different support vector machines - SVM), and hybrid classifiers, using both hard and soft (fuzzy) accuracy assessments. In addition, we test whether the inclusion of a textural index (homogeneity) in the classifications improves their performance. We classified Landsat imagery for two dates corresponding to dry and wet seasons and found that non-parametric, and particularly SVM classifiers, outperformed both parametric and hybrid classifiers. We also found that the use of the homogeneity index along with reflectance bands significantly increased the overall accuracy of all the classifications, but particularly of SVM algorithms. We observed that improvements in producer’s and user’s accuracies through the inclusion of the homogeneity index were different depending on land cover classes. Earlygrowth/degraded forests, pastures, grasslands and savanna were the classes most improved, especially with the SVM radial basis function and SVM sigmoid classifiers, though with both classifiers all land cover classes were mapped with producer’s and user’s accuracies of around 90%. Our approach seems very well suited to accurately map land cover in tropical regions, thus having the potential to contribute to conservation initiatives, climate change mitigation schemes such as REDD+, and rural development policies.
Resumo:
Aquest projecte intenta implantar una metodologia de treball sobre MATE. MATE es una eina de sintonització d'aplicacions paral·leles sorgida de la tesis doctoral d'Anna Sikora a 2003. Vistos els resultats obtinguts, es va decidir donar un pas endavant i convertir-la en un producte software Open Source. Per fer-ho ha sigut necessari aplicar una serie d'estàndards i fer un proces de tests. En aquest treball s'ha creat part de la metodologia i s'han modificat dos dels mòduls principals.
Resumo:
La cerca de similituds entre regions de diferents genomes ofereix molta informació sobre les relaciones entre les especies d’aquest genomes. Es molt útil per a l’estudi de la conservació de gens d’una especia a un altre, de com les propietats d’un gen son assignades a un altre gen o de com es creen variacions en genomes diferents durant l’evolució d’aquestes especies. La finalitat d’aquest projecte es la creació d’una eina per a la cerca d’ancestres comuns de diferents especies basada en la comparació de la conservació entre regions dels genomes d’aquestes especies. Per a una comparació entre genomes mes eficaç una part important del projecte es destinarà a la creació d’una nova unitat de comparació. Aquestes noves unitats seran superestructures basades en agrupació dels MUMs existent per la mateixa comparació que anomenarem superMUMs. La aplicació final estarà disponible al servidor: http://revolutionresearch.uab.es
Diseño y evaluación de un algoritmo paralelo para la eliminación gausiana en procesadores multi-core
Resumo:
El projecte es centra en el desenvolupament d'un recol·lector de notícies publicades a una llarga llista de blocs ampliada contínuament pel desenvolupador i pels usuaris, afegint els seus blocs preferits. L'aplicació desenvolupada realitza una recol·lecció contínua de notícies consultant les possibles novetats que apareguin en cada un dels blocs inscrits a l'aplicació. Se'ls hi aplica un classificador per idioma i per temàtica i es relaciona amb les altres notícies existents si aquestes parlen sobre el mateix tema. En l'aplicació desenvolupada hi ha la possibilitat d'escollir entre les temàtiques ofertes i en l'idioma que ha estat publicada la notícia. Pel desenvolupament del projecte s'ha desitjat que la plataforma sigui el més compatible possible amb la tecnologia actual fent servir diversos llenguatges de programació que han permès desenvolupar cada un dels algorismes necessaris pel desenvolupament global de l'aplicació; en ordre d'ús he fet servir Php, Matlab, Html, MySql, CSS3, Javascript i XML. s'ha de destacar que el projecte aporta una comoditat per tots aquells lectors de blocs que es troben tantes vegades amb notícies ja llegides en els diferents blocs que consulten.
Resumo:
Las herramientas de análisis de secuencias genómicas permiten a los biólogos identificar y entender regiones fundamentales que tienen implicación en enfermedades genéticas. Actualmente existe una necesidad de dotar al ámbito científico de herramientas de análisis eficientes. Este proyecto lleva a cabo una caracterización y análisis del rendimiento de algoritmos utilizados en la comparación de secuencias genómicas completas, y ejecutadas en arquitecturas MultiCore y ManyCore. A partir del análisis se evalúa la idoneidad de este tipo de arquitecturas para resolver el problema de comparar secuencias genómicas. Finalmente se propone una serie de modificaciones en las implementaciones de estos algoritmos con el objetivo de mejorar el rendimiento.