171 resultados para algorismes
Diseño y evaluación de un algoritmo paralelo para la eliminación gausiana en procesadores multi-core
Resumo:
El projecte es centra en el desenvolupament d'un recol·lector de notícies publicades a una llarga llista de blocs ampliada contínuament pel desenvolupador i pels usuaris, afegint els seus blocs preferits. L'aplicació desenvolupada realitza una recol·lecció contínua de notícies consultant les possibles novetats que apareguin en cada un dels blocs inscrits a l'aplicació. Se'ls hi aplica un classificador per idioma i per temàtica i es relaciona amb les altres notícies existents si aquestes parlen sobre el mateix tema. En l'aplicació desenvolupada hi ha la possibilitat d'escollir entre les temàtiques ofertes i en l'idioma que ha estat publicada la notícia. Pel desenvolupament del projecte s'ha desitjat que la plataforma sigui el més compatible possible amb la tecnologia actual fent servir diversos llenguatges de programació que han permès desenvolupar cada un dels algorismes necessaris pel desenvolupament global de l'aplicació; en ordre d'ús he fet servir Php, Matlab, Html, MySql, CSS3, Javascript i XML. s'ha de destacar que el projecte aporta una comoditat per tots aquells lectors de blocs que es troben tantes vegades amb notícies ja llegides en els diferents blocs que consulten.
Resumo:
Las herramientas de análisis de secuencias genómicas permiten a los biólogos identificar y entender regiones fundamentales que tienen implicación en enfermedades genéticas. Actualmente existe una necesidad de dotar al ámbito científico de herramientas de análisis eficientes. Este proyecto lleva a cabo una caracterización y análisis del rendimiento de algoritmos utilizados en la comparación de secuencias genómicas completas, y ejecutadas en arquitecturas MultiCore y ManyCore. A partir del análisis se evalúa la idoneidad de este tipo de arquitecturas para resolver el problema de comparar secuencias genómicas. Finalmente se propone una serie de modificaciones en las implementaciones de estos algoritmos con el objetivo de mejorar el rendimiento.
Resumo:
Las aplicaciones de alineamiento de secuencias son una herramienta importante para la comunidad científica. Estas aplicaciones bioinformáticas son usadas en muchos campos distintos como pueden ser la medicina, la biología, la farmacología, la genética, etc. A día de hoy los algoritmos de alineamiento de secuencias tienen una complejidad elevada y cada día tienen que manejar un volumen de datos más grande. Por esta razón se deben buscar alternativas para que estas aplicaciones sean capaces de manejar el aumento de tamaño que los bancos de secuencias están sufriendo día a día. En este proyecto se estudian y se investigan mejoras en este tipo de aplicaciones como puede ser el uso de sistemas paralelos que pueden mejorar el rendimiento notablemente.
Resumo:
L'objectiu principal d'aquest projecte és avaluar la tecnologia GPU per determinar si pot ser útil en el sector de les bases de dades. En concret s'utilitza el problema específic de les consultes analítiques amb la finalitat de intentar obtenir un temps de resposta més ràpid. Per aconseguir-ho s'executa el benchmark estàndard TCP-H per poder realitzar la comparació entre tres sistemes de gestió de bases de dades CPU amb un altre implementat per GPU.
Resumo:
Actualment seria impensable la existència d'una xarxa d'informació com Internet sense la existència dels motors de cerca. Gràcies a ells, qualsevol usuari tenim al nostre abast la possibilitat d'obtenir informació sobre qualsevol tema només enviant una consulta des dels nostres ordinadors i rebent una resposta en qüestió de segons. Entre els usuaris dels cercadors d'Internet és molt habitual que les consultes facin referència a la empresa on treballem, la ciutat on vivim, els llocs que visitem, o inclús sobre problemes que tenim o malalties que patim amb l'objectiu de trobar opinions, consells o solucions. En resum, els usuaris, a través de les nostres consultes, proporcionem a diari als motors de cerca informació sobre nosaltres mateixos i sobre la nostra identitat que, juntament amb la adreça IP de la màquina des d'on fem les nostres consultes, ens fa perdre l'anonimat dins dels seus sistemes. Sobre aquesta problemàtica és del que tracta el present Projecte de Final de Carrera. En ell s'ha implementat una solució de la proposta especificada per Alexandre Viejo i Jordi Castellà-Roca en la seva publicació "Using social networks to disort users' profiles generated by web search engines", en la qual es documenten una sèrie de protocols de seguretat i d'algorismes de protecció i distribució que garanteixen la privacitat de la identitat dels usuaris dins dels motors de cerca aprofitant per aquest fi la relació existent entre aquests usuaris a través de les xarxes socials.
Resumo:
L'aportació d'aquest PFC consistirà en el desenvolupament d'un programa informàtic que verifiqui els fonaments teòrics i els algorismes proposats pels seus autors i proporcionar una eina per a l'experimentació.
Resumo:
En aquest treball s'amplia la implementació en Java de les estructures de dades iniciada per Esteve Mariné, utilitzant el seu disseny bàsic. Concretament, s'ha fet la programació de les estructures de a) classes disjuntes, utilitzant els algorismes de llistes encadenades i amb estructura d'arbre, b) monticles, amb els algorismes binari, binomial i de Fibonacci, i c) arbres de recerca basats en l'algorisme d'arbre binari vermell-negre, el qual complementa els dos ja existents amb algorismes d'encadenaments i AVL. Per a examinar l'evolució de les estructures, s'ha preparat un visualitzador gràfic interactiu amb l'usuari que permet fer les operacions bàsiques de l'estructura. Amb aquest entorn és possible desar les estructures, tornar a reproduir-les i desfer i tornar a repetir les operacions fetes sobre l'estructura. Finalment, aporta una metodologia, amb visualització mitjançant gràfics, de l'avaluació comparativa dels algorismes implementats, que permet modificar els paràmetres d'avaluació com ara nombre d'elements que s'han de tractar, algorismes que s'han de comparar i nombre de repeticions. Les dades obtingudes es poden exportar per a analitzar-les posteriorment.
Resumo:
L'aplicació 'Bingo Segur' ha estat una implementació pel cas del joc del bingo, del recurs de les cadenes hash esteses amb compromís de bit, que ens garanteix confidencialitat i autenticació de les dades.
Resumo:
El programa INERCIPHER és una aplicació per realitzar el xifrat i desxifrat dels arxius i per verificar la integritat dels documents. Com a base per desenvolupar aquestes funcionalitats han estat utilitzats dos tipus de xifrat de clau compartida: xifrat en flux i xifrat en bloc.
Resumo:
Es vol implementar un sistema de detecció de còpia per a protegir el copyright de fitxers d'àudio digitals en format WAV. El sistema haurà de contenir dos algorismes bàsics: un per a inserir una marca d'aigua (
Resumo:
Estudio e implantación de algoritmos de recomendación, búsqueda, ranking y aprendizaje.
Resumo:
S'analitzen les problemàtiques relacionades amb la presentació d'informació gràfica en temps real durant un càlcul paral·lel o col·laboratiu en un entorn distribuït, i es fa una proposta de toolkit obert que estén el llenguatge OpenGL per la seva resolució.
Resumo:
We investigate whether dimensionality reduction using a latent generative model is beneficial for the task of weakly supervised scene classification. In detail, we are given a set of labeled images of scenes (for example, coast, forest, city, river, etc.), and our objective is to classify a new image into one of these categories. Our approach consists of first discovering latent ";topics"; using probabilistic Latent Semantic Analysis (pLSA), a generative model from the statistical text literature here applied to a bag of visual words representation for each image, and subsequently, training a multiway classifier on the topic distribution vector for each image. We compare this approach to that of representing each image by a bag of visual words vector directly and training a multiway classifier on these vectors. To this end, we introduce a novel vocabulary using dense color SIFT descriptors and then investigate the classification performance under changes in the size of the visual vocabulary, the number of latent topics learned, and the type of discriminative classifier used (k-nearest neighbor or SVM). We achieve superior classification performance to recent publications that have used a bag of visual word representation, in all cases, using the authors' own data sets and testing protocols. We also investigate the gain in adding spatial information. We show applications to image retrieval with relevance feedback and to scene classification in videos
Resumo:
In this paper a novel methodology aimed at minimizing the probability of network failure and the failure impact (in terms of QoS degradation) while optimizing the resource consumption is introduced. A detailed study of MPLS recovery techniques and their GMPLS extensions are also presented. In this scenario, some features for reducing the failure impact and offering minimum failure probabilities at the same time are also analyzed. Novel two-step routing algorithms using this methodology are proposed. Results show that these methods offer high protection levels with optimal resource consumption