1000 resultados para Processament electrònic de dades -- Processos de distribució
Resumo:
Aquest projecte presenta una solució intregrada amb les especificacions de la FIPA d’un servei de pàgines grogues per a la plataforma d’agents de JADE en entorns ad hoc. El servei de pàgines grogues interaccionarà a través d’un middleware amb diferents tecnologies P2P per proporcionar als agents un servei totalment fiable i transparent que els ajudarà a superar la limitació del sistema de federacions de FIPA.
Resumo:
The demand for computational power has been leading the improvement of the High Performance Computing (HPC) area, generally represented by the use of distributed systems like clusters of computers running parallel applications. In this area, fault tolerance plays an important role in order to provide high availability isolating the application from the faults effects. Performance and availability form an undissociable binomial for some kind of applications. Therefore, the fault tolerant solutions must take into consideration these two constraints when it has been designed. In this dissertation, we present a few side-effects that some fault tolerant solutions may presents when recovering a failed process. These effects may causes degradation of the system, affecting mainly the overall performance and availability. We introduce RADIC-II, a fault tolerant architecture for message passing based on RADIC (Redundant Array of Distributed Independent Fault Tolerance Controllers) architecture. RADIC-II keeps as maximum as possible the RADIC features of transparency, decentralization, flexibility and scalability, incorporating a flexible dynamic redundancy feature, allowing to mitigate or to avoid some recovery side-effects.
Resumo:
Un reto al ejecutar las aplicaciones en un cluster es lograr mejorar las prestaciones utilizando los recursos de manera eficiente, y este reto es mayor al utilizar un ambiente distribuido. Teniendo en cuenta este reto, se proponen un conjunto de reglas para realizar el cómputo en cada uno de los nodos, basado en el análisis de cómputo y comunicaciones de las aplicaciones, se analiza un esquema de mapping de celdas y un método para planificar el orden de ejecución, tomando en consideración la ejecución por prioridad, donde las celdas de fronteras tienen una mayor prioridad con respecto a las celdas internas. En la experimentación se muestra el solapamiento del computo interno con las comunicaciones de las celdas fronteras, obteniendo resultados donde el Speedup aumenta y los niveles de eficiencia se mantienen por encima de un 85%, finalmente se obtiene ganancias de los tiempos de ejecución, concluyendo que si se puede diseñar un esquemas de solapamiento que permita que la ejecución de las aplicaciones SPMD en un cluster se hagan de forma eficiente.
Resumo:
Este proyecto nace de la necesidad de realizar una integración de los sistemas informáticos de una empresa en una multinacional; las empresas disponen de servicios de outsourcing en sistemas de información. Al tratarse de una integración operativa, sólo trataremos de trasladar los servicios de centro de atención al usuario, soporte local y ofimática desde un outsourcing de servicios a otro, añadiendo los cambios de procesos necesarios para disponer de un único entorno de trabajo. El cambio de entorno de trabajo se ha de realizar sin perdida de disponibilidad ni de información.
Resumo:
La aparición de nuevos tipos de aplicaciones, como vídeo bajo demanda, realidad virtual y videoconferencias entre otras, caracterizadas por la necesidad de cumplir sus deadlines. Este tipo de aplicaciones, han sido denominadas en la literatura aplicaciones soft-real time (SRT) periódicas. Este trabajo se centra en el problema de la planificación temporal de este nuevo tipo de aplicaciones en clusters no dedicados.
Resumo:
En este proyecto se han visto dos sistemas de computación distribuida diferentes entre ellos: Condor y BOINC. Se exploran las posibilidades para poder conseguir que ambos sistemas logren trabajar conjuntamente, escogiendo la parte más efectiva de cada uno de los sistemas con el fin de complementarse.
Resumo:
Las aplicaciones de alineamiento múltiple de secuencias son prototipos de aplicaciones que requieren elevada potencia de cómputo y memoria. Se destacan por la relevancia científica que tienen los resultados que brindan a investigaciones científicas en el campo de la biomedicina, genética y farmacología. Las aplicaciones de alineamiento múltiple tienen la limitante de que no son capaces de procesar miles de secuencias, por lo que se hace necesario crear un modelo para resolver la problemática. Analizando el volumen de datos que se manipulan en el área de las ciencias biológica y la complejidad de los algoritmos de alineamiento de secuencias, la única vía de solución del problema es a través de la utilización de entornos de cómputo paralelos y la computación de altas prestaciones. La investigación realizada por nosotros tiene como objetivo la creación de un modelo paralelo que le permita a los algoritmos de alineamiento múltiple aumentar el número de secuencias a procesar, tratando de mantener la calidad en los resultados para garantizar la precisión científica. El modelo que proponemos emplea como base la clusterización de las secuencias de entrada utilizando criterios biológicos que permiten mantener la calidad de los resultados. Además, el modelo se enfoca en la disminución del tiempo de cómputo y consumo de memoria. Para presentar y validar el modelo utilizamos T-Coffee, como plataforma de desarrollo e investigación. El modelo propuesto pudiera ser aplicado a cualquier otro algoritmo de alineamiento múltiple de secuencias.
Resumo:
For the execution of the scientific applications, different methods have been proposed to dynamically provide execution environments for such applications that hide the complexity of underlying distributed and heterogeneous infrastructures. Recently virtualization has emerged as a promising technology to provide such environments. Virtualization is a technology that abstracts away the details of physical hardware and provides virtualized resources for high-level scientific applications. Virtualization offers a cost-effective and flexible way to use and manage computing resources. Such an abstraction is appealing in Grid computing and Cloud computing for better matching jobs (applications) to computational resources. This work applies the virtualization concept to the Condor dynamic resource management system by using Condor Virtual Universe to harvest the existing virtual computing resources to their maximum utility. It allows existing computing resources to be dynamically provisioned at run-time by users based on application requirements instead of statically at design-time thereby lay the basis for efficient use of the available resources, thus providing way for the efficient use of the available resources.
Resumo:
Quan es va plantejar aquest treball, a l’Observatori de Neologia s’havia substituït el buidatge manual de textos per un de semiautomàtic. No s’havia realitzat cap estudi contrastiu entre ambdues metodologies, i els resultats presentats en aquest projecte donen resposta a les limitacions de cada mètode i llur aportacions.
Resumo:
Background: Parallel T-Coffee (PTC) was the first parallel implementation of the T-Coffee multiple sequence alignment tool. It is based on MPI and RMA mechanisms. Its purpose is to reduce the execution time of the large-scale sequence alignments. It can be run on distributed memory clusters allowing users to align data sets consisting of hundreds of proteins within a reasonable time. However, most of the potential users of this tool are not familiar with the use of grids or supercomputers. Results: In this paper we show how PTC can be easily deployed and controlled on a super computer architecture using a web portal developed using Rapid. Rapid is a tool for efficiently generating standardized portlets for a wide range of applications and the approach described here is generic enough to be applied to other applications, or to deploy PTC on different HPC environments. Conclusions: The PTC portal allows users to upload a large number of sequences to be aligned by the parallel version of TC that cannot be aligned by a single machine due to memory and execution time constraints. The web portal provides a user-friendly solution.
Resumo:
This article introduces a new interface for T-Coffee, a consistency-based multiple sequence alignment program. This interface provides an easy and intuitive access to the most popular functionality of the package. These include the default T-Coffee mode for protein and nucleic acid sequences, the M-Coffee mode that allows combining the output of any other aligners, and template-based modes of T-Coffee that deliver high accuracy alignments while using structural or homology derived templates. These three available template modes are Expresso for the alignment of protein with a known 3D-Structure, R-Coffee to align RNA sequences with conserved secondary structures and PSI-Coffee to accurately align distantly related sequences using homology extension. The new server benefits from recent improvements of the T-Coffee algorithm and can align up to 150 sequences as long as 10 000 residues and is available from both http://www.tcoffee.org and its main mirror http://tcoffee.crg.cat.
Resumo:
La informació biomètrica s'ha convertit en una tecnologia complementària a la criptografia que permet administrar còmodament les dades criptogràfiques. Són útils dues necessitats importants: en primer lloc, posar aquestes dades sempre a mà i, a més, fent fàcilment identificable el seu legítim propietari. En aquest article es proposa un sistema que integra la signatura biomètrica de reconeixement facial amb un esquema de signatura basat en la identitat, de manera que la cara de l'usuari esdevé la seva clau pública i la ID del sistema. D'aquesta manera, altres usuaris poden verificar els missatges utilitzant fotos del remitent, proporcionant un intercanvi raonable entre la seguretat del sistema i la usabilitat, així com una manera molt més senzilla d'autenticar claus públiques i processos de distribució.
Resumo:
Peccata Mundi arrenca de la iniciativa del director de R+D+I de l'empresa Mas Parés, Jaume Juher, i l’artista plàstic Jaume Xifra, que l’any 2004 van decidir sumar a l’amistat que els uneix un objectiu: convergir en un sol projecte els reptes professionals que es plantejaven individualment des de cadascuna de les seves disciplines: l’art i la investigació gastronòmica. Posteriorment, a l'any 2005, s'incorporen al projecte els experts que constitueixen actualment el nucli central de treball: Josep Bel, expert en anàlisi sensorial i aplicació d'aromes; David Juher, matemàtic i professor de la UdG; Xavier de Palau, músic electrònic; Clara Perxachs, investigadora de la cultura del menjar; i Toni Botella, cuiner. A l'experiència gastronòmico-artística Peccata Mundi el participant tasta un seguit de plats i vins i valora les seves percepcions contestant un qüestionari. Les dades d'aquest qüestionari s'utilitzen, a través d'unes transformacions regides per criteris neurològics, matemàtics, antropològics, etc., per produir unes dades numèriques que seran l'entrada a una aplicació que les farà servir per generar un vídeo amb música d'una durada aproximadament de 2 minuts. Aquest vídeo, que consta d'imatges fractals en moviment i d'una música de fons, generada també utilitzant funcions de comportament caòtic, és el retrat audiovisual de l'experiència sensorial del participant. El projecte consisteix a implementar tota la logística informàtica de l’experiència sensorial Peccata Mundi: dissenyar les aplicacions d'entrada de dades, tractament de la base de dades, processament de les dades del qüestionari, generació del vídeo i la música i producció de l'arxiu audiovisual que finalment el participant s'emporta gravat en suport DVD
Resumo:
Peccata Mundi arrenca de la iniciativa del director de R+D+I de l'empresa Mas Parés, Jaume Juher, i l’artista plàstic Jaume Xifra, que l’any 2004 van decidir sumar a l’amistat que els uneix un objectiu: convergir en un sol projecte els reptes professionals que es plantejaven individualment des de cadascuna de les seves disciplines: l’art i la investigació gastronòmica. Posteriorment, a l'any 2005, s'incorporen al projecte els experts que constitueixen actualment el nucli central de treball: Josep Bel, expert en anàlisi sensorial i aplicació d'aromes; David Juher, matemàtic i professor de la UdG; Xavier de Palau, músic electrònic; Clara Perxachs, investigadora de la cultura del menjar; i Toni Botella, cuiner. A l'experiència gastronòmico-artística Peccata Mundi el participant tasta un seguit de plats i vins i valora les seves percepcions contestant un qüestionari. Les dades d'aquest qüestionari s'utilitzen, a través d'unes transformacions regides per criteris neurològics, matemàtics, antropològics, etc., per produir unes dades numèriques que seran l'entrada a una aplicació que les farà servir per generar un vídeo amb música d'una durada aproximadament de 2 minuts. Aquest vídeo, que consta d'imatges fractals en moviment i d'una música de fons, generada també utilitzant funcions de comportament caòtic, és el retrat audiovisual de l'experiència sensorial del participant. El projecte consisteix a implementar tota la logística informàtica de l’experiència sensorial Peccata Mundi: dissenyar les aplicacions d'entrada de dades, tractament de la base de dades, processament de les dades del qüestionari, generació del vídeo i la música i producció de l'arxiu audiovisual que finalment el participant s'emporta gravat en suport DVD