28 resultados para Simulacao paralela
Resumo:
Las aplicaciones de alineamiento múltiple de secuencias son prototipos de aplicaciones que requieren elevada potencia de cómputo y memoria. Se destacan por la relevancia científica que tienen los resultados que brindan a investigaciones científicas en el campo de la biomedicina, genética y farmacología. Las aplicaciones de alineamiento múltiple tienen la limitante de que no son capaces de procesar miles de secuencias, por lo que se hace necesario crear un modelo para resolver la problemática. Analizando el volumen de datos que se manipulan en el área de las ciencias biológica y la complejidad de los algoritmos de alineamiento de secuencias, la única vía de solución del problema es a través de la utilización de entornos de cómputo paralelos y la computación de altas prestaciones. La investigación realizada por nosotros tiene como objetivo la creación de un modelo paralelo que le permita a los algoritmos de alineamiento múltiple aumentar el número de secuencias a procesar, tratando de mantener la calidad en los resultados para garantizar la precisión científica. El modelo que proponemos emplea como base la clusterización de las secuencias de entrada utilizando criterios biológicos que permiten mantener la calidad de los resultados. Además, el modelo se enfoca en la disminución del tiempo de cómputo y consumo de memoria. Para presentar y validar el modelo utilizamos T-Coffee, como plataforma de desarrollo e investigación. El modelo propuesto pudiera ser aplicado a cualquier otro algoritmo de alineamiento múltiple de secuencias.
Resumo:
La E/S Paralela es un área de investigación que tiene una creciente importancia en el cómputo de Altas Prestaciones. Si bien durante años ha sido el cuello de botella de los computadores paralelos en la actualidad, debido al gran aumento del poder de cómputo, el problema de la E/S se ha incrementado y la comunidad del Cómputo de Altas Prestaciones considera que se debe trabajar en mejorar el sistema de E/S de los computadores paralelos, para lograr cubrir las exigencias de las aplicaciones científicas que usan HPC. La Configuración de la Entrada/Salida (E/S) Paralela tiene una gran influencia en las prestaciones y disponibilidad, por ello es importante “Analizar configuraciones de E/S paralela para identificar los factores claves que influyen en las prestaciones y disponibilidad de la E/S de Aplicaciones Científicas que se ejecutan en un clúster”. Para realizar el análisis de las configuraciones de E/S se propone una metodología que permite identificar los factores de E/S y evaluar su influencia para diferentes configuraciones de E/S formada por tres fases: Caracterización, Configuración y Evaluación. La metodología permite analizar el computador paralelo a nivel de Aplicación Científica, librerías de E/S y de arquitectura de E/S, pero desde el punto de vista de la E/S. Los experimentos realizados para diferentes configuraciones de E/S y los resultados obtenidos indican la complejidad del análisis de los factores de E/S y los diferentes grados de influencia en las prestaciones del sistema de E/S. Finalmente se explican los trabajos futuros, el diseño de un modelo que de soporte al proceso de Configuración del sistema de E/S paralela para aplicaciones científicas. Por otro lado, para identificar y evaluar los factores de E/S asociados con la disponibilidad a nivel de datos, se pretende utilizar la Arquitectura Tolerante a Fallos RADIC.
Resumo:
Cada película de Rivette alberga otra, una vida paralela que emana de sus fisuras dondehabitan fantasmas y revenants, cuya fenomenología se establecerá desde allí a partir de lo imaginario
Resumo:
En aquest projecte final de carrera es decriurà el procés realitzat per tal d'aconseguir que l'aplicació reacTICision aprofiti les capacitats de la computació paral·lela en GPU mitjançant la tecnologia CUDA de NVIDIA. Amb aquest objectiu es realitzarà un estudi de la tecnologia CUDA i el funcionament de reacTIVision així com un anàlisi dels resultats obtinguts
Resumo:
La autora propone un análisis de los mecanismos identitarios de afiliación y diferenciación utilizados entre los asistentes y asistidos sociales del mundo de la inmigración en la Cataluña de los últimos treinta años y que ha configurado lo que viene a denominar la "sociedad paralela". Con este objeto hará referencia a la génesis histórica del fenómeno y a una serie de variables de tipo económico, cultural y politico subyacentes que constituyen los motores reales de su evolución. Igualmente, considera necesario examinar como se efectúa la producción social del extranjero, asi como su categorización en este mismo escenario, revisando, a su vez, la pertinencia teórica de algunos conceptos aplicados en el marco de los diferentes modelos de integración de los inmigrantes interiores y exteriores. En el proceso de jerarquización simbólica y política inherente a toda dinámica de las representaciones de identidad y alteridad, se construyen las bases sociales del dominio que la sociedad de "acogida" ejerce sobre los grupos foráneos, interiorizando éstos el discurso dominante orientado a confundir diversidad cultural con diferencia esencial y legitimadora de las desigualdades de que son víctima. La conciencia alienada del "Nosotros" en relación a los "otros", que se traduce en determinadas atribuciones sociales de los grupos, se desarrolla en el cuadro de unas fronteras simbólicas cuyos limites solo se moverán en función de los intereses objetivos que la mayoria nacional autóctona tenga de aumentar o disminuir la distancia social respecto a las minorías inmigradas. Por Último, profundizando en la naturaleza de los intercambios entre ambos grupos (distinguiendo la especificidad de los inmigrantes extracomunitarios en el contexto señalado) para extraer las oportunas conclusiones, hace un breve repaso de lo que ha significado el proyecto politico y la identidad cultural del nacionalisrno catalán desde su aparición hasta nuestros dias.
Resumo:
Los consorcios han sido una de las novedades más influyentes en la realidad bibliotecaria mundial de los últimos cinco años. Su expansión territorial y en actividades los ha convertido en un fenómeno que ha cambiado profundamente las formas tradicionales de definir los servicios bibliotecarios. El examen atento de las actividades que ha desarrollado el Consorcio de Bibliotecas Universitarias de Cataluña (CBUC) en el ámbito de las bibliotecas digitales es una muestra de las posibilidades de cooperación existentes en estos inicios del Siglo XXI. El CBUC inició sus actividades de contratación de contenidos digitales en el 1998. Los productos y servicios licenciados se agruparon bajo el nombre de Biblioteca Digital de Catalunya (BDC). La BDC contiene actualmente unas 6.800 revistas-e, 58 BBDD y 4.100 libros-e. De forma bastante paralela en el tiempo nacieron un servidor de sumarios electrónicos de revistas y un servidor de tesis doctorales a texto completo. La evolución de las necesidades de las bibliotecas ha comportado que hoy en el CBUC se tenga la visión de la BDC como un servicio formado de dos grandes partes: a) los productos exteriores sujetos a contratación y accesibles remotamente a través de servicios comerciales, y, b) servidores de aquellos objetos digitales generados en el ámbito del CBUC y que solo pueden ser puestos en la red por nosotros mismos. Para gestionar esta segunda parte de la BDC debemos constituir almacenes o repositorios digitales. Entre las diferentes posibilidades, el CBUC ha optado por crear repositorios institucionales colectivos de diferente tipo según los materiales que contienen. Hasta el momento se han creado tres repositorios: uno para tesis, uno para revistas y uno para literatura gris de investigación. Está previsto crear un cuarto repositorio para imágenes. La ponencia finaliza con los aprendizajes del CBUC en materia de repositorios. El principal es que la mayor dificultad para crearlos no son los elementos tecnológicos sino establecer mecanismos de relación con el profesorado y la universidad para que los diferentes documentos creados de forma electrónica pasen a formar parte de los repositorios institucionales correspondientes.
Resumo:
Durante la década de los ’60 España vivió su particular “edad de oro” y uno de los periodos de transformaciones más radicales de toda su historia en su economía y su sociedad. La década que empezó con el Plan de Estabilización acabó con una país ya plenamente industrial, atravesado por el movimiento interior y exterior más grande de personas de su historia, con un campo que se fue vaciando rápidamente y, consecuentemente, se fueron imponiendo transformaciones de su agricultura que la alejaron definitivamente del modelo de la agricultura tradicional; fue esta la década de mayor crecimiento económico del siglo XX (y por extensión de la historia). Lo único que se mantenía intacto era el sistema político, que hacía del tardo-fascismo y del nacional-catolicismo español la gran anomalía del concierto europeo, junto a su vecino ibérico. De manera que en España los años gloriosos del capitalismo keynesiano, amén de empezar con notable retraso respecto al resto del mundo capitalista avanzado, se caracterizaron por una particular cojera en la aplicación del modelo occidental de la época; una cojera consolidada de la mano de los intereses militares y geopolíticos estadounidenses y acentuada por las transformaciones a que obligaba una desastrosa crisis de balanza de pagos. Es decir, se asistió a una inédita aceleración del crecimiento pero sin paralela construcción del Estado de Bienestar. ¿Cómo influyó esta circunstancia sobre los niveles de bienestar de los españoles y las españolas? ¿De qué magnitud eran durante este período las desigualdades y cómo evolucionaron? Responder a estas preguntas desde la perspectiva de los ingresos y de la alimentación es el objetivo de esta investigación.
Resumo:
Gaps es un generador de aplicaciones sintéticas de estructura compuesta Master/Worker de pipelines. Para crear una aplicación sintética, el investigador utilizará Gaspar, que recibe un fichero de texto con los parámetros de la aplicación a generar: cantidad de workers, etapas, tamaño de mensaje a enviar, etc., y genera un fichero con las propiedades de cada etapa. A partir de estos datos, Gaps, que esta hecho en C con MPI, genera y ejecuta la aplicación paralela. Estas aplicaciones se utilizan para comprobar en un entorno real los estudios analíticos que constituyen el modelo de rendimiento y sintonización dinámica.
Resumo:
La gestión de recursos en los procesadores multi-core ha ganado importancia con la evolución de las aplicaciones y arquitecturas. Pero esta gestión es muy compleja. Por ejemplo, una misma aplicación paralela ejecutada múltiples veces con los mismos datos de entrada, en un único nodo multi-core, puede tener tiempos de ejecución muy variables. Hay múltiples factores hardware y software que afectan al rendimiento. La forma en que los recursos hardware (cómputo y memoria) se asignan a los procesos o threads, posiblemente de varias aplicaciones que compiten entre sí, es fundamental para determinar este rendimiento. La diferencia entre hacer la asignación de recursos sin conocer la verdadera necesidad de la aplicación, frente a asignación con una meta específica es cada vez mayor. La mejor manera de realizar esta asignación és automáticamente, con una mínima intervención del programador. Es importante destacar, que la forma en que la aplicación se ejecuta en una arquitectura no necesariamente es la más adecuada, y esta situación puede mejorarse a través de la gestión adecuada de los recursos disponibles. Una apropiada gestión de recursos puede ofrecer ventajas tanto al desarrollador de las aplicaciones, como al entorno informático donde ésta se ejecuta, permitiendo un mayor número de aplicaciones en ejecución con la misma cantidad de recursos. Así mismo, esta gestión de recursos no requeriría introducir cambios a la aplicación, o a su estrategia operativa. A fin de proponer políticas para la gestión de los recursos, se analizó el comportamiento de aplicaciones intensivas de cómputo e intensivas de memoria. Este análisis se llevó a cabo a través del estudio de los parámetros de ubicación entre los cores, la necesidad de usar la memoria compartida, el tamaño de la carga de entrada, la distribución de los datos dentro del procesador y la granularidad de trabajo. Nuestro objetivo es identificar cómo estos parámetros influyen en la eficiencia de la ejecución, identificar cuellos de botella y proponer posibles mejoras. Otra propuesta es adaptar las estrategias ya utilizadas por el Scheduler con el fin de obtener mejores resultados.
Resumo:
Debido al gran número de transistores por mm2 que hoy en día podemos encontrar en las GPU convencionales, en los últimos años éstas se vienen utilizando para propósitos generales gracias a que ofrecen un mayor rendimiento para computación paralela. Este proyecto implementa el producto sparse matrix-vector sobre OpenCL. En los primeros capítulos hacemos una revisión de la base teórica necesaria para comprender el problema. Después veremos los fundamentos de OpenCL y del hardware sobre el que se ejecutarán las librerías desarrolladas. En el siguiente capítulo seguiremos con una descripción del código de los kernels y de su flujo de datos. Finalmente, el software es evaluado basándose en comparativas con la CPU.
Resumo:
Los bancos de peces es un grupo social organizado sin la presencia de un líder. Esta organización se atribuye a dos patrones de comportamiento: atracción biosocial y orientación paralela. Este sistema puede modelarse mediante la aproximación del Modelo orientado al Individuo, donde la conducta de cada individuo por separado define el comportamiento grupal de todos los individuos. El objetivo del trabajo es mejorar el rendimiento del simulador mediante una programación híbrida que aproveche las alternativas de paralelismo en el cómputo que ofrecen las recientes arquitecturas multicore en sistemas de altas prestaciones.
Resumo:
En el entorno actual, diversas ramas de las ciencias, tienen la necesidad de auxiliarse de la computación de altas prestaciones para la obtención de resultados a relativamente corto plazo. Ello es debido fundamentalmente, al alto volumen de información que necesita ser procesada y también al costo computacional que demandan dichos cálculos. El beneficio al realizar este procesamiento de manera distribuida y paralela, logra acortar los tiempos de espera en la obtención de los resultados y de esta forma posibilita una toma decisiones con mayor anticipación. Para soportar ello, existen fundamentalmente dos modelos de programación ampliamente extendidos: el modelo de paso de mensajes a través de librerías basadas en el estándar MPI, y el de memoria compartida con la utilización de OpenMP. Las aplicaciones híbridas son aquellas que combinan ambos modelos con el fin de aprovechar en cada caso, las potencialidades específicas del paralelismo en cada uno. Lamentablemente, la práctica ha demostrado que la utilización de esta combinación de modelos, no garantiza necesariamente una mejoría en el comportamiento de las aplicaciones. Por lo tanto, un análisis de los factores que influyen en el rendimiento de las mismas, nos beneficiaría a la hora de implementarlas pero también, sería un primer paso con el fin de llegar a predecir su comportamiento. Adicionalmente, supondría una vía para determinar que parámetros de la aplicación modificar con el fin de mejorar su rendimiento. En el trabajo actual nos proponemos definir una metodología para la identificación de factores de rendimiento en aplicaciones híbridas y en congruencia, la identificación de algunos factores que influyen en el rendimiento de las mismas.
Resumo:
Actualmente existen muchas aplicaciones paralelas/distribuidas en las cuales SPMD es el paradigma más usado. Obtener un buen rendimiento en una aplicación paralela de este tipo es uno de los principales desafíos dada la gran cantidad de aplicaciones existentes. Este objetivo no es fácil de resolver ya que existe una gran variedad de configuraciones de hardware, y también la naturaleza de los problemas pueden ser variados así como la forma de implementarlos. En consecuencia, si no se considera adecuadamente la combinación "software/hardware" pueden aparecer problemas inherentes a una aplicación iterativa sin una jerarquía de control definida de acuerdo a este paradigma. En SPMD todos los procesos ejecutan el mismo código pero computan una sección diferente de los datos de entrada. Una solución a un posible problema del rendimiento es proponer una estrategia de balance de carga para homogeneizar el cómputo entre los diferentes procesos. En este trabajo analizamos el benchmark CG con cargas heterogéneas con la finalidad de detectar los posibles problemas de rendimiento en una aplicación real. Un factor que determina el rendimiento en esta aplicación es la cantidad de elementos nonzero contenida en la sección de matriz asignada a cada proceso. Determinamos que es posible definir una estrategia de balance de carga que puede ser implementada de forma dinámica y demostramos experimentalmente que el rendimiento de la aplicación puede mejorarse de forma significativa con dicha estrategia.
Resumo:
Desde el inicio del proyecto del genoma humano y su éxito en el año 2001 se han secuenciado genomas de multitud de especies. La mejora en las tecnologías de secuenciación ha generado volúmenes de datos con un crecimiento exponencial. El proyecto Análisis bioinformáticos sobre la tecnología Hadoop abarca la computación paralela de datos biológicos como son las secuencias de ADN. El estudio ha sido encauzado por la naturaleza del problema a resolver. El alineamiento de secuencias genéticas con el paradigma MapReduce.
Resumo:
Performance prediction and application behavior modeling have been the subject of exten- sive research that aim to estimate applications performance with an acceptable precision. A novel approach to predict the performance of parallel applications is based in the con- cept of Parallel Application Signatures that consists in extract an application most relevant parts (phases) and the number of times they repeat (weights). Executing these phases in a target machine and multiplying its exeuction time by its weight an estimation of the application total execution time can be made. One of the problems is that the performance of an application depends on the program workload. Every type of workload affects differently how an application performs in a given system and so affects the signature execution time. Since the workloads used in most scientific parallel applications have dimensions and data ranges well known and the behavior of these applications are mostly deterministic, a model of how the programs workload affect its performance can be obtained. We create a new methodology to model how a program’s workload affect the parallel application signature. Using regression analysis we are able to generalize each phase time execution and weight function to predict an application performance in a target system for any type of workload within predefined range. We validate our methodology using a synthetic program, benchmarks applications and well known real scientific applications.