74 resultados para Workflow Execution
Resumo:
La tolerancia a fallos es una línea de investigación que ha adquirido una importancia relevante con el aumento de la capacidad de cómputo de los súper-computadores actuales. Esto es debido a que con el aumento del poder de procesamiento viene un aumento en la cantidad de componentes que trae consigo una mayor cantidad de fallos. Las estrategias de tolerancia a fallos actuales en su mayoría son centralizadas y estas no escalan cuando se utiliza una gran cantidad de procesos, dado que se requiere sincronización entre todos ellos para realizar las tareas de tolerancia a fallos. Además la necesidad de mantener las prestaciones en programas paralelos es crucial, tanto en presencia como en ausencia de fallos. Teniendo en cuenta lo citado, este trabajo se ha centrado en una arquitectura tolerante a fallos descentralizada (RADIC – Redundant Array of Distributed and Independant Controllers) que busca mantener las prestaciones iniciales y garantizar la menor sobrecarga posible para reconfigurar el sistema en caso de fallos. La implementación de esta arquitectura se ha llevado a cabo en la librería de paso de mensajes denominada Open MPI, la misma es actualmente una de las más utilizadas en el mundo científico para la ejecución de programas paralelos que utilizan una plataforma de paso de mensajes. Las pruebas iniciales demuestran que el sistema introduce mínima sobrecarga para llevar a cabo las tareas correspondientes a la tolerancia a fallos. MPI es un estándar por defecto fail-stop, y en determinadas implementaciones que añaden cierto nivel de tolerancia, las estrategias más utilizadas son coordinadas. En RADIC cuando ocurre un fallo el proceso se recupera en otro nodo volviendo a un estado anterior que ha sido almacenado previamente mediante la utilización de checkpoints no coordinados y la relectura de mensajes desde el log de eventos. Durante la recuperación, las comunicaciones con el proceso en cuestión deben ser retrasadas y redirigidas hacia la nueva ubicación del proceso. Restaurar procesos en un lugar donde ya existen procesos sobrecarga la ejecución disminuyendo las prestaciones, por lo cual en este trabajo se propone la utilización de nodos spare para la recuperar en ellos a los procesos que fallan, evitando de esta forma la sobrecarga en nodos que ya tienen trabajo. En este trabajo se muestra un diseño propuesto para gestionar de un modo automático y descentralizado la recuperación en nodos spare en un entorno Open MPI y se presenta un análisis del impacto en las prestaciones que tiene este diseño. Resultados iniciales muestran una degradación significativa cuando a lo largo de la ejecución ocurren varios fallos y no se utilizan spares y sin embargo utilizándolos se restablece la configuración inicial y se mantienen las prestaciones.
Resumo:
Generación dinámica de interfaces web basadas en ficheros descriptivos XML para el control de la parametrización compleja y ejecución de programas por línea de comandos. La necesidad surge con la aplicación mlcoalsim, utilizada por investigadores de la UAB, cuya parametrización requiere la edición manual de un fichero de texto la sintaxis del cual es complicada y pesada. Con la generación de interfaces web se pretende ayudar a los usuarios en la correcta parametrización y ejecución de aplicaciones como mlcoalsim.
Resumo:
Performance prediction and application behavior modeling have been the subject of exten- sive research that aim to estimate applications performance with an acceptable precision. A novel approach to predict the performance of parallel applications is based in the con- cept of Parallel Application Signatures that consists in extract an application most relevant parts (phases) and the number of times they repeat (weights). Executing these phases in a target machine and multiplying its exeuction time by its weight an estimation of the application total execution time can be made. One of the problems is that the performance of an application depends on the program workload. Every type of workload affects differently how an application performs in a given system and so affects the signature execution time. Since the workloads used in most scientific parallel applications have dimensions and data ranges well known and the behavior of these applications are mostly deterministic, a model of how the programs workload affect its performance can be obtained. We create a new methodology to model how a program’s workload affect the parallel application signature. Using regression analysis we are able to generalize each phase time execution and weight function to predict an application performance in a target system for any type of workload within predefined range. We validate our methodology using a synthetic program, benchmarks applications and well known real scientific applications.
Resumo:
El consumo energético es un aspecto cada vez más importante en el diseño de microprocesadores. Este trabajo experimenta con una técnica de control del consumo, el escalado dinámico de tensión y frecuencia (DVFS, siglas en inglés), para determinar cuan efectiva es la misma en la ejecución de programas con diferentes cargas de trabajo, intensivas en cómputo o memoria. Además, se ha extendido la experimentación a varios núcleos de ejecución, permitiendo comprobar en que medida las características de la ejecución en una arquitectura multicore afecta al desempeño de dicha técnica.
Resumo:
Cada vez es mayor el número de aplicaciones desarrolladas en el ámbito científico, como en la Bioinformática o en las Geociencias, escritas bajo el modelo MapReduce, empleando herramientas de código abierto como Apache Hadoop. De la necesidad de integrar Hadoop en entornos HPC, para posibilitar la ejecutar aplicaciones desarrolladas bajo el paradigma MapReduce, nace el presente proyecto. Se analizan dos frameworks diseñados para facilitar dicha integración a los desarrolladores: HoD y myHadoop. En este proyecto se analiza, tanto las posibilidades en cuanto a entornos que ofrecen dichos frameworks para la ejecución de aplicaciones MapReduce, como el rendimiento de los clúster Hadoop generados con HoD o myHadoop respecto a un clúster Hadoop físico.
Resumo:
Aquest treball de fi de carrera, com descriu el seu títol, consisteix a dissenyar i implementar un sistema de control de projectes. Com tot projecte, complirà el requisit de disposar d'un pla que permeti fer un seguiment dels terminis d'execució, de les fites establertes i un control dels lliurables identificats. Pel fet de tractar-se del desenvolupament d'un sistema informàtic, considerarà les etapes d'especificació de requisits, anàlisi, disseny, codificació, proves unitàries i proves funcionals, i es generaran els informes pertinents que serveixin de documentació i de referència en les etapes posteriors. Des d'un punt de vista tecnològic, permetrà aprofundir en el coneixement de l'estructura de funcionament del PL/SQL d'Oracle (crides a procediments i, especialment, al tractament).
Resumo:
En aquest document s'introdueixen els conceptes bàsics necessaris per a l'execució de mètriques de productivitat de programari. Després de la introducció, s'estudien amb detall les mètriques de productivitat més emprades actualment, que són línies de codi (mètrica orientada a les dimensions del projecte), punts de funció (orientada a la funcionalitat del projecte, específica per a projectes de gestió), punts de característica (semblant a punts de funció, però més genèrica i útil per a altres tipus de projectes) i punts de casos d'ús (també orientada a la funció i específica per a projectes d'orientació a objectes). S'hi explica com es pot aconseguir, a partir d'aquestes mètriques i amb l'ajut de models d'estimació de productivitat, com ara el model COCOMO II, les estimacions de l'esforç necessari per a desenvolupar un projecte de programari i la distribució de l'esforç en totes les etapes del projecte a partir de les estimacions de la fase de desenvolupament. També es tracta, encara que no amb tanta profunditat, de la mètrica
Resumo:
L'objectiu d'aquest document serà el de desenvolupar, progressivament des dels aspectes genèrics fins el detall, la realització pràctica requerida a l'elaboració del SIG.
Resumo:
En aquest treball s'estudien els mecanismes necessaris que ofereixin, a les aplicacions i al sistema, informació relacionada amb l'execució de les tasques, els recursos que es consumeixen, les càrregues dels iguals, etc. Una de les utilitats que presenta consisteix en la possibilitat de detectar tasques que tenen problemes o que saturen un membre del grup i actuar en conseqüència, eliminant o aturant durant un temps una tasca, delegant-ne l'execució a un altre membre del grup amb més disponibilitat, etc.
Resumo:
La idea del treball és aconseguir crear un petit SIG d'àmbit municipal i per fer-ho, adquirir tots els coneixements necessaris per a la seva realització
Resumo:
L'objectiu d'aquest treball és l'exposició detallada de les etapes d'anàlisi, disseny i prototip del projecte de Sol·licituds de Recursos Informàtics. La finalitat d'aquest projecte és la creació d'una eina colaborativa de workflow (circuit de treball) que permeti gestionar de manera eficaç les peticions de serveis o productes rebudes pel departament de tecnologies d'una empresa mitjana/gran, informant en cada moment del seu cicle de vida les persones involucrades en la mateixa.
Resumo:
El projecte centra els seus esforços en la darrera activitat: el refactoring d'ontologies. En concret, les expressades en OWL, el llenguatge per a ontologies pensat pel W3C. El resultat final del projecte ha estat la implementació en Java d'un plugin per a Protégé que permet l'execució d'operacions de refactoring sobre ontologies OWL. Part principal del plugin és un framework que ofereix el marc d'execució per a les operacions implementades i permet incorporar noves operacions sense haver-lo de modificar.
Resumo:
La realització d'aquest projecte genererà un aplicatiu que permetrà la realització d'enquestes telefòniques a usuaris predefinits, automatització la execució de qüestionaris parametritzats amb XML, i gravant aquestes respostes en local i en una base de dades remota.
Resumo:
The adjustment of the teaching learning contents in Physical Education, requires of a rigorous analysis that permits to adjust them to the maximum with the educational needs of the student body. It has been approached an investigation study in the one which have intervened pupils, boys and girls, of two different populations, Girona and Madrid in order to prove and analyse the motor and mental components of the student body in the real situation of the game. The hypothesis that we have treated are:if it exists differences between the boys and girls of the educational levels studied in the motor and mental solution in the sports initiation, additionally, the differences that they can exist between the courses and what distance is verified between the study ages to approach a physical activity that implies an initial step to the hour of teaching the collective sports in the classes of Physical education. They have been employed three measure instruments: the first permits to analyse the mental solution without need of practice employing situation photographs of the real game with those which the pupils must choose to who to happen; the second is a pass test that permits to prove the technical dominance to use in a collective sport and the third is a real game situation that permits to put in manifesto the relationship between the mental behaviour and the motor of the pupil. This real game situation is ‘the game of ten pass’ (Blázquez,1986; Torres,1993). The results demonstrate that it do not exist differences between the two sexes in the study ages. In the case of the technical execution level, there is a considerable increase with the age and it is slightly greater in the kids that in the girls. In the case of the real game, we find ourselves with a great variability in the results and we cannot conclude that there are relative differences to the sex in none of the three courses. Respect at participation level during the game is confirmed that the pupils that more participate are not the pupils than more balls lose, what permits to guarantee the idea of the fact that it is convenient to use the real game practice as direct learning element. Finally, there is no a high correlation between the execution level measured in the test of technical execution and the decision execution during the game
Resumo:
Colour image segmentation based on the hue component presents some problems due to the physical process of image formation. One of that problems is colour clipping, which appear when at least one of the sensor components is saturated. We have designed a system, that works for a trained set of colours, to recover the chromatic information of those pixels on which colour has been clipped. The chromatic correction method is based on the fact that hue and saturation are invariant to the uniform scaling of the three RGB components. The proposed method has been validated by means of a specific colour image processing board that has allowed its execution in real time. We show experimental results of the application of our method