75 resultados para execution
em Consorci de Serveis Universitaris de Catalunya (CSUC), Spain
Resumo:
Viri is a system for automatic distribution and execution of Python code on remote machines. This is especially useful when dealing with a large group of hosts.With Viri, Sysadmins can write their own scripts, and easily distribute and execute them on any number of remote machines. Depending on the number of computers to administrate, Viri can save thousands of hours, that Sysadmins would spend transferring files, logging into remote hosts, and waiting for the scripts to finish. Viri automates the whole process.Viri can also be useful for remotely managing host settings. It should work together with an application where the information about hosts would be maintained. This information can include cron tasks, firewall rules, backup settings,... After a simple Integration of this application with your Viri infrastructure, you can change any settings in the application, and see how it gets applied on the target host automatically.
Resumo:
The parameterized expectations algorithm (PEA) involves a long simulation and a nonlinear least squares (NLS) fit, both embedded in a loop. Both steps are natural candidates for parallelization. This note shows that parallelization can lead to important speedups for the PEA. I provide example code for a simple model that can serve as a template for parallelization of more interesting models, as well as a download link for an image of a bootable CD that allows creation of a cluster and execution of the example code in minutes, with no need to install any software.
Resumo:
Un reto al ejecutar las aplicaciones en un cluster es lograr mejorar las prestaciones utilizando los recursos de manera eficiente, y este reto es mayor al utilizar un ambiente distribuido. Teniendo en cuenta este reto, se proponen un conjunto de reglas para realizar el cómputo en cada uno de los nodos, basado en el análisis de cómputo y comunicaciones de las aplicaciones, se analiza un esquema de mapping de celdas y un método para planificar el orden de ejecución, tomando en consideración la ejecución por prioridad, donde las celdas de fronteras tienen una mayor prioridad con respecto a las celdas internas. En la experimentación se muestra el solapamiento del computo interno con las comunicaciones de las celdas fronteras, obteniendo resultados donde el Speedup aumenta y los niveles de eficiencia se mantienen por encima de un 85%, finalmente se obtiene ganancias de los tiempos de ejecución, concluyendo que si se puede diseñar un esquemas de solapamiento que permita que la ejecución de las aplicaciones SPMD en un cluster se hagan de forma eficiente.
Resumo:
El principal objectiu d'aquest treball és proporcionar una metodologia per a reduir el temps de càlcul del mètode d'interpolació kriging sense pèrdua de la qualitat del model resultat. La solució adoptada ha estat la paral·lelització de l'algorisme mitjançant MPI sobre llenguatge C. Prèviament ha estat necessari automatitzar l'ajust del variograma que millor s'adapta a la distribució espacial de la variable d'estudi. Els resultats experimentals demostren la validesa de la solució implementada, en reduir de forma significativa els temps d'execució final de tot el procés.
Resumo:
A mesura que la complexitat de les tasques dels agents mòbils va creixent, és més important que aquestes no perdin el treball realitzat. Hem de saber en tot moment que la execució s’està desenvolupant favorablement. Aquest projecte tracta d’explicar el procés d’elaboració d’un component de tolerància a fallades des de la seva idea inicial fins a la seva implementació. Analitzarem la situació i dissenyarem una solució. Procurarem que el nostre component emmascari la fallada d’un agent, detectant-la i posteriorment recuperant l’execució des d’on s’ha interromput. Tot això procurant seguir la metodologia de disseny d’agents mòbils per a plataformes lleugeres.
Resumo:
CISNE es un sistema de cómputo en paralelo del Departamento de Arquitectura de Computadores y Sistemas Operativos (DACSO). Para poder implementar políticas de ordenacción de colas y selección de trabajos, este sistema necesita predecir el tiempo de ejecución de las aplicaciones. Con este trabajo se pretende proveer al sistema CISNE de un método para predecir el tiempo de ejecución basado en un histórico donde se almacenarán todos los datos sobre las ejecuciones.
Resumo:
As computer chips implementation technologies evolve to obtain more performance, those computer chips are using smaller components, with bigger density of transistors and working with lower power voltages. All these factors turn the computer chips less robust and increase the probability of a transient fault. Transient faults may occur once and never more happen the same way in a computer system lifetime. There are distinct consequences when a transient fault occurs: the operating system might abort the execution if the change produced by the fault is detected by bad behavior of the application, but the biggest risk is that the fault produces an undetected data corruption that modifies the application final result without warnings (for example a bit flip in some crucial data). With the objective of researching transient faults in computer system’s processor registers and memory we have developed an extension of HP’s and AMD joint full system simulation environment, named COTSon. This extension allows the injection of faults that change a single bit in processor registers and memory of the simulated computer. The developed fault injection system makes it possible to: evaluate the effects of single bit flip transient faults in an application, analyze an application robustness against single bit flip transient faults and validate fault detection mechanism and strategies.
Resumo:
Performance analysis is the task of monitor the behavior of a program execution. The main goal is to find out the possible adjustments that might be done in order improve the performance. To be able to get that improvement it is necessary to find the different causes of overhead. Nowadays we are already in the multicore era, but there is a gap between the level of development of the two main divisions of multicore technology (hardware and software). When we talk about multicore we are also speaking of shared memory systems, on this master thesis we talk about the issues involved on the performance analysis and tuning of applications running specifically in a shared Memory system. We move one step ahead to take the performance analysis to another level by analyzing the applications structure and patterns. We also present some tools specifically addressed to the performance analysis of OpenMP multithread application. At the end we present the results of some experiments performed with a set of OpenMP scientific application.
Resumo:
En termes de temps d'execució i ús de dades, les aplicacions paral·leles/distribuïdes poden tenir execucions variables, fins i tot quan s'empra el mateix conjunt de dades d'entrada. Existeixen certs aspectes de rendiment relacionats amb l'entorn que poden afectar dinàmicament el comportament de l'aplicació, tals com: la capacitat de la memòria, latència de la xarxa, el nombre de nodes, l'heterogeneïtat dels nodes, entre d'altres. És important considerar que l'aplicació pot executar-se en diferents configuracions de maquinari i el desenvolupador d'aplicacions no port garantir que els ajustaments de rendiment per a un sistema en particular continuïn essent vàlids per a d'altres configuracions. L'anàlisi dinàmica de les aplicacions ha demostrat ser el millor enfocament per a l'anàlisi del rendiment per dues raons principals. En primer lloc, ofereix una solució molt còmoda des del punt de vista dels desenvolupadors mentre que aquests dissenyen i evaluen les seves aplicacions paral·leles. En segon lloc, perquè s'adapta millor a l'aplicació durant l'execució. Aquest enfocament no requereix la intervenció de desenvolupadors o fins i tot l'accés al codi font de l'aplicació. S'analitza l'aplicació en temps real d'execució i es considra i analitza la recerca dels possibles colls d'ampolla i optimitzacions. Per a optimitzar l'execució de l'aplicació bioinformàtica mpiBLAST, vam analitzar el seu comportament per a identificar els paràmetres que intervenen en el rendiment d'ella, com ara: l'ús de la memòria, l'ús de la xarxa, patrons d'E/S, el sistema de fitxers emprat, l'arquitectura del processador, la grandària de la base de dades biològica, la grandària de la seqüència de consulta, la distribució de les seqüències dintre d'elles, el nombre de fragments de la base de dades i/o la granularitat dels treballs assignats a cada procés. El nostre objectiu és determinar quins d'aquests paràmetres tenen major impacte en el rendiment de les aplicacions i com ajustar-los dinàmicament per a millorar el rendiment de l'aplicació. Analitzant el rendiment de l'aplicació mpiBLAST hem trobat un conjunt de dades que identifiquen cert nivell de serial·lització dintre l'execució. Reconeixent l'impacte de la caracterització de les seqüències dintre de les diferents bases de dades i una relació entre la capacitat dels workers i la granularitat de la càrrega de treball actual, aquestes podrien ser sintonitzades dinàmicament. Altres millores també inclouen optimitzacions relacionades amb el sistema de fitxers paral·lel i la possibilitat d'execució en múltiples multinucli. La grandària de gra de treball està influenciat per factors com el tipus de base de dades, la grandària de la base de dades, i la relació entre grandària de la càrrega de treball i la capacitat dels treballadors.
Resumo:
Approximate Quickselect, a simple modification of the well known Quickselect algorithm for selection, can be used to efficiently find an element with rank k in a given range [i..j], out of n given elements. We study basic cost measures of Approximate Quickselect by computing exact and asymptotic results for the expected number of passes, comparisons and data moves during the execution of this algorithm. The key element appearing in the analysis of Approximate Quickselect is a trivariate recurrence that we solve in full generality. The general solution of the recurrence proves to be very useful, as it allows us to tackle several related problems, besides the analysis that originally motivated us. In particular, we have been able to carry out a precise analysis of the expected number of moves of the ith element when selecting the jth smallest element with standard Quickselect, where we are able to give both exact and asymptotic results. Moreover, we can apply our general results to obtain exact and asymptotic results for several parameters in binary search trees, namely the expected number of common ancestors of the nodes with rank i and j, the expected size of the subtree rooted at the least common ancestor of the nodes with rank i and j, and the expected distance between the nodes of ranks i and j.
Resumo:
En aquest projecte s’ha implementat un sistema de control per a les bombes microfluídiques LPVX de The Lee Company funcionant a mode de xeringa. El sistema consisteix en un circuit controlador basat en el microxip UDN 296 B de Allegro MicroSystems, que conté dos Ponts en H per a controlar motors pas a pas i dos mòduls de Modulació d’Amplada de Polsos (PWM), governat a partir d’un programa de control com a instrument virtual dissenyat sota l’entorn LabVIEW. El programa de control permet indicar la quantitat de volum a aspirar o dispensar per la bomba i escollir entre una execució simple o una de continuada, podent-ne controlar en aquest segona opció el temps entre execució i execució. El programa també permet visualitzar el procés mitjançant la obtenció de la imatge d’una webcam amb DirectShow. Finalment també permet el control remot de l’Instrument Virtual a través de la xarxa d’Internet.
Resumo:
La present recerca té per objecte l’estudi de la utilització dels sistemes de control electrònic monitorat a la població penada a Catalunya. La finalitat principal del projecte és la d’analitzar l’adequació d’aquests sistemes als fins que la llei penal, processal i penitenciària els encomana i valorar la viabilitat d’ampliació de la utilització d’aquests sistemes. L’interès en la realització d’aquest estudi deriva de la constatació, per una banda, de l’existència d’una àmplia oferta de sistemes tecnològics, en constant desenvolupament i millora, que permeten un seguiment i control dels individus en la comunitat, i per altra banda, de la progressiva incorporació d’aquestes tecnologies en la legislació penal i penitenciària. La recerca parteix de la base que en l’actual context de presons superpoblades, de creixent volum de la població interna en centres penitenciaris i de recerca de mesures de major control del risc, l’anàlisi de l’ús que s’ha donat a aquest recurs legal i la valoració que de la seva utilització en fan els subjectes involucrats en la seva aplicació pot resultar cabdal per al disseny de noves polítiques penitenciàries. A més, la recerca hauria de permetre plantejar l’eventual extensió d’aquests sistemes a un major nombre de supòsits en el mateix context del tercer grau penitenciari o bé fins i tot plantejar la seva utilització en la llibertat condicional o en altres àmbits de l’execució penal.
Resumo:
Primero comenzamos por describir la situación global histórica de la transformación del entorno. Luego se describe cómo evoluciona la Educación Ambiental bajo el concepto del desarrollo, constituyéndose como la Educación Ambiental para el Desarrollo Sustentable. Continuamos describiendo la situación de la EA a nivel internacional; se pasa luego al ámbito nacional, teniendo como escenario a México, aquí se hace un análisis del estado que guarda la EA en el país. Después se continua con el ámbito estatal, para lo cual se analiza la situación de la EA en el estado de Zacatecas, en este plano se toca el tema de la participación de las instituciones de educación superior en el intercambio de experiencias y conocimientos para el fortalecimiento de programas de EADS. Luego pasamos a un ámbito municipal, el caso a tratar es el municipio de Monte Escobedo Zacatecas, se hace una descripción general del municipio y se tratan los antecedentes que han motivado este proyecto, para luego pasar a describir el caso específico de la Sierra de Monte Escobedo; a partir de las características de ésta y retomando una propuesta previa de integrar la Sierra al sistema de Áreas Naturales Protegidas de México, se hacen dos propuestas: La primera es sobre el diseño de un Centro de Interpretación y Educación Ambiental; la segunda es para la realización de un Sendero de interpretación. Ambas propuestas pretenden contribuir al aprovechamiento sustentable de los recursos y desarrollo de la comunidad.
Resumo:
La Integración de la Políticas Ambientales (IPA) consiste en la incorporación de los objetivos ambientales en todos los estadios de elaboración e implementación de las políticas no ambientales (o sectoriales), con un reconocimiento específico de dicho objetivo como principio director de la programación y la puesta en práctica. Se complementa con la previsión de las consecuencias ambientales mediante una evaluación de conjunto de la política con objeto de minimizar las contradicciones entre las políticas ambientales y no ambientales dando prioridad a las primeras. La naturaleza transversal de la IPA no se ajusta a la forma tradicional de gobernanza jerárquica basada en la autoridad del Estado, la diferenciación sectorial, y los instrumentos típicos de dirección y control. Por ello, no es extraño que la IPA se encuentre a menudo asociada a los llamados "nuevos modos de gobernanza". Esta tesis propone analizar empíricamente el estado de la cuestión en España con respecto a la Integración de la política ambiental , tanto a nivel estatal como autonómico (Cataluña, País Vasco), yendo más allá de los compromisos políticos a favor de un mayor grado de integración de los factores ambientales en las demás políticas. En particular, los ámbitos de investigación seleccionados para esta finalidad son el de las políticas de mitigación de las causas y los efectos del cambio climático, y las políticas de desarrollo sostenible. En términos de ‘variable independiente’ La hipótesis que se quiere comprobar es que la acción llevada a cabo por la Unión Europea ha generado profundos cambios en las estructuras de las instituciones mencionadas y en los procesos de elaboración y implementación de determinadas políticas (energía y transporte) así como en las relaciones entre sectores de la administración pública y entre el sector público y el privado.
Resumo:
La gestión de recursos en los procesadores multi-core ha ganado importancia con la evolución de las aplicaciones y arquitecturas. Pero esta gestión es muy compleja. Por ejemplo, una misma aplicación paralela ejecutada múltiples veces con los mismos datos de entrada, en un único nodo multi-core, puede tener tiempos de ejecución muy variables. Hay múltiples factores hardware y software que afectan al rendimiento. La forma en que los recursos hardware (cómputo y memoria) se asignan a los procesos o threads, posiblemente de varias aplicaciones que compiten entre sí, es fundamental para determinar este rendimiento. La diferencia entre hacer la asignación de recursos sin conocer la verdadera necesidad de la aplicación, frente a asignación con una meta específica es cada vez mayor. La mejor manera de realizar esta asignación és automáticamente, con una mínima intervención del programador. Es importante destacar, que la forma en que la aplicación se ejecuta en una arquitectura no necesariamente es la más adecuada, y esta situación puede mejorarse a través de la gestión adecuada de los recursos disponibles. Una apropiada gestión de recursos puede ofrecer ventajas tanto al desarrollador de las aplicaciones, como al entorno informático donde ésta se ejecuta, permitiendo un mayor número de aplicaciones en ejecución con la misma cantidad de recursos. Así mismo, esta gestión de recursos no requeriría introducir cambios a la aplicación, o a su estrategia operativa. A fin de proponer políticas para la gestión de los recursos, se analizó el comportamiento de aplicaciones intensivas de cómputo e intensivas de memoria. Este análisis se llevó a cabo a través del estudio de los parámetros de ubicación entre los cores, la necesidad de usar la memoria compartida, el tamaño de la carga de entrada, la distribución de los datos dentro del procesador y la granularidad de trabajo. Nuestro objetivo es identificar cómo estos parámetros influyen en la eficiencia de la ejecución, identificar cuellos de botella y proponer posibles mejoras. Otra propuesta es adaptar las estrategias ya utilizadas por el Scheduler con el fin de obtener mejores resultados.