991 resultados para Unidades de Procesamiento Gráfico (GPU)
Resumo:
El objetivo de este trabajo fue desarrollar una metodología de procesamiento de información espacial basada en un Sistema de Información Geográfica (SIG), para la determinación del balance de energía en unidades de tierra (UT) definidas en una cuenca hidrográfica rural. Se determinaron las UT a partir de mapas de unidades de paisaje y de mapas de estratos de superficie operada por productor. Se caracterizaron los ingresos (IE) y egresos energéticos (EE) en los sistemas de producción agrícolas. Se calculó la energía neta (EN) y la relación EE/IE (Re). Los datos se analizaron mediante un ANVA (p < 0,05). Los parámetros IE, EE, EN y Re no fueron significativamente diferentes entre UT, por lo que se infiere que el modelo productivo actualmente desarrollado, desde el punto de vista energético, resulta similar. Se hallaron relaciones de interés entre las variables de estudio y su ubicación geográfica, lo que permite recomendar para los sistemas agrícolas de una cuenca rural la planificación general del uso de la energía considerando las capacidades de los SIG.
Resumo:
El avance de las tecnologías y el aumento de la cantidad de trabajos científicos ha forjado un nuevo contexto a nivel mundial, por lo que, la Biblioteca Profesor Guillermo Obiols se ha propuesto divulgar la literatura de carácter científico que se produce en el ámbito de las Facultades de Humanidades y Ciencias de la Educación y de Psicología de la Universidad Nacional de La Plata. Para ello se han emprendido distintos proyectos que siguen la filosofía del movimiento internacional de Acceso Abierto (AA). Este trabajo se propone describir los procesos realizados a las publicaciones científicas de estas unidades académicas, desde su edición en papel hasta su disponibilidad en línea a texto completo en el repositorio institucional Memoria Académica, con el fin de darles visibilidad internacional. Además, se detalla la metodología empleada para conseguir el propósito, haciéndose hincapié en la preservación y descripción de los documentos.
Resumo:
El avance de las tecnologías y el aumento de la cantidad de trabajos científicos ha forjado un nuevo contexto a nivel mundial, por lo que, la Biblioteca Profesor Guillermo Obiols se ha propuesto divulgar la literatura de carácter científico que se produce en el ámbito de las Facultades de Humanidades y Ciencias de la Educación y de Psicología de la Universidad Nacional de La Plata. Para ello se han emprendido distintos proyectos que siguen la filosofía del movimiento internacional de Acceso Abierto (AA). Este trabajo se propone describir los procesos realizados a las publicaciones científicas de estas unidades académicas, desde su edición en papel hasta su disponibilidad en línea a texto completo en el repositorio institucional Memoria Académica, con el fin de darles visibilidad internacional. Además, se detalla la metodología empleada para conseguir el propósito, haciéndose hincapié en la preservación y descripción de los documentos.
Resumo:
El avance de las tecnologías y el aumento de la cantidad de trabajos científicos ha forjado un nuevo contexto a nivel mundial, por lo que, la Biblioteca Profesor Guillermo Obiols se ha propuesto divulgar la literatura de carácter científico que se produce en el ámbito de las Facultades de Humanidades y Ciencias de la Educación y de Psicología de la Universidad Nacional de La Plata. Para ello se han emprendido distintos proyectos que siguen la filosofía del movimiento internacional de Acceso Abierto (AA). Este trabajo se propone describir los procesos realizados a las publicaciones científicas de estas unidades académicas, desde su edición en papel hasta su disponibilidad en línea a texto completo en el repositorio institucional Memoria Académica, con el fin de darles visibilidad internacional. Además, se detalla la metodología empleada para conseguir el propósito, haciéndose hincapié en la preservación y descripción de los documentos.
Resumo:
Debido al creciente aumento del tamaño de los datos en muchos de los actuales sistemas de información, muchos de los algoritmos de recorrido de estas estructuras pierden rendimento para realizar búsquedas en estos. Debido a que la representacion de estos datos en muchos casos se realiza mediante estructuras nodo-vertice (Grafos), en el año 2009 se creó el reto Graph500. Con anterioridad, otros retos como Top500 servían para medir el rendimiento en base a la capacidad de cálculo de los sistemas, mediante tests LINPACK. En caso de Graph500 la medicion se realiza mediante la ejecución de un algoritmo de recorrido en anchura de grafos (BFS en inglés) aplicada a Grafos. El algoritmo BFS es uno de los pilares de otros muchos algoritmos utilizados en grafos como SSSP, shortest path o Betweeness centrality. Una mejora en este ayudaría a la mejora de los otros que lo utilizan. Analisis del Problema El algoritmos BFS utilizado en los sistemas de computación de alto rendimiento (HPC en ingles) es usualmente una version para sistemas distribuidos del algoritmo secuencial original. En esta versión distribuida se inicia la ejecución realizando un particionado del grafo y posteriormente cada uno de los procesadores distribuidos computará una parte y distribuirá sus resultados a los demás sistemas. Debido a que la diferencia de velocidad entre el procesamiento en cada uno de estos nodos y la transfencia de datos por la red de interconexión es muy alta (estando en desventaja la red de interconexion) han sido bastantes las aproximaciones tomadas para reducir la perdida de rendimiento al realizar transferencias. Respecto al particionado inicial del grafo, el enfoque tradicional (llamado 1D-partitioned graph en ingles) consiste en asignar a cada nodo unos vertices fijos que él procesará. Para disminuir el tráfico de datos se propuso otro particionado (2D) en el cual la distribución se haciá en base a las aristas del grafo, en vez de a los vertices. Este particionado reducía el trafico en la red en una proporcion O(NxM) a O(log(N)). Si bien han habido otros enfoques para reducir la transferecnia como: reordemaniento inicial de los vertices para añadir localidad en los nodos, o particionados dinámicos, el enfoque que se va a proponer en este trabajo va a consistir en aplicar técnicas recientes de compression de grandes sistemas de datos como Bases de datos de alto volume o motores de búsqueda en internet para comprimir los datos de las transferencias entre nodos.---ABSTRACT---The Breadth First Search (BFS) algorithm is the foundation and building block of many higher graph-based operations such as spanning trees, shortest paths and betweenness centrality. The importance of this algorithm increases each day due to it is a key requirement for many data structures which are becoming popular nowadays. These data structures turn out to be internally graph structures. When the BFS algorithm is parallelized and the data is distributed into several processors, some research shows a performance limitation introduced by the interconnection network [31]. Hence, improvements on the area of communications may benefit the global performance in this key algorithm. In this work it is presented an alternative compression mechanism. It differs with current existing methods in that it is aware of characteristics of the data which may benefit the compression. Apart from this, we will perform a other test to see how this algorithm (in a dis- tributed scenario) benefits from traditional instruction-based optimizations. Last, we will review the current supercomputing techniques and the related work being done in the area.
Resumo:
8 hojas : ilustraciones.
Resumo:
27 hojas : ilustraciones, fotografías.
Resumo:
La calidad y la satisfacción del cliente son temas importantes que han venido recibiendo cada vez más atención por parte de las instituciones que ofrecen servicios. Por esta razón la adopción de un sistema de calidad debe ser una estrategia de la organización. Las normas para un sistema de gestión de calidad ISO 9001, son una serie de lineamientos que estipulan las exigencias mínimas que una entidad debe cumplir dentro de sus operaciones para asegurar la calidad de sus servicios. Esta norma promueve la adopción de un enfoque basado en procesos; cuando se desarrolla, implementa y mejora la eficacia de un sistema de gestión de calidad, para aumentar la satisfacción del cliente mediante el cumplimiento de sus requisitos. Dicha norma requiere que las unidades de auditoria interna, establezcan un sistema de calidad que comprenda los procesos necesarios para proporcionar un servicio eficiente, desde la planificación hasta la presentación del informe e incluye el análisis del servicio por parte de la institución. Por la importancia que conlleva el uso de los recursos es necesario elaborar un documento que contenga los requisitos de calidad para las unidades de auditoria interna del Órgano Ejecutivo, con la finalidad de que estas realicen un trabajo eficiente; para ello se recopiló información que permitiera su elaboración; además se determinó la política y los procedimientos que se utilizan para el desarrollo del examen de la gestión pública.La metodología empleada incluye el establecimiento del tipo de estudio, universo, técnicas e instrumentos de recolección de datos que comprenden la encuesta y la entrevista y el procesamiento de la información; el resultado de la investigación de campo, el análisis e interpretación de los resultados, asimismo la división del diagnóstico en sus principales componentes, uno de ellos es la base técnica, el desconocimiento de este componente en la mayoría de unidades de auditoria interna del sector público, la falta de capacitación al personal además de las deficiencias en la ejecución y evaluación de las operaciones, debido a la inexistencia de un sistema de gestión de calidad. Existen algunas unidades de auditoria interna que no cuentan con manuales de procedimientos para asegurar un nivel aceptable en la emisión de informes, para que estos generen un valor agregado a la institución; por esta razón se presenta un manual de calidad que contribuya a que las unidades de auditoria interna aseguren la mejora continua de los servicios que prestan garantizando la satisfacción de los usuarios.
Resumo:
The use of graphical processing unit (GPU) parallel processing is becoming a part of mainstream statistical practice. The reliance of Bayesian statistics on Markov Chain Monte Carlo (MCMC) methods makes the applicability of parallel processing not immediately obvious. It is illustrated that there are substantial gains in improved computational time for MCMC and other methods of evaluation by computing the likelihood using GPU parallel processing. Examples use data from the Global Terrorism Database to model terrorist activity in Colombia from 2000 through 2010 and a likelihood based on the explicit convolution of two negative-binomial processes. Results show decreases in computational time by a factor of over 200. Factors influencing these improvements and guidelines for programming parallel implementations of the likelihood are discussed.
Jacobian-free Newton-Krylov methods with GPU acceleration for computing nonlinear ship wave patterns
Resumo:
The nonlinear problem of steady free-surface flow past a submerged source is considered as a case study for three-dimensional ship wave problems. Of particular interest is the distinctive wedge-shaped wave pattern that forms on the surface of the fluid. By reformulating the governing equations with a standard boundary-integral method, we derive a system of nonlinear algebraic equations that enforce a singular integro-differential equation at each midpoint on a two-dimensional mesh. Our contribution is to solve the system of equations with a Jacobian-free Newton-Krylov method together with a banded preconditioner that is carefully constructed with entries taken from the Jacobian of the linearised problem. Further, we are able to utilise graphics processing unit acceleration to significantly increase the grid refinement and decrease the run-time of our solutions in comparison to schemes that are presently employed in the literature. Our approach provides opportunities to explore the nonlinear features of three-dimensional ship wave patterns, such as the shape of steep waves close to their limiting configuration, in a manner that has been possible in the two-dimensional analogue for some time.
Resumo:
The efficient computation of matrix function vector products has become an important area of research in recent times, driven in particular by two important applications: the numerical solution of fractional partial differential equations and the integration of large systems of ordinary differential equations. In this work we consider a problem that combines these two applications, in the form of a numerical solution algorithm for fractional reaction diffusion equations that after spatial discretisation, is advanced in time using the exponential Euler method. We focus on the efficient implementation of the algorithm on Graphics Processing Units (GPU), as we wish to make use of the increased computational power available with this hardware. We compute the matrix function vector products using the contour integration method in [N. Hale, N. Higham, and L. Trefethen. Computing Aα, log(A), and related matrix functions by contour integrals. SIAM J. Numer. Anal., 46(5):2505–2523, 2008]. Multiple levels of preconditioning are applied to reduce the GPU memory footprint and to further accelerate convergence. We also derive an error bound for the convergence of the contour integral method that allows us to pre-determine the appropriate number of quadrature points. Results are presented that demonstrate the effectiveness of the method for large two-dimensional problems, showing a speedup of more than an order of magnitude compared to a CPU-only implementation.
Resumo:
Adaptive Mesh Refinement is a method which dynamically varies the spatio-temporal resolution of localized mesh regions in numerical simulations, based on the strength of the solution features. In-situ visualization plays an important role for analyzing the time evolving characteristics of the domain structures. Continuous visualization of the output data for various timesteps results in a better study of the underlying domain and the model used for simulating the domain. In this paper, we develop strategies for continuous online visualization of time evolving data for AMR applications executed on GPUs. We reorder the meshes for computations on the GPU based on the users input related to the subdomain that he wants to visualize. This makes the data available for visualization at a faster rate. We then perform asynchronous executions of the visualization steps and fix-up operations on the CPUs while the GPU advances the solution. By performing experiments on Tesla S1070 and Fermi C2070 clusters, we found that our strategies result in 60% improvement in response time and 16% improvement in the rate of visualization of frames over the existing strategy of performing fix-ups and visualization at the end of the timesteps.
Resumo:
Multi-GPU machines are being increasingly used in high-performance computing. Each GPU in such a machine has its own memory and does not share the address space either with the host CPU or other GPUs. Hence, applications utilizing multiple GPUs have to manually allocate and manage data on each GPU. Existing works that propose to automate data allocations for GPUs have limitations and inefficiencies in terms of allocation sizes, exploiting reuse, transfer costs, and scalability. We propose a scalable and fully automatic data allocation and buffer management scheme for affine loop nests on multi-GPU machines. We call it the Bounding-Box-based Memory Manager (BBMM). BBMM can perform at runtime, during standard set operations like union, intersection, and difference, finding subset and superset relations on hyperrectangular regions of array data (bounding boxes). It uses these operations along with some compiler assistance to identify, allocate, and manage data required by applications in terms of disjoint bounding boxes. This allows it to (1) allocate exactly or nearly as much data as is required by computations running on each GPU, (2) efficiently track buffer allocations and hence maximize data reuse across tiles and minimize data transfer overhead, and (3) and as a result, maximize utilization of the combined memory on multi-GPU machines. BBMM can work with any choice of parallelizing transformations, computation placement, and scheduling schemes, whether static or dynamic. Experiments run on a four-GPU machine with various scientific programs showed that BBMM reduces data allocations on each GPU by up to 75% compared to current allocation schemes, yields performance of at least 88% of manually written code, and allows excellent weak scaling.
Resumo:
This paper presents a GPU implementation of normalized cuts for road extraction problem using panchromatic satellite imagery. The roads have been extracted in three stages namely pre-processing, image segmentation and post-processing. Initially, the image is pre-processed to improve the tolerance by reducing the clutter (that mostly represents the buildings, vegetation,. and fallow regions). The road regions are then extracted using the normalized cuts algorithm. Normalized cuts algorithm is a graph-based partitioning `approach whose focus lies in extracting the global impression (perceptual grouping) of an image rather than local features. For the segmented image, post-processing is carried out using morphological operations - erosion and dilation. Finally, the road extracted image is overlaid on the original image. Here, a GPGPU (General Purpose Graphical Processing Unit) approach has been adopted to implement the same algorithm on the GPU for fast processing. A performance comparison of this proposed GPU implementation of normalized cuts algorithm with the earlier algorithm (CPU implementation) is presented. From the results, we conclude that the computational improvement in terms of time as the size of image increases for the proposed GPU implementation of normalized cuts. Also, a qualitative and quantitative assessment of the segmentation results has been projected.