43 resultados para hardware abstraction layer
em Consorci de Serveis Universitaris de Catalunya (CSUC), Spain
Resumo:
Concurrent aims to be a different type of task distribution system compared to what MPI like system do. It adds a simple but powerful application abstraction layer to distribute the logic of an entire application onto a swarm of clusters holding similarities with volunteer computing systems. Traditional task distributed systems will just perform simple tasks onto the distributed system and wait for results. Concurrent goes one step further by letting the tasks and the application decide what to do. The programming paradigm is then totally async without any waits for results and based on notifications once a computation has been performed.
Resumo:
Aquest projecte consisteix en l'estudi, comparació i implementació en hardware d'algoritmes de reconeixement de caràcters per integrar en un sistema intel·ligent de captura d'imatges. Aquest sistema, integrat per una càmera amb format i característiques específiques i que anirà acoblat a un comptador d'aigua tradicional, en captarà imatges i les enviarà per RF al punt de recepció de la companyia. L'objectiu principal consisteix en aconseguir un disseny que redueixi al màxim la quantitat d'informació per transmetre, tenint en compte les limitacions de l'entorn.
Resumo:
Una característica importante de la robótica es la comunicación entre sistema base y robot que puede establecerse de forma remota. Ello representa la base del proyecto que se describe a continuación, el cual se descompone de dos partes, una por cada miembro del proyecto: Sistema software y sistema hardware. En el sistema software analizaremos las diferentes tecnologías inalámbricas (características, funcionamiento, seguridad, etc.), se realizará una comparativa de los diferentes módulos de comunicación y finalmente decidiremos aquellos que nos interesa para la implementación en Radiofrecuencia (RF) y Bluetooth. En este sistema también estudiaremos la interfaz gráfica que se utilizará, así como los programas creados en este entorno para realizar las implementaciones. En el sistema hardware trataremos de realizar el control de dos periféricos de forma independiente, un servomotor y un sonar, que nos servirán como ejemplo para analizar una posible comunicación entre varios robots y un PC. Por lo tanto, en este apartado analizaremos a fondo los diferentes componentes que harán posible tanto la comunicación, vía RF y Bluetooth, como el control de los diferentes dispositivos.
Resumo:
La gestión de recursos en los procesadores multi-core ha ganado importancia con la evolución de las aplicaciones y arquitecturas. Pero esta gestión es muy compleja. Por ejemplo, una misma aplicación paralela ejecutada múltiples veces con los mismos datos de entrada, en un único nodo multi-core, puede tener tiempos de ejecución muy variables. Hay múltiples factores hardware y software que afectan al rendimiento. La forma en que los recursos hardware (cómputo y memoria) se asignan a los procesos o threads, posiblemente de varias aplicaciones que compiten entre sí, es fundamental para determinar este rendimiento. La diferencia entre hacer la asignación de recursos sin conocer la verdadera necesidad de la aplicación, frente a asignación con una meta específica es cada vez mayor. La mejor manera de realizar esta asignación és automáticamente, con una mínima intervención del programador. Es importante destacar, que la forma en que la aplicación se ejecuta en una arquitectura no necesariamente es la más adecuada, y esta situación puede mejorarse a través de la gestión adecuada de los recursos disponibles. Una apropiada gestión de recursos puede ofrecer ventajas tanto al desarrollador de las aplicaciones, como al entorno informático donde ésta se ejecuta, permitiendo un mayor número de aplicaciones en ejecución con la misma cantidad de recursos. Así mismo, esta gestión de recursos no requeriría introducir cambios a la aplicación, o a su estrategia operativa. A fin de proponer políticas para la gestión de los recursos, se analizó el comportamiento de aplicaciones intensivas de cómputo e intensivas de memoria. Este análisis se llevó a cabo a través del estudio de los parámetros de ubicación entre los cores, la necesidad de usar la memoria compartida, el tamaño de la carga de entrada, la distribución de los datos dentro del procesador y la granularidad de trabajo. Nuestro objetivo es identificar cómo estos parámetros influyen en la eficiencia de la ejecución, identificar cuellos de botella y proponer posibles mejoras. Otra propuesta es adaptar las estrategias ya utilizadas por el Scheduler con el fin de obtener mejores resultados.
Resumo:
For the execution of the scientific applications, different methods have been proposed to dynamically provide execution environments for such applications that hide the complexity of underlying distributed and heterogeneous infrastructures. Recently virtualization has emerged as a promising technology to provide such environments. Virtualization is a technology that abstracts away the details of physical hardware and provides virtualized resources for high-level scientific applications. Virtualization offers a cost-effective and flexible way to use and manage computing resources. Such an abstraction is appealing in Grid computing and Cloud computing for better matching jobs (applications) to computational resources. This work applies the virtualization concept to the Condor dynamic resource management system by using Condor Virtual Universe to harvest the existing virtual computing resources to their maximum utility. It allows existing computing resources to be dynamically provisioned at run-time by users based on application requirements instead of statically at design-time thereby lay the basis for efficient use of the available resources, thus providing way for the efficient use of the available resources.
Resumo:
The work in this paper deals with the development of momentum and thermal boundary layers when a power law fluid flows over a flat plate. At the plate we impose either constant temperature, constant flux or a Newton cooling condition. The problem is analysed using similarity solutions, integral momentum and energy equations and an approximation technique which is a form of the Heat Balance Integral Method. The fluid properties are assumed to be independent of temperature, hence the momentum equation uncouples from the thermal problem. We first derive the similarity equations for the velocity and present exact solutions for the case where the power law index n = 2. The similarity solutions are used to validate the new approximation method. This new technique is then applied to the thermal boundary layer, where a similarity solution can only be obtained for the case n = 1.
Resumo:
En aquest projecte s'ha estudiat la posada a punt d’un equip comercial ALD per a l’obtenció de capes primes d'alúmina a escala nanomètrica utilitzant vapor d’aigua i TMA com a precursors. Per tal de comprovar a bondat de les receptes experimentals aportades pel fabricant així com comprovar alguns aspectes de la teoria ALD s’han realitzat una sèrie de mostres variant els diferents paràmetres experimentals, principalment la temperatura de deposició, el nombre de cicles, la durada del cicle i el tipus de substrat. Per a la determinació dels gruixos nanomètrics de les capes i per tant dels ritmes de creixement s’ha utilitzat la el·lipsometria, una de les poques tècniques no destructives capaç de mesurar amb gran precisió gruixos de capes o interfases de pocs àngstroms o nanòmetres. En una primera etapa s'han utilitzat els valors experimentals donats pel fabricant del sistema ALD per determinar el ritme de creixement en funció de la temperatura de dipòsit i del numero de cicles, en ambdós casos sobre diversos substrats. S'ha demostrat que el ritme de creixement augmenta lleugerament en augmentar la temperatura de dipòsit, tot i que amb una variació petita, de l'ordre del 12% en variar 70ºC la temperatura de deposició. Així mateix s'ha demostrat la linealitat del gruix amb el número de cicles, tot i que no s’observa una proporcionalitat exacta. En una segona etapa s'han optimitzat els paràmetres experimentals, bàsicament els temps de purga entre pols i pols per tal de reduir considerablement les durades dels experiments realitzats a relativament baixes temperatures. En aquest cas s’ha comprovat que es mantenien els ritmes de creixement amb una diferencia del 3,6%, 4,8% i 5,5% en optimitzar el cicles en 6,65h, 8,31h, o 8,33h, respectivament. A més, per una d'aquestes condicions s’ha demostrat que es mantenia l’alta conformitat de les capes d’alúmina. A més, s'ha realitzat un estudi de l'homogeneïtat del gruix de les capes en tota la zona de dipòsit del reactor ALD. S’ha demostrat que la variació en gruix de les capes dipositades a 120ºC és com a màxim del 6,2% en una superfície de 110 cm2. Confirmant l’excepcional control de gruixos de la tècnica ALD.
Resumo:
Veurem el desenvolupament del projecte pas a pas, des de l¿estudi dels marcs de treballs més importants que es poden incorporar en projectes J2EE, passant per un anàlisi i disseny acurat, fins arribar a la implementació dels mòduls bàsics que inclouria el sistema de gestió dels centres intentant aprofitar totes les avantatges que ens ofereixen els marcs de treball més adients i tecnologies de darrera generació con AJAX per a fer un sistema flexible i robust capaç d¿assolir totes les necessitats de gestió de la informació dels centres. També veurem com apliquen diversos patrons en aquesta arquitectura client-servidor de tres capes aconseguint, entre altres aspectes, que cada component s¿assigni a una capa a un cert nivell d¿abstracció.
Resumo:
Estudi de l'eficiència de màquines virtuals en diferents configuracions de hardware i software en entorns de proves i de producció.
Resumo:
In this paper, different recovery methods applied at different network layers and time scales are used in order to enhance the network reliability. Each layer deploys its own fault management methods. However, current recovery methods are applied to only a specific layer. New protection schemes, based on the proposed partial disjoint path algorithm, are defined in order to avoid protection duplications in a multi-layer scenario. The new protection schemes also encompass shared segment backup computation and shared risk link group identification. A complete set of experiments proves the efficiency of the proposed methods in relation with previous ones, in terms of resources used to protect the network, the failure recovery time and the request rejection ratio
Resumo:
This paper focuses on QoS routing with protection in an MPLS network over an optical layer. In this multi-layer scenario each layer deploys its own fault management methods. A partially protected optical layer is proposed and the rest of the network is protected at the MPLS layer. New protection schemes that avoid protection duplications are proposed. Moreover, this paper also introduces a new traffic classification based on the level of reliability. The failure impact is evaluated in terms of recovery time depending on the traffic class. The proposed schemes also include a novel variation of minimum interference routing and shared segment backup computation. A complete set of experiments proves that the proposed schemes are more efficient as compared to the previous ones, in terms of resources used to protect the network, failure impact and the request rejection ratio
Resumo:
Este proyecto tiene como objetivo desarrollar un aplicativo en formato web capaz de dar soporte al modelado de equipos hardware para su posterior publicación en librerías. El proyecto se incluye en un entorno de trabajo constituido por una serie de herramientas de las que nuestro proyecto es una pequeña pero importante parte. Nuestro objetivo comprenderá la creación y posterior gestión de modelos de equipos hardware para ser utilizados por los proyectistas de instalaciones de control industrial, que generen sus trabajos mediante el uso del entorno de desarrollo GISCMO (Gestor integrado de sistemas de control y modelado de objetos).
Resumo:
Technological limitations and power constraints are resulting in high-performance parallel computing architectures that are based on large numbers of high-core-count processors. Commercially available processors are now at 8 and 16 cores and experimental platforms, such as the many-core Intel Single-chip Cloud Computer (SCC) platform, provide much higher core counts. These trends are presenting new sets of challenges to HPC applications including programming complexity and the need for extreme energy efficiency.In this work, we first investigate the power behavior of scientific PGAS application kernels on the SCC platform, and explore opportunities and challenges for power management within the PGAS framework. Results obtained via empirical evaluation of Unified Parallel C (UPC) applications on the SCC platform under different constraints, show that, for specific operations, the potential for energy savings in PGAS is large; and power/performance trade-offs can be effectively managed using a cross-layerapproach. We investigate cross-layer power management using PGAS language extensions and runtime mechanisms that manipulate power/performance tradeoffs. Specifically, we present the design, implementation and evaluation of such a middleware for application-aware cross-layer power management of UPC applications on the SCC platform. Finally, based on our observations, we provide a set of recommendations and insights that can be used to support similar power management for PGAS applications on other many-core platforms.
Resumo:
El grupo de robòtica i Visió fabricó la tarjeta gráfica MAGCL para el tratamiento de imágenes en tiempo real, en la que se incluyó un conector IDC20 proveniente de parte del bus de datos, de la FPGA que contiene, destinado a futuras aplicaciones. Con este proyecto se quiere aprovechar este conector para la comunicación de la placa con un PC, y se desarrollarán los puertos de comunicación serie RS232 y USB, Universal Serial Bus.El objetivo de este proyecto es establecer la comunicación de la tarjeta gráfica con un PC a través de estos dos tipos de puerto. Una vez conseguida la comunicación, quedan una serie de librerías hardware que pueden ayudar en la realización de futuros proyectos. La placa posee una FPGA (field programable gate array) destinada al desarrollo, pero programando esas librerías sobre otros componentes, se pueden utilizar estos puertos de forma permanente o exclusiva
Resumo:
This article originates from a panel with the above title, held at IEEE VTC Spring 2009, in which the authors took part. The enthusiastic response it received prompted us to discuss for a wider audience whether research at the physical layer (PHY) is still relevant to the field of wireless communications. Using cellular systems as the axis of our exposition, we exemplify areas where PHY research has indeed hit a performance wall and where any improvements are expected to be marginal. We then discuss whether the research directions taken in the past have always been the right choice and how lessons learned could influence future policy decisions. Several of the raised issues are subsequently discussed in greater details, e.g., the growing divergence between academia and industry. With this argumentation at hand, we identify areas that are either under-developed or likely to be of impact in coming years - hence corroborating the relevance and importance of PHY research.