1000 resultados para 004 - Informàtica


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este proyecto está destinado a proporcionar herramientas que ayuden en la configuración de cámaras para uso industrial pero también se pueden exportar a otros campos relacionados con el vídeo y la fotografía digital. Las herramientas desarrolladas ayudan a la configuración del balance de blancos, el grado de exposición al que está sometida la escena capturada por la cámara y a calcular el mejor enfoque posible. Además, se ha desarrollado una herramienta que permita al usuario una configuración más cómoda de los parámetros de la cámara. Estos módulos se han desarrollado sobre el software VisionOkII.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Aquest projecte consisteix en l’elaboració d’una aplicació web capaç de gestionar tota la informació que genera el Pla de dinamització educativa de l’Ajuntament de Sant Cugat. Aquesta informació serà sobre centres educatius, activitats i reserves d’aquestes activitats. L’aplicació web haurà de tenir una part pública, on tothom podrà veure les activitats que hi ha actives al PDE. Una part privada per cada centre educatiu, on podran veure les reserves que han fet durant el curs acadèmic i apuntar-se a les activitats del PDE. I finalment una part de back-office, que usaran usuaris de diferents nivells de seguretat o permisos. Estaran els membres del departament d’educació, que tindran permisos de veure i gestionar tota la informació sobre els centres educatius, activitats i reserves del PDE, i tindrem també els editors especials, que podran veure i gestionar la informació de les activitats que són del tipus al que pertanyen i les reserves d’aquests.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Con la mayor capacidad de los nodos de procesamiento en relación a la potencia de cómputo, cada vez más aplicaciones intensivas de datos como las aplicaciones de la bioinformática, se llevarán a ejecutar en clusters no dedicados. Los clusters no dedicados se caracterizan por su capacidad de combinar la ejecución de aplicaciones de usuarios locales con aplicaciones, científicas o comerciales, ejecutadas en paralelo. Saber qué efecto las aplicaciones con acceso intensivo a dados producen respecto a la mezcla de otro tipo (batch, interativa, SRT, etc) en los entornos no-dedicados permite el desarrollo de políticas de planificación más eficientes. Algunas de las aplicaciones intensivas de E/S se basan en el paradigma MapReduce donde los entornos que las utilizan, como Hadoop, se ocupan de la localidad de los datos, balanceo de carga de forma automática y trabajan con sistemas de archivos distribuidos. El rendimiento de Hadoop se puede mejorar sin aumentar los costos de hardware, al sintonizar varios parámetros de configuración claves para las especificaciones del cluster, para el tamaño de los datos de entrada y para el procesamiento complejo. La sincronización de estos parámetros de sincronización puede ser demasiado compleja para el usuario y/o administrador pero procura garantizar prestaciones más adecuadas. Este trabajo propone la evaluación del impacto de las aplicaciones intensivas de E/S en la planificación de trabajos en clusters no-dedicados bajo los paradigmas MPI y Mapreduce.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La gestión de recursos en los procesadores multi-core ha ganado importancia con la evolución de las aplicaciones y arquitecturas. Pero esta gestión es muy compleja. Por ejemplo, una misma aplicación paralela ejecutada múltiples veces con los mismos datos de entrada, en un único nodo multi-core, puede tener tiempos de ejecución muy variables. Hay múltiples factores hardware y software que afectan al rendimiento. La forma en que los recursos hardware (cómputo y memoria) se asignan a los procesos o threads, posiblemente de varias aplicaciones que compiten entre sí, es fundamental para determinar este rendimiento. La diferencia entre hacer la asignación de recursos sin conocer la verdadera necesidad de la aplicación, frente a asignación con una meta específica es cada vez mayor. La mejor manera de realizar esta asignación és automáticamente, con una mínima intervención del programador. Es importante destacar, que la forma en que la aplicación se ejecuta en una arquitectura no necesariamente es la más adecuada, y esta situación puede mejorarse a través de la gestión adecuada de los recursos disponibles. Una apropiada gestión de recursos puede ofrecer ventajas tanto al desarrollador de las aplicaciones, como al entorno informático donde ésta se ejecuta, permitiendo un mayor número de aplicaciones en ejecución con la misma cantidad de recursos. Así mismo, esta gestión de recursos no requeriría introducir cambios a la aplicación, o a su estrategia operativa. A fin de proponer políticas para la gestión de los recursos, se analizó el comportamiento de aplicaciones intensivas de cómputo e intensivas de memoria. Este análisis se llevó a cabo a través del estudio de los parámetros de ubicación entre los cores, la necesidad de usar la memoria compartida, el tamaño de la carga de entrada, la distribución de los datos dentro del procesador y la granularidad de trabajo. Nuestro objetivo es identificar cómo estos parámetros influyen en la eficiencia de la ejecución, identificar cuellos de botella y proponer posibles mejoras. Otra propuesta es adaptar las estrategias ya utilizadas por el Scheduler con el fin de obtener mejores resultados.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En la actualidad, la computación de altas prestaciones está siendo utilizada en multitud de campos científicos donde los distintos problemas estudiados se resuelven mediante aplicaciones paralelas/distribuidas. Estas aplicaciones requieren gran capacidad de cómputo, bien sea por la complejidad de los problemas o por la necesidad de solventar situaciones en tiempo real. Por lo tanto se debe aprovechar los recursos y altas capacidades computacionales de los sistemas paralelos en los que se ejecutan estas aplicaciones con el fin de obtener un buen rendimiento. Sin embargo, lograr este rendimiento en una aplicación ejecutándose en un sistema es una dura tarea que requiere un alto grado de experiencia, especialmente cuando se trata de aplicaciones que presentan un comportamiento dinámico o cuando se usan sistemas heterogéneos. En estos casos actualmente se plantea realizar una mejora de rendimiento automática y dinámica de las aplicaciones como mejor enfoque para el análisis del rendimiento. El presente trabajo de investigación se sitúa dentro de este ámbito de estudio y su objetivo principal es sintonizar dinámicamente mediante MATE (Monitoring, Analysis and Tuning Environment) una aplicación MPI empleada en computación de altas prestaciones que siga un paradigma Master/Worker. Las técnicas de sintonización integradas en MATE han sido desarrolladas a partir del estudio de un modelo de rendimiento que refleja los cuellos de botella propios de aplicaciones situadas bajo un paradigma Master/Worker: balanceo de carga y número de workers. La ejecución de la aplicación elegida bajo el control dinámico de MATE y de la estrategia de sintonización implementada ha permitido observar la adaptación del comportamiento de dicha aplicación a las condiciones actuales del sistema donde se ejecuta, obteniendo así una mejora de su rendimiento.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Computer chips implementation technologies evolving to obtain more performance are increasing the probability of transient faults. As this probability grows and on-chip solutions are expensive or tend to degrade processor performance, the efforts to deal with these transient faults in higher levels (such as the operating system or even at the application level) are increasing. Mostly, these efforts are trying to avoid silent data corruptions using hardware, software and hybrid based techniques to add redundancy to detect the errors generated by the transient faults. This work presents our proposal to improve the robustness of applications with source code based transformation adding redundancy. Also, our proposal takes account of the tradeoff between the improved robustness and the overhead generated by the added redundancy.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Los servicios de salud son sistemas muy complejos, pero de alta importancia, especialmente en algunos momentos críticos, en todo el mundo. Los departamentos de urgencias pueden ser una de las áreas más dinámicas y cambiables de todos los servicios de salud y a la vez más vulnerables a dichos cambios. La mejora de esos departamentos se puede considerar uno de los grandes retos que tiene cualquier administrador de un hospital, y la simulación provee una manera de examinar este sistema tan complejo sin poner en peligro los pacientes que son atendidos. El objetivo de este trabajo ha sido el modelado de un departamento de urgencias y el desarrollo de un simulador que implementa este modelo con la finalidad de explorar el comportamiento y las características de dicho servicio de urgencias. El uso del simulador ofrece la posibilidad de visualizar el comportamiento del modelo con diferentes parámetros y servirá como núcleo de un sistema de ayuda a la toma de decisiones que pueda ser usado en departamentos de urgencias. El modelo se ha desarrollado con técnicas de modelado basado en agentes (ABM) que permiten crear modelos funcionalmente más próximos a la realidad que los modelos de colas o de dinámicas de sistemas, al permitir la inclusión de la singularidad que implica el modelado a nivel de las personas. Los agentes del modelo presentado, descritos internamente como máquinas de estados, representan a todo el personal del departamento de urgencias y los pacientes que usan este servicio. Un análisis del modelo a través de su implementación en el simulador muestra que el sistema se comporta de manera semejante a un departamento de urgencias real.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Nowadays, many of the health care systems are large and complex environments and quite dynamic, specifically Emergency Departments, EDs. It is opened and working 24 hours per day throughout the year with limited resources, whereas it is overcrowded. Thus, is mandatory to simulate EDs to improve qualitatively and quantitatively their performance. This improvement can be achieved modelling and simulating EDs using Agent-Based Model, ABM and optimising many different staff scenarios. This work optimises the staff configuration of an ED. In order to do optimisation, objective functions to minimise or maximise have to be set. One of those objective functions is to find the best or optimum staff configuration that minimise patient waiting time. The staff configuration comprises: doctors, triage nurses, and admissions, the amount and sort of them. Staff configuration is a combinatorial problem, that can take a lot of time to be solved. HPC is used to run the experiments, and encouraging results were obtained. However, even with the basic ED used in this work the search space is very large, thus, when the problem size increases, it is going to need more resources of processing in order to obtain results in an acceptable time.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Current parallel applications running on clusters require the use of an interconnection network to perform communications among all computing nodes available. Imbalance of communications can produce network congestion, reducing throughput and increasing latency, degrading the overall system performance. On the other hand, parallel applications running on these networks posses representative stages which allow their characterization, as well as repetitive behavior that can be identified on the basis of this characterization. This work presents the Predictive and Distributed Routing Balancing (PR-DRB), a new method developed to gradually control network congestion, based on paths expansion, traffic distribution and effective traffic load, in order to maintain low latency values. PR-DRB monitors messages latencies on intermediate routers, makes decisions about alternative paths and record communication pattern information encountered during congestion situation. Based on the concept of applications repetitiveness, best solution recorded are reapplied when saved communication pattern re-appears. Traffic congestion experiments were conducted in order to evaluate the performance of the method, and improvements were observed.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La computación de altas prestaciones es una área de la informática que evoluciona rápidamente, en la que actualmente aparecen nuevos computadores que llegan a los petaflops. Al principio del trabajo, se estudian los distintos tipos de redes de interconexión y los modelos de red que se utilizan para medir su latencia. El objetivo de este trabajo, es el diseño, implementación y simulación de un modelo de red de interconexión basado en enlace, que tiene en cuenta la información de topología y enrutamiento de la red de interconexión. Teniendo en cuenta que los modelos son una abstracción del sistema, en éste trabajo se hace la verificación y validación del modelo, para asegurar que éste se aproxima a lo planteado en el diseño y también que se parece al sistema que se quiere modelar.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Aquest projecte estudia la implantació d’un sistema de posicionament a l’interior d’un edifici que compti amb una xarxa WiMAX. Per començar, s’analitzaran les característiques principals d’aquesta tecnología, la configuració de la xarxa amb la que treballarem i s’explicaran els mètodes de posicionament existents avui en dia. Més endavant s’estudiaran els aspectes més importants de la nostra aplicació: l’escenari, l’estimació de la distancia i l’estimació de la posició. Finalment, després d’analitzar els resultats de diverses mesures, es dissenyaran tres mètodes pel càlcul de la posició i s’aplicarà el nostre procediment en més de 15 escenaris de posicionament diferents, amb l’objectiu de comparar els resultats i definir quin dels mètodes aconsegueix un posicionament més precís.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Nowadays, service providers in the Cloud offer complex services ready to be used as it was a commodity like water or electricity to their customers with any other extra effort for them. However, providing these services implies a high management effort which requires a lot of human interaction. Furthermore, an efficient resource management mechanism considering only provider's resources is, though necessary, not enough, because the provider's profit is limited by the amount of resources it owns. Dynamically outsourcing resources to other providers in response to demand variation avoids this problem and makes the provider to get more profit. A key technology for achieving these goals is virtualization which facilitates provider's management and provides on-demand virtual environments, which are isolated and consolidated in order to achieve a better utilization of the provider's resources. Nevertheless, dealing with some virtualization capabilities implies an effort for the user in order to take benefit from them. In order to avoid this problem, we are contributing the research community with a virtualized environment manager which aims to provide virtual machines that fulfils with the user requirements. Another challenge is sharing resources among different federated Cloud providers while exploiting the features of virtualization in a new approach for facilitating providers' management. This project aims for reducing provider's costs and at the same time fulfilling the quality of service agreed with the customers while maximizing the provider's revenue. It considers resource management at several layers, namely locally to each node in the provider, among different nodes in the provider, and among different federated providers. This latter layer supports the novel capabilities of outsourcing when the local resources are not enough to fulfil the users demand, and offering resources to other providers when the local resources are underused.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La regeneració òssia és un procés estudiat per experts de tot el món. Aquests experts estudien materials capaços d’accelerar el procés de formació de teixit ossi en zones on s’han produït defectes ossis. Després d’un determinat període de temps de l’aplicació dels materials d’estudi en la zona on hi havia una manca de teixit ossi, s’obtenen imatges d’aquesta zona on l’expert mitjançant l’ inspecció visual d’aquestes imatges avalua si l’os s’ha regenerat bé o no. El problema d’aquest mètode d’avaluació es que requereix d’un expert on la valoració d’aquest és subjectiva i difícil de quantificar, el que pot provocar que hi hagi discordança entre experts. Amb la finalitat de aprofitar les imatges en que es basa l’expert per avaluar la capacitat de regeneració òssia dels materials d’estudi es proposa realitzar un anàlisi quantitatiu de la regeneració òssia basat en el processament d’imatge. L’algorisme dissenyat es capaç de classificar imatges de la mandíbula en: imatges de regeneració bona i dolenta mitjançant la parametrització de l’histograma de nivells de grisos de la imatge, solucionant la falta d’objectivitat del mètode d’avaluació de la regeneració òssia i la necessitat d’un expert per realitzar-la.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La E/S Paralela es un área de investigación que tiene una creciente importancia en el cómputo de Altas Prestaciones. Si bien durante años ha sido el cuello de botella de los computadores paralelos en la actualidad, debido al gran aumento del poder de cómputo, el problema de la E/S se ha incrementado y la comunidad del Cómputo de Altas Prestaciones considera que se debe trabajar en mejorar el sistema de E/S de los computadores paralelos, para lograr cubrir las exigencias de las aplicaciones científicas que usan HPC. La Configuración de la Entrada/Salida (E/S) Paralela tiene una gran influencia en las prestaciones y disponibilidad, por ello es importante “Analizar configuraciones de E/S paralela para identificar los factores claves que influyen en las prestaciones y disponibilidad de la E/S de Aplicaciones Científicas que se ejecutan en un clúster”. Para realizar el análisis de las configuraciones de E/S se propone una metodología que permite identificar los factores de E/S y evaluar su influencia para diferentes configuraciones de E/S formada por tres fases: Caracterización, Configuración y Evaluación. La metodología permite analizar el computador paralelo a nivel de Aplicación Científica, librerías de E/S y de arquitectura de E/S, pero desde el punto de vista de la E/S. Los experimentos realizados para diferentes configuraciones de E/S y los resultados obtenidos indican la complejidad del análisis de los factores de E/S y los diferentes grados de influencia en las prestaciones del sistema de E/S. Finalmente se explican los trabajos futuros, el diseño de un modelo que de soporte al proceso de Configuración del sistema de E/S paralela para aplicaciones científicas. Por otro lado, para identificar y evaluar los factores de E/S asociados con la disponibilidad a nivel de datos, se pretende utilizar la Arquitectura Tolerante a Fallos RADIC.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La plataforma d’e-learning: COMalaWEB és una eina multimedia de suport a l’estudi, l’experimentació i l’adquisició de tècniques d’autoaprenentatge. COMalaWEB s’ofereix com a punt de trobada entre estudiants, professors i altres professionals relacionats amb el mon de les telecomunicacions i/o de la docència universitària. Mitjançant el present projecte s’ha dut a terme la consolidació de la plataforma COMalaWEB com a eina WWW d'autoaprenentatge per a l'EEES (Estudis de Bachelor i de Màster): Dins de la plataforma s’hi ha integrat un Laboratori Virtual per a comunicacions analògiques i digitals (LaViCAD) que ofereix activitats experimentals amb un gran ventall de possibilitats que van des de les demostracions teòriques fins a l’emulació de sistemes de comunicacions quotidians com per exemple la televisió digital o el sistema Wifi dels sistemes WLAN. L’altre gran component de la plataforma es la base de dades de continguts empaquetada en unitats bàsiques anomenades objectes de coneixement, organitzada en cursos, integren tant continguts teòrics com un conjunt d’exercicis proposats per a aprofundir cadascun dels temes tractats. Amb l’actual projecte s’ha treballat en les següents línies d’actuació: - Integració dels simuladors del laboratori LAVICAD a la plataforma d’autoaprenentatge. - Creació de base de dades de recursos docents basats en paquets SCORM per a oferir materials docents de tipus teòric i col·leccions d’exercicis resolts en el marc de les diferents assignatures participants en el projecte. - Creació de base de dades de tipus qüestionari per a oferir exercicis a treballar en el marc de les diferents assignatures participants en el projecte. - Inserció de metodologies docents basades en els anteriors recursos en diferents assignatures d’estudis d’enginyeria i de màster.