900 resultados para Dades -- Recuperació (Informàtica)
Resumo:
Aplicació web que pretén donar solució a les necessitats de carà cter organitzatiu d'un despatx tècnic d'una empresa. L'objectiu principal és el de crear una eina capaç d'automatitzar el seguiment de les incidències obertes en el despatx. L'ús d'aquesta eina va dirigida a tres perfils d'usuari: Amb aquesta aplicació, l'administrador podrà efectuar tasques de manteniment de dades, donar d'alta usuaris, punts de venda o empreses externes i també podrà fer el seguiment d'incidències obertes i saber quantes se'n gestiona en cada moment. Els gestors donaran solució a les incidències utilitzant l'eina i sabran en tot moment quantes sol·licituds tenen pendents, quantes incidències hi ha registrades i en quin estat es troben. Els usuaris amb permÃs de sol·licitud bà sicament el que podran fer és avisar de la incidència que volen solucionar.
Resumo:
Es desenvolupa l'aplicació GestFrio per donar una solució informà tica actualitzada i personalitzada a una empresa de comerç d'embotits. Es pretén controlar tots els moviments generats per la compravenda del producte mantenint en tot moment la traçabilitat de les partides de mercaderia. D'aquesta manera es podrà treballar amb sistemes de qualitat.
Resumo:
A la Universitat Politècnica de Catalunya (UPC) el procés de gestió de les memòries dels projectes de final de carrera i mà ster està en funció del model organitzatiu de cada escola o facultat. Aquest escenari implica diferents fluxos de treball i de temps per al dipòsit d'aquestes memòries en el repositori del portal d'accés obert al coneixement UPCommons (www.upcommons.edu) Amb la voluntat de no incidir en aquests processos de cada escola o facultat, s'ha desenvolupat amb la Facultat d'Informà tica de Barcelona (FIB) un sistema d'integració de les memòries i les seves dades associats de forma transparent durant el procés administratiu per mitjà d'uns connectors desenvolupats conjuntament pel servei de Biblioteques de la UPC i el laboratori de cà lcul de la FIB. Aquests connectors es basen en la tecnologia SWORD (Simple Web-services Offering Repository Deposit) que per mitjà de XML codifiquen les dades introduïdes i els pre-bolquen en el dipòsit de treballs acadèmics abans de la lectura de la memòria.
Resumo:
Experiència sobre la identificació, la compilació i la posada a disposició dels usuaris dels recursos estadÃstics de temà tica social i econòmica utilitzats pels investigadors de la UPF. Es va fer un estudi d'identificació dels recursos utilitzats, de la seva procedència i de la font de finançament. Davant dels resultats es van iniciar dues lÃnies d'actuació segons si les dades estadÃstiques eren d'accés lliure o de consulta restringida. Pel que fa als fitxers d'accés lliure, es va procedir a la instal·lació, conjuntament amb el Servei d’informà tica, dels fitxers en un servidor i possibilitar-ne l’accessibilitat a través de la xarxa UPF, es va elaborar una guia de desenvolupament de la col·lecció per aquests materials, per tal d’equilibrar el fons i respondre a les necessitats dels usuaris i es van fer diverses accions per millorar la recuperació del material a través del web i del catà leg de la Biblioteca. Pel que fa a les microdades van ser tractades apart tenint en compte les caracterÃstiques especials d’aquest material, protegit per les lleis de protecció de dades personals. Es va crear una xarxa interna amb un sistema d’accés i control d’usuaris molt estricte, amb la col·laboració del Servei d’Informà tica, es va elaborar un circuit d'adquisició (amb negociacions amb les agències productores per signar llicències institucionals) i gestió interna dels materials. En conclusió: la Biblioteca, amb un actitud proactiva, es va anticipar a les necessitats dels investigadors i va donar-los resposta, tot va millorant la gestió i l'accessibilitat d'uns recursos -fitxers estadÃstics- tradicionalment molt restringits i racionalitzant processos i circuits.
Resumo:
Arc@ té per objectiu millorar el procés d'aprenentatge de l'estudiant i facilitar l'eficiència en els processos de gestió docent i de continguts. Amb independència de la ubicació del material docent, s'han establert mecanismes en XML que permeten importar/exportar la informació des dels diferents aplicatius existents, indexar i organitzar aquesta informació per a la seva transformació i tractament posterior.
Resumo:
La Mancomunitat de Municipis de l’Àrea Metropolitana de Barcelona (MMAMB) i Logisim en col•laboració amb el Departament de Geografia de la Universitat Autònoma de Barcelona (UAB) i el Laboratori de Cà lcul de la Facultat de Informà tica de Barcelona (LCFIB), porten a terme la migració de la guia de carrers dels municipis de l’AMB al format de cartografia mundial lliure de OpenStreetMap (OSM), creant un servidor de dades geoespacials propi que contindrà els mateixos components i eines que l’estructura original de OSM, permetent l’edició, sincronització i actualització d’aquestes dades per part de diferents usuaris dels ajuntaments.
Resumo:
El projecte ha consistit en la creació de grà fics estadÃstics de soroll d’Europa de forma automà tica amb tecnologies Open Source dins el visor Noise Map Viewer per Europa de l’ETC-LUSI. La llibreria utilitzada per fer aquest procés ha estat JFreeChart i el llenguatge de programació utilitzat ha estat Java (programació orientada a objectes) dins l’entorn de desenvolupament integrat Eclipse. La base de dades utilitzada ha estat PostgreSQL. Com a servidors s’han fet servir Apache (servidor HTTP) i Tomcat (servidor contenidor d’aplicacions). Un cop acabat el procés s’ha integrat dins de MapFish canviant el codi JavaScript corresponent de la web original.
Resumo:
El present projecte ha consistit en la creació del SIA, Sistema d’Informació d’Anivellacions. Un SIG integrat que ha estat creat per emmagatzemar, gestionar i consultar les dades d’anivellació topogrà fica i GPS. El projecte ha comportat tres grans fases: en primer terme s’ha creat una BBDD en Oracle i, posteriorment, amb la finalitat de facilitar la inserció de dades, es crea una aplicació que permet la rà pida inclusió a la BBDD de les noves mesures que arribin a l’IGC. Finalment, es crea un visualitzador amb tecnologia ESRI, més concretament la nova API de Flex que ESRI ha desenvolupat.
Resumo:
Aquest projecte consisteix en l’elaboració d’una aplicació web capaç de gestionar tota la informació que genera el Pla de dinamització educativa de l’Ajuntament de Sant Cugat. Aquesta informació serà sobre centres educatius, activitats i reserves d’aquestes activitats. L’aplicació web haurà de tenir una part pública, on tothom podrà veure les activitats que hi ha actives al PDE. Una part privada per cada centre educatiu, on podran veure les reserves que han fet durant el curs acadèmic i apuntar-se a les activitats del PDE. I finalment una part de back-office, que usaran usuaris de diferents nivells de seguretat o permisos. Estaran els membres del departament d’educació, que tindran permisos de veure i gestionar tota la informació sobre els centres educatius, activitats i reserves del PDE, i tindrem també els editors especials, que podran veure i gestionar la informació de les activitats que són del tipus al que pertanyen i les reserves d’aquests.
Resumo:
Con la mayor capacidad de los nodos de procesamiento en relación a la potencia de cómputo, cada vez más aplicaciones intensivas de datos como las aplicaciones de la bioinformática, se llevarán a ejecutar en clusters no dedicados. Los clusters no dedicados se caracterizan por su capacidad de combinar la ejecución de aplicaciones de usuarios locales con aplicaciones, cientÃficas o comerciales, ejecutadas en paralelo. Saber qué efecto las aplicaciones con acceso intensivo a dados producen respecto a la mezcla de otro tipo (batch, interativa, SRT, etc) en los entornos no-dedicados permite el desarrollo de polÃticas de planificación más eficientes. Algunas de las aplicaciones intensivas de E/S se basan en el paradigma MapReduce donde los entornos que las utilizan, como Hadoop, se ocupan de la localidad de los datos, balanceo de carga de forma automática y trabajan con sistemas de archivos distribuidos. El rendimiento de Hadoop se puede mejorar sin aumentar los costos de hardware, al sintonizar varios parámetros de configuración claves para las especificaciones del cluster, para el tamaño de los datos de entrada y para el procesamiento complejo. La sincronización de estos parámetros de sincronización puede ser demasiado compleja para el usuario y/o administrador pero procura garantizar prestaciones más adecuadas. Este trabajo propone la evaluación del impacto de las aplicaciones intensivas de E/S en la planificación de trabajos en clusters no-dedicados bajo los paradigmas MPI y Mapreduce.
Resumo:
La gestión de recursos en los procesadores multi-core ha ganado importancia con la evolución de las aplicaciones y arquitecturas. Pero esta gestión es muy compleja. Por ejemplo, una misma aplicación paralela ejecutada múltiples veces con los mismos datos de entrada, en un único nodo multi-core, puede tener tiempos de ejecución muy variables. Hay múltiples factores hardware y software que afectan al rendimiento. La forma en que los recursos hardware (cómputo y memoria) se asignan a los procesos o threads, posiblemente de varias aplicaciones que compiten entre sÃ, es fundamental para determinar este rendimiento. La diferencia entre hacer la asignación de recursos sin conocer la verdadera necesidad de la aplicación, frente a asignación con una meta especÃfica es cada vez mayor. La mejor manera de realizar esta asignación és automáticamente, con una mÃnima intervención del programador. Es importante destacar, que la forma en que la aplicación se ejecuta en una arquitectura no necesariamente es la más adecuada, y esta situación puede mejorarse a través de la gestión adecuada de los recursos disponibles. Una apropiada gestión de recursos puede ofrecer ventajas tanto al desarrollador de las aplicaciones, como al entorno informático donde ésta se ejecuta, permitiendo un mayor número de aplicaciones en ejecución con la misma cantidad de recursos. Asà mismo, esta gestión de recursos no requerirÃa introducir cambios a la aplicación, o a su estrategia operativa. A fin de proponer polÃticas para la gestión de los recursos, se analizó el comportamiento de aplicaciones intensivas de cómputo e intensivas de memoria. Este análisis se llevó a cabo a través del estudio de los parámetros de ubicación entre los cores, la necesidad de usar la memoria compartida, el tamaño de la carga de entrada, la distribución de los datos dentro del procesador y la granularidad de trabajo. Nuestro objetivo es identificar cómo estos parámetros influyen en la eficiencia de la ejecución, identificar cuellos de botella y proponer posibles mejoras. Otra propuesta es adaptar las estrategias ya utilizadas por el Scheduler con el fin de obtener mejores resultados.
Resumo:
Computer chips implementation technologies evolving to obtain more performance are increasing the probability of transient faults. As this probability grows and on-chip solutions are expensive or tend to degrade processor performance, the efforts to deal with these transient faults in higher levels (such as the operating system or even at the application level) are increasing. Mostly, these efforts are trying to avoid silent data corruptions using hardware, software and hybrid based techniques to add redundancy to detect the errors generated by the transient faults. This work presents our proposal to improve the robustness of applications with source code based transformation adding redundancy. Also, our proposal takes account of the tradeoff between the improved robustness and the overhead generated by the added redundancy.
Resumo:
Current parallel applications running on clusters require the use of an interconnection network to perform communications among all computing nodes available. Imbalance of communications can produce network congestion, reducing throughput and increasing latency, degrading the overall system performance. On the other hand, parallel applications running on these networks posses representative stages which allow their characterization, as well as repetitive behavior that can be identified on the basis of this characterization. This work presents the Predictive and Distributed Routing Balancing (PR-DRB), a new method developed to gradually control network congestion, based on paths expansion, traffic distribution and effective traffic load, in order to maintain low latency values. PR-DRB monitors messages latencies on intermediate routers, makes decisions about alternative paths and record communication pattern information encountered during congestion situation. Based on the concept of applications repetitiveness, best solution recorded are reapplied when saved communication pattern re-appears. Traffic congestion experiments were conducted in order to evaluate the performance of the method, and improvements were observed.