1000 resultados para Dades -- Recuperació (Informàtica)
Resumo:
A la Universitat Politècnica de Catalunya (UPC) el procés de gestió de les memòries dels projectes de final de carrera i mà ster està en funció del model organitzatiu de cada escola o facultat. Aquest escenari implica diferents fluxos de treball i de temps per al dipòsit d'aquestes memòries en el repositori del portal d'accés obert al coneixement UPCommons (www.upcommons.edu) Amb la voluntat de no incidir en aquests processos de cada escola o facultat, s'ha desenvolupat amb la Facultat d'Informà tica de Barcelona (FIB) un sistema d'integració de les memòries i les seves dades associats de forma transparent durant el procés administratiu per mitjà d'uns connectors desenvolupats conjuntament pel servei de Biblioteques de la UPC i el laboratori de cà lcul de la FIB. Aquests connectors es basen en la tecnologia SWORD (Simple Web-services Offering Repository Deposit) que per mitjà de XML codifiquen les dades introduïdes i els pre-bolquen en el dipòsit de treballs acadèmics abans de la lectura de la memòria.
Resumo:
Experiència sobre la identificació, la compilació i la posada a disposició dels usuaris dels recursos estadÃstics de temà tica social i econòmica utilitzats pels investigadors de la UPF. Es va fer un estudi d'identificació dels recursos utilitzats, de la seva procedència i de la font de finançament. Davant dels resultats es van iniciar dues lÃnies d'actuació segons si les dades estadÃstiques eren d'accés lliure o de consulta restringida. Pel que fa als fitxers d'accés lliure, es va procedir a la instal·lació, conjuntament amb el Servei d’informà tica, dels fitxers en un servidor i possibilitar-ne l’accessibilitat a través de la xarxa UPF, es va elaborar una guia de desenvolupament de la col·lecció per aquests materials, per tal d’equilibrar el fons i respondre a les necessitats dels usuaris i es van fer diverses accions per millorar la recuperació del material a través del web i del catà leg de la Biblioteca. Pel que fa a les microdades van ser tractades apart tenint en compte les caracterÃstiques especials d’aquest material, protegit per les lleis de protecció de dades personals. Es va crear una xarxa interna amb un sistema d’accés i control d’usuaris molt estricte, amb la col·laboració del Servei d’Informà tica, es va elaborar un circuit d'adquisició (amb negociacions amb les agències productores per signar llicències institucionals) i gestió interna dels materials. En conclusió: la Biblioteca, amb un actitud proactiva, es va anticipar a les necessitats dels investigadors i va donar-los resposta, tot va millorant la gestió i l'accessibilitat d'uns recursos -fitxers estadÃstics- tradicionalment molt restringits i racionalitzant processos i circuits.
Resumo:
Arc@ té per objectiu millorar el procés d'aprenentatge de l'estudiant i facilitar l'eficiència en els processos de gestió docent i de continguts. Amb independència de la ubicació del material docent, s'han establert mecanismes en XML que permeten importar/exportar la informació des dels diferents aplicatius existents, indexar i organitzar aquesta informació per a la seva transformació i tractament posterior.
Resumo:
La Mancomunitat de Municipis de l’Àrea Metropolitana de Barcelona (MMAMB) i Logisim en col•laboració amb el Departament de Geografia de la Universitat Autònoma de Barcelona (UAB) i el Laboratori de Cà lcul de la Facultat de Informà tica de Barcelona (LCFIB), porten a terme la migració de la guia de carrers dels municipis de l’AMB al format de cartografia mundial lliure de OpenStreetMap (OSM), creant un servidor de dades geoespacials propi que contindrà els mateixos components i eines que l’estructura original de OSM, permetent l’edició, sincronització i actualització d’aquestes dades per part de diferents usuaris dels ajuntaments.
Resumo:
El projecte ha consistit en la creació de grà fics estadÃstics de soroll d’Europa de forma automà tica amb tecnologies Open Source dins el visor Noise Map Viewer per Europa de l’ETC-LUSI. La llibreria utilitzada per fer aquest procés ha estat JFreeChart i el llenguatge de programació utilitzat ha estat Java (programació orientada a objectes) dins l’entorn de desenvolupament integrat Eclipse. La base de dades utilitzada ha estat PostgreSQL. Com a servidors s’han fet servir Apache (servidor HTTP) i Tomcat (servidor contenidor d’aplicacions). Un cop acabat el procés s’ha integrat dins de MapFish canviant el codi JavaScript corresponent de la web original.
Resumo:
El present projecte ha consistit en la creació del SIA, Sistema d’Informació d’Anivellacions. Un SIG integrat que ha estat creat per emmagatzemar, gestionar i consultar les dades d’anivellació topogrà fica i GPS. El projecte ha comportat tres grans fases: en primer terme s’ha creat una BBDD en Oracle i, posteriorment, amb la finalitat de facilitar la inserció de dades, es crea una aplicació que permet la rà pida inclusió a la BBDD de les noves mesures que arribin a l’IGC. Finalment, es crea un visualitzador amb tecnologia ESRI, més concretament la nova API de Flex que ESRI ha desenvolupat.
Resumo:
Aquest projecte consisteix en l’elaboració d’una aplicació web capaç de gestionar tota la informació que genera el Pla de dinamització educativa de l’Ajuntament de Sant Cugat. Aquesta informació serà sobre centres educatius, activitats i reserves d’aquestes activitats. L’aplicació web haurà de tenir una part pública, on tothom podrà veure les activitats que hi ha actives al PDE. Una part privada per cada centre educatiu, on podran veure les reserves que han fet durant el curs acadèmic i apuntar-se a les activitats del PDE. I finalment una part de back-office, que usaran usuaris de diferents nivells de seguretat o permisos. Estaran els membres del departament d’educació, que tindran permisos de veure i gestionar tota la informació sobre els centres educatius, activitats i reserves del PDE, i tindrem també els editors especials, que podran veure i gestionar la informació de les activitats que són del tipus al que pertanyen i les reserves d’aquests.
Resumo:
Con la mayor capacidad de los nodos de procesamiento en relación a la potencia de cómputo, cada vez más aplicaciones intensivas de datos como las aplicaciones de la bioinformática, se llevarán a ejecutar en clusters no dedicados. Los clusters no dedicados se caracterizan por su capacidad de combinar la ejecución de aplicaciones de usuarios locales con aplicaciones, cientÃficas o comerciales, ejecutadas en paralelo. Saber qué efecto las aplicaciones con acceso intensivo a dados producen respecto a la mezcla de otro tipo (batch, interativa, SRT, etc) en los entornos no-dedicados permite el desarrollo de polÃticas de planificación más eficientes. Algunas de las aplicaciones intensivas de E/S se basan en el paradigma MapReduce donde los entornos que las utilizan, como Hadoop, se ocupan de la localidad de los datos, balanceo de carga de forma automática y trabajan con sistemas de archivos distribuidos. El rendimiento de Hadoop se puede mejorar sin aumentar los costos de hardware, al sintonizar varios parámetros de configuración claves para las especificaciones del cluster, para el tamaño de los datos de entrada y para el procesamiento complejo. La sincronización de estos parámetros de sincronización puede ser demasiado compleja para el usuario y/o administrador pero procura garantizar prestaciones más adecuadas. Este trabajo propone la evaluación del impacto de las aplicaciones intensivas de E/S en la planificación de trabajos en clusters no-dedicados bajo los paradigmas MPI y Mapreduce.
Resumo:
La gestión de recursos en los procesadores multi-core ha ganado importancia con la evolución de las aplicaciones y arquitecturas. Pero esta gestión es muy compleja. Por ejemplo, una misma aplicación paralela ejecutada múltiples veces con los mismos datos de entrada, en un único nodo multi-core, puede tener tiempos de ejecución muy variables. Hay múltiples factores hardware y software que afectan al rendimiento. La forma en que los recursos hardware (cómputo y memoria) se asignan a los procesos o threads, posiblemente de varias aplicaciones que compiten entre sÃ, es fundamental para determinar este rendimiento. La diferencia entre hacer la asignación de recursos sin conocer la verdadera necesidad de la aplicación, frente a asignación con una meta especÃfica es cada vez mayor. La mejor manera de realizar esta asignación és automáticamente, con una mÃnima intervención del programador. Es importante destacar, que la forma en que la aplicación se ejecuta en una arquitectura no necesariamente es la más adecuada, y esta situación puede mejorarse a través de la gestión adecuada de los recursos disponibles. Una apropiada gestión de recursos puede ofrecer ventajas tanto al desarrollador de las aplicaciones, como al entorno informático donde ésta se ejecuta, permitiendo un mayor número de aplicaciones en ejecución con la misma cantidad de recursos. Asà mismo, esta gestión de recursos no requerirÃa introducir cambios a la aplicación, o a su estrategia operativa. A fin de proponer polÃticas para la gestión de los recursos, se analizó el comportamiento de aplicaciones intensivas de cómputo e intensivas de memoria. Este análisis se llevó a cabo a través del estudio de los parámetros de ubicación entre los cores, la necesidad de usar la memoria compartida, el tamaño de la carga de entrada, la distribución de los datos dentro del procesador y la granularidad de trabajo. Nuestro objetivo es identificar cómo estos parámetros influyen en la eficiencia de la ejecución, identificar cuellos de botella y proponer posibles mejoras. Otra propuesta es adaptar las estrategias ya utilizadas por el Scheduler con el fin de obtener mejores resultados.
Resumo:
Computer chips implementation technologies evolving to obtain more performance are increasing the probability of transient faults. As this probability grows and on-chip solutions are expensive or tend to degrade processor performance, the efforts to deal with these transient faults in higher levels (such as the operating system or even at the application level) are increasing. Mostly, these efforts are trying to avoid silent data corruptions using hardware, software and hybrid based techniques to add redundancy to detect the errors generated by the transient faults. This work presents our proposal to improve the robustness of applications with source code based transformation adding redundancy. Also, our proposal takes account of the tradeoff between the improved robustness and the overhead generated by the added redundancy.
Resumo:
Current parallel applications running on clusters require the use of an interconnection network to perform communications among all computing nodes available. Imbalance of communications can produce network congestion, reducing throughput and increasing latency, degrading the overall system performance. On the other hand, parallel applications running on these networks posses representative stages which allow their characterization, as well as repetitive behavior that can be identified on the basis of this characterization. This work presents the Predictive and Distributed Routing Balancing (PR-DRB), a new method developed to gradually control network congestion, based on paths expansion, traffic distribution and effective traffic load, in order to maintain low latency values. PR-DRB monitors messages latencies on intermediate routers, makes decisions about alternative paths and record communication pattern information encountered during congestion situation. Based on the concept of applications repetitiveness, best solution recorded are reapplied when saved communication pattern re-appears. Traffic congestion experiments were conducted in order to evaluate the performance of the method, and improvements were observed.
Resumo:
La regeneració òssia és un procés estudiat per experts de tot el món. Aquests experts estudien materials capaços d’accelerar el procés de formació de teixit ossi en zones on s’han produït defectes ossis. Després d’un determinat perÃode de temps de l’aplicació dels materials d’estudi en la zona on hi havia una manca de teixit ossi, s’obtenen imatges d’aquesta zona on l’expert mitjançant l’ inspecció visual d’aquestes imatges avalua si l’os s’ha regenerat bé o no. El problema d’aquest mètode d’avaluació es que requereix d’un expert on la valoració d’aquest és subjectiva i difÃcil de quantificar, el que pot provocar que hi hagi discordança entre experts. Amb la finalitat de aprofitar les imatges en que es basa l’expert per avaluar la capacitat de regeneració òssia dels materials d’estudi es proposa realitzar un anà lisi quantitatiu de la regeneració òssia basat en el processament d’imatge. L’algorisme dissenyat es capaç de classificar imatges de la mandÃbula en: imatges de regeneració bona i dolenta mitjançant la parametrització de l’histograma de nivells de grisos de la imatge, solucionant la falta d’objectivitat del mètode d’avaluació de la regeneració òssia i la necessitat d’un expert per realitzar-la.
Resumo:
La plataforma d’e-learning: COMalaWEB és una eina multimedia de suport a l’estudi, l’experimentació i l’adquisició de tècniques d’autoaprenentatge. COMalaWEB s’ofereix com a punt de trobada entre estudiants, professors i altres professionals relacionats amb el mon de les telecomunicacions i/o de la docència università ria. Mitjançant el present projecte s’ha dut a terme la consolidació de la plataforma COMalaWEB com a eina WWW d'autoaprenentatge per a l'EEES (Estudis de Bachelor i de Mà ster): Dins de la plataforma s’hi ha integrat un Laboratori Virtual per a comunicacions analògiques i digitals (LaViCAD) que ofereix activitats experimentals amb un gran ventall de possibilitats que van des de les demostracions teòriques fins a l’emulació de sistemes de comunicacions quotidians com per exemple la televisió digital o el sistema Wifi dels sistemes WLAN. L’altre gran component de la plataforma es la base de dades de continguts empaquetada en unitats bà siques anomenades objectes de coneixement, organitzada en cursos, integren tant continguts teòrics com un conjunt d’exercicis proposats per a aprofundir cadascun dels temes tractats. Amb l’actual projecte s’ha treballat en les següents lÃnies d’actuació: - Integració dels simuladors del laboratori LAVICAD a la plataforma d’autoaprenentatge. - Creació de base de dades de recursos docents basats en paquets SCORM per a oferir materials docents de tipus teòric i col·leccions d’exercicis resolts en el marc de les diferents assignatures participants en el projecte. - Creació de base de dades de tipus qüestionari per a oferir exercicis a treballar en el marc de les diferents assignatures participants en el projecte. - Inserció de metodologies docents basades en els anteriors recursos en diferents assignatures d’estudis d’enginyeria i de mà ster.