961 resultados para indirizzo :: 742 :: Curriculum B: Tecnologie informatiche
Resumo:
L'Open Data, letteralmente “dati aperti”, è la corrente di pensiero (e il relativo “movimento”) che cerca di rispondere all'esigenza di poter disporre di dati legalmente “aperti”, ovvero liberamente re-usabili da parte del fruitore, per qualsiasi scopo. L’obiettivo dell’Open Data può essere raggiunto per legge, come negli USA dove l’informazione generata dal settore pubblico federale è in pubblico dominio, oppure per scelta dei detentori dei diritti, tramite opportune licenze. Per motivare la necessità di avere dei dati in formato aperto, possiamo usare una comparazione del tipo: l'Open Data sta al Linked Data, come la rete Internet sta al Web. L'Open Data, quindi, è l’infrastruttura (o la “piattaforma”) di cui il Linked Data ha bisogno per poter creare la rete di inferenze tra i vari dati sparsi nel Web. Il Linked Data, in altre parole, è una tecnologia ormai abbastanza matura e con grandi potenzialità, ma ha bisogno di grandi masse di dati tra loro collegati, ossia “linkati”, per diventare concretamente utile. Questo, in parte, è già stato ottenuto ed è in corso di miglioramento, grazie a progetti come DBpedia o FreeBase. In parallelo ai contributi delle community online, un altro tassello importante – una sorta di “bulk upload” molto prezioso – potrebbe essere dato dalla disponibilità di grosse masse di dati pubblici, idealmente anche già linkati dalle istituzioni stesse o comunque messi a disposizione in modo strutturato – che aiutino a raggiungere una “massa” di Linked Data. A partire dal substrato, rappresentato dalla disponibilità di fatto dei dati e dalla loro piena riutilizzabilità (in modo legale), il Linked Data può offrire una potente rappresentazione degli stessi, in termini di relazioni (collegamenti): in questo senso, Linked Data ed Open Data convergono e raggiungono la loro piena realizzazione nell’approccio Linked Open Data. L’obiettivo di questa tesi è quello di approfondire ed esporre le basi sul funzionamento dei Linked Open Data e gli ambiti in cui vengono utilizzati.
Resumo:
Realizzazione di un'app mobile interpiattaforma tramite phonegap che permette la geolocalizzazione di utenti di un gruppo. Connessione Client-Server attraverso Websocket. Librerie di Socket.IO e mappe di Google Maps.
Resumo:
L’obiettivo di questa tesi è quello di progettare e sviluppare un'applicazione Android inerente alle palestre. In particolare l'utente finale dovrà essere in grado di poter scaricare i propri allenamenti da un server SQL remoto e visualizzarli con un layout grafico che ne ricordi la struttura di un allenamento cartaceo (con l’utilizzo quindi di schede, esercizi, serie, ripetizioni,...). Attraverso una procedura guidata, l’applicazione dovrà seguire l’utente durante il suo allenamento e registrarne i progressi. Questi ultimi dovranno essere memorizzati permanentemente e visualizzati attraverso dei grafici.
Resumo:
L’obiettivo di questa tesi è quello di progettare un sistema gestionale che risponda alle esigenze organizzative delle palestre. In particolar modo verrà implementato un software per piattaforma Windows dedicato ai personal trainer. Questa applicazione dovrà essere in grado di registrare e gestire i clienti del centro sportivo, e permettere la creazione degli allenamenti a loro dedicati (con l’utilizzo quindi di schede, esercizi, serie, ripetizioni, ...). Tutti i dati andranno memorizzati su un server SQL centralizzato, accessibile anche da Internet. Successivamente questi allenamenti potranno esser scaricati e visualizzati dai clienti tramite i propri Smartphone Android.
Resumo:
L'assistenza sanitaria in Italia e nel mondo è caratterizzata da bisogni elevati in continua crescita, ad essi si contrappone l'attuale crisi delle risorse economiche determinando per il Sistema una valutazione di scelte quali la riduzione o la rimodulazione dell'offerta sanitaria pubblica. L'idea di questo lavoro, nata all'interno dell'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (IRST) IRCCS, è di approcciare questo problema in ottica di miglioramento delle performance anziché riduzione dei servizi, nella convinzione che vi siano importanti margini di perfezionamento. Per questi motivi si è valutata la necessità di sviluppare un metodo e un'applicazione software per l'identificazione dei percorsi diagnostici terapeutici assistenziali (PDTA), per la raccolta di dati dalle strutture coinvolte, per l'analisi dei costi e dei risultati, mirando ad una analisi di tipo costi - efficacia e di benchmarking in ottica di presa in carico dei bisogni di salute. La tesi descrive la fase di raccolta e analisi dei requisiti comprensiva della profilazione utenti e descrizione di alcuni aspetti dinamici salienti, la fase di progettazione concettuale (schema Entity/Relationship, glossario e volumi dei dati), la fase di progettazione logica e la prototipazione dell'interfaccia utente. Riporta inoltre una valutazione dei tempi di sviluppo realizzata tramite metodologia di calcolo dei punti per caso d'uso. L'applicazione progettata è oggetto di valutazione di fattibilità presso l'IRST, che ha utilizzato alcune delle metodologie descritte nella tesi per descrivere il percorso di patologia mammaria e presentarne i primi risultati all'interno di un progetto di ricerca in collaborazione con l'Agenzia Nazionale per i Servizi Sanitari Regionali (Agenas).
Resumo:
Esplicazione documentata del processo di progettazione e sviluppo di una libreria in grado di comunicare in maniera standard con 8 diversi database, sia a livello di query SQL che a livello di ORM transazionale, con opportuni richiami di ingegneria del software
Resumo:
Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.
Resumo:
EPUB rappresenta attualmente uno dei formati più usati per distribuire pubblicazioni digitali (ebook): è uno standard aperto e libero, i cui scenari d'uso variano dall'utilizzo interno, da parte di editori e aziende di conversione, alle distribuzione e vendita. EPUB è basato sui principali standard web, come HTML5 e CSS ed è progettato per strutturare e renderizzare contenuto reflowable, ottimizzando così la presentazione per il sistema di lettura usato. L'uso di specifiche conosciute e ancora in fase di definizione assicura un alto livello di attenzione e una comunità vivace, ma introduce anche un certo livello di incertezza sui futuri sviluppi. Uno degli aspetti centrali di EPUB è l'apertura totale verso pratiche che rendano il contenuto accessibile a persone con disabilità. Questa apertura è dovuta in parte all'uso degli standard web sopracitati, ma anche dalla consapevolezza che il contenuto accessibile rappresenta un valore aggiunto di notevole entità sia per i fruitori (anche non disabili) sia per gli editori e gli autori (in termini di mercato), creando un circolo virtuoso. Un altro aspetto interessante di EPUB è il suo possibile uso nell'ambito e-learning. È stata creata una specifica (più precisamente un profilo) deputata esclusivamente a questo scopo: EDUPUB. Tale specifica è tuttora in una fase iniziale, poichè ancora in draft, ma può comunque risultare di sicuro interesse per tutti i soggetti già coinvolti nello sviluppo e nell'uso di EPUB e di tecnologie relative all'apprendimento elettronico.
Resumo:
L’app in questione si pone l’obbiettivo di rispondere alla domanda: “Dove ti trovi?”. Grazie all'alta frequenza di utilizzo dei dispositivi mobili che si ha oggigiorno, è stato possibile pensare, progettare e creare un software in grado di tracciare periodicamente gli utenti in modo da far visualizzare ai loro amici in rete la propria posizione. Il servizio sfrutta le conoscenze acquisite in Mobile Web Design e basi di dati.
Resumo:
La tesi tratta in modo approfondito le tipologie di apprendimento non tradizionale, ovvero in contesto non scolastico/universitario, focalizzandosi sull'importanza che hanno i dispositivi mobili come mezzo di aggiornamento e miglioramento costante delle conoscenze e abilità delle persone. Queste nuove metodologie sono chiamate microlearning e mobile learning, evoluzioni naturali dell'e-learning nate dall'esigenza di un apprendimento che non fosse più solo a distanza, ma applicabile al contesto mobile per rispecchiare le nuove esigenze delle persone.
Resumo:
In questo lavoro di tesi sono state evidenziate alcune problematiche relative alle macchine exascale (sistemi che sviluppano un exaflops di Potenza di calcolo) e all'evoluzione dei software che saranno eseguiti su questi sistemi, prendendo in esame principalmente la necessità del loro sviluppo, in quanto indispensabili per lo studio di problemi scientifici e tecnologici di più grandi dimensioni, con particolare attenzione alla Material Science, che è uno dei campi che ha avuto maggiori sviluppi grazie all'utilizzo di supercomputer, ed ad uno dei codici HPC più utilizzati in questo contesto: Quantum ESPRESSO. Dal punto di vista del software sono state presentate le prime misure di efficienza energetica su architettura ibrida grazie al prototipo di cluster EURORA sul software Quantum ESPRESSO. Queste misure sono le prime ad essere state pubblicate nel contesto software per la Material Science e serviranno come baseline per future ottimizzazioni basate sull'efficienza energetica. Nelle macchine exascale infatti uno dei requisiti per l'accesso sarà la capacità di essere energeticamente efficiente, così come oggi è un requisito la scalabilità del codice. Un altro aspetto molto importante, riguardante le macchine exascale, è la riduzione del numero di comunicazioni che riduce il costo energetico dell'algoritmo parallelo, poiché in questi nuovi sistemi costerà di più, da un punto di vista energetico, spostare i dati che calcolarli. Per tale motivo in questo lavoro sono state esposte una strategia, e la relativa implementazione, per aumentare la località dei dati in uno degli algoritmi più dispendiosi, dal punto di vista computazionale, in Quantum ESPRESSO: Fast Fourier Transform (FFT). Per portare i software attuali su una macchina exascale bisogna iniziare a testare la robustezza di tali software e i loro workflow su test case che stressino al massimo le macchine attualmente a disposizione. In questa tesi per testare il flusso di lavoro di Quantum ESPRESSO e WanT, un software per calcolo di trasporto, è stato caratterizzato un sistema scientificamente rilevante costituito da un cristallo di PDI - FCN2 che viene utilizzato per la costruzione di transistor organici OFET. Infine è stato simulato un dispositivo ideale costituito da due elettrodi in oro con al centro una singola molecola organica.
Resumo:
La quantum biology (QB) è un campo di ricerca emergente che cerca di affronta- re fenomeni quantistici non triviali all’interno dei contesti biologici dotandosi di dati sperimentali di esplorazioni teoriche e tecniche numeriche. I sistemi biologici sono per definizione sistemi aperti, caldi,umidi e rumorosi, e queste condizioni sono per loro imprenscindibili; si pensa sia un sistema soggetto ad una veloce decoerenza che sopprime ogni dinamica quantistica controllata. La QB, tramite i principi di noise assisted transport e di antenna fononica sostiene che la presenza di un adeguato livello di rumore ambientale aumenti l’efficienza di un network di trasporto,inoltre se all’interno dello spettro ambientale vi sono specifici modi vibrazionali persistenti si hanno effetti di risonanza che rigenerano la coerenza quantistica. L’interazione ambiente-sistema è di tipo non Markoviano,non perturbativo e di forte non equi- librio, ed il rumore non è trattato come tradizionale rumore bianco. La tecnica numerica che per prima ha predetto la rigenerazione della coerenza all’interno di questi network proteici è stato il TEBD, Time Evolving Block Decimation, uno schema numerico che permette di simulare sistemi 1-D a molti corpi, caratterizzati da interazioni di primi vicini e leggermente entangled. Tramite gli algoritmi numerici di Orthopol l’hamiltoniana spin-bosone viene proiettata su una catena discreta 1-D, tenendo conto degli effetti di interazione ambiente-sistema contenuti nello spettro(il quale determina la dinamica del sistema).Infine si esegue l’evoluzione dello stato.
Resumo:
Obiettivo di questa tesi dal titolo “Analisi di tecniche per l’estrazione di informazioni da documenti testuali e non strutturati” è quello di mostrare tecniche e metodologie informatiche che permettano di ricavare informazioni e conoscenza da dati in formato testuale. Gli argomenti trattati includono l'analisi di software per l'estrazione di informazioni, il web semantico, l'importanza dei dati e in particolare i Big Data, Open Data e Linked Data. Si parlerà inoltre di data mining e text mining.
Resumo:
Analisi del sistema NewSQL e sperimentazione del software VoltDB su un benchmark definito.
Resumo:
I problemi di sicurezza nel software sono in crescita e gli strumenti di analisi adottati nei sistemi GNU/Linux non permettono di evidenziare le finestre di vulnerabilità a cui un pacchetto è stato soggetto. L'obiettivo di questa tesi è quello di sviluppare uno strumento di computer forensics in grado di ricostruire, incrociando informazioni ottenute dal package manager con security advisory ufficiali, i problemi di sicurezza che potrebbero aver causato una compromissione del sistema in esame.