14 resultados para High-dimensional data visualization
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
Network Theory is a prolific and lively field, especially when it approaches Biology. New concepts from this theory find application in areas where extensive datasets are already available for analysis, without the need to invest money to collect them. The only tools that are necessary to accomplish an analysis are easily accessible: a computing machine and a good algorithm. As these two tools progress, thanks to technology advancement and human efforts, wider and wider datasets can be analysed. The aim of this paper is twofold. Firstly, to provide an overview of one of these concepts, which originates at the meeting point between Network Theory and Statistical Mechanics: the entropy of a network ensemble. This quantity has been described from different angles in the literature. Our approach tries to be a synthesis of the different points of view. The second part of the work is devoted to presenting a parallel algorithm that can evaluate this quantity over an extensive dataset. Eventually, the algorithm will also be used to analyse high-throughput data coming from biology.
Resumo:
La tesi descrive il sistema denominato GARTP che visualizza l'analisi dell'anticipo e del ritardo nel trasporto pubblico, su una mappa cartografica.
Resumo:
In questa tesi vengono studiate alcune caratteristiche dei network a multiplex; in particolare l'analisi verte sulla quantificazione delle differenze fra i layer del multiplex. Le dissimilarita sono valutate sia osservando le connessioni di singoli nodi in layer diversi, sia stimando le diverse partizioni dei layer. Sono quindi introdotte alcune importanti misure per la caratterizzazione dei multiplex, che vengono poi usate per la costruzione di metodi di community detection . La quantificazione delle differenze tra le partizioni di due layer viene stimata utilizzando una misura di mutua informazione. Viene inoltre approfondito l'uso del test dell'ipergeometrica per la determinazione di nodi sovra-rappresentati in un layer, mostrando l'efficacia del test in funzione della similarita dei layer. Questi metodi per la caratterizzazione delle proprieta dei network a multiplex vengono applicati a dati biologici reali. I dati utilizzati sono stati raccolti dallo studio DILGOM con l'obiettivo di determinare le implicazioni genetiche, trascrittomiche e metaboliche dell'obesita e della sindrome metabolica. Questi dati sono utilizzati dal progetto Mimomics per la determinazione di relazioni fra diverse omiche. Nella tesi sono analizzati i dati metabolici utilizzando un approccio a multiplex network per verificare la presenza di differenze fra le relazioni di composti sanguigni di persone obese e normopeso.
Resumo:
Una gestione, un’analisi e un’interpretazione efficienti dei big data possono cambiare il modello lavorativo, modificare i risultati, aumentare le produzioni, e possono aprire nuove strade per l’assistenza sanitaria moderna. L'obiettivo di questo studio è incentrato sulla costruzione di una dashboard interattiva di un nuovo modello e nuove prestazioni nell’ambito della Sanità territoriale. Lo scopo è quello di fornire al cliente una piattaforma di Data Visualization che mostra risultati utili relativi ai dati sanitari in modo da fornire agli utilizzatori sia informazioni descrittive che statistiche sulla attuale gestione delle cure e delle terapie somministrate. Si propone uno strumento che consente la navigazione dei dati analizzando l’andamento di un set di indicatori di fine vita calcolati a partire da pazienti oncologici della Regione Emilia Romagna in un arco temporale che va dal 2010 ad oggi.
Resumo:
Nonostante la consapevolezza sulle condizioni non ottimali della qualità dell'aria sia sempre più diffusa, a molte persone risulta ancora insidioso comprendere il significato dei dati sull'argomento tramite la sola rappresentazione grafica. L'obbiettivo di questo progetto è quello di presentare, tramite un'applicazione web interattiva, le informazioni sull'inquinamento atmosferico in maniera più semplice e coinvolgente. La strategia scelta è la Sonificazione: un processo che trasforma un dato di qualsiasi natura in un suono che ne rispecchia le caratteristiche. Su questa base, vengono approfondite le problematiche dell'inquinamento, le metodologie di rappresentazione e le debolezze di queste ultime. Dopo essere entrato in dettaglio sul funzionamento della Sonificazione e sulle sue applicazioni, il volume segue lo sviluppo del sistema in tutte le sue fasi: l'analisi dei requisiti, la scelta delle tecnologie, l'implementazione e i test. L'elaborato presta particolare attenzione a spiegare in dettaglio la realizzazione della traccia audio di Sonificazione, l'elemento più importante di tutto l'applicativo.
Resumo:
La tecnologia gioca un ruolo importante nella vita della maggior parte delle persone, ma come possiamo assicurarci che migliori effettivamente la vita piuttosto che distrarci da essa? Con gli smartphone di oggi, i social media e i flussi infiniti di contenuti, molte persone sono pronte a condannare la tecnologia sulla base della loro convinzione che questi prodotti siano dannosi per la salute mentale e il benessere. Ma concentrarsi solo su questi effetti potenzialmente dannosi non ci aiuta a raccogliere tutti i vantaggi che questi strumenti hanno da offrire, gestendo anche i loro rischi. Da qui nasce il digital wellbeing: un termine utilizzato per descrivere l’impatto delle tecnologie e dei servizi digitali sulla salute mentale, fisica, sociale ed emotiva delle persone. Lo scopo di questa tesi è quello di aumentare la consapevolezza sul reale utilizzo dei dispositivi e sulle proprie abitudini salutari attraverso la sonificazione, un processo di traduzione dei dati in suono, a volte in un contesto musicale utilizzato come metodo per superare le barriere della comunicazione scientifica. Questo metodo è particolarmente vantaggioso per la sua capacità di rappresentare i dati scientifici per le persone con disabilità visive, che spesso non sono in grado di interagire con le tradizionali visualizzazioni dei dati. Per raggiungere l'obiettivo della tesi viene preso in esame una solo tipologia di dispositivi, gli iPhone, per la quale verrà creata un'applicazione che riesca ad ottenere i dati sulla salute, sulla forma fisica e di utilizzo dello smartphone.
Resumo:
Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.
Resumo:
La tesi presenta uno studio della libreria grafica per web D3, sviluppata in javascript, e ne presenta una catalogazione dei grafici implementati e reperibili sul web. Lo scopo è quello di valutare la libreria e studiarne i pregi e difetti per capire se sia opportuno utilizzarla nell'ambito di un progetto Europeo. Per fare questo vengono studiati i metodi di classificazione dei grafici presenti in letteratura e viene esposto e descritto lo stato dell'arte del data visualization. Viene poi descritto il metodo di classificazione proposto dal team di progettazione e catalogata la galleria di grafici presente sul sito della libreria D3. Infine viene presentato e studiato in maniera formale un algoritmo per selezionare un grafico in base alle esigenze dell'utente.
Resumo:
Lo scopo dell'elaborato di tesi è la progettazione e lo sviluppo di alcuni moduli di un software per la lettura ad elevato throughput di dati da particolari dispositivi per elettrofisiologia sviluppati dall'azienda Elements s.r.l. Elements produce amplificatori ad alta precisione per elettrofisiologia, in grado di misurare correnti a bassa intensità prodotte dai canali ionici. Dato il grande sviluppo che l'azienda sta avendo, e vista la previsione di introdurre sul mercato nuovi dispositivi con precisione e funzionalità sempre migliori, Elements ha espresso l'esigenza di un sistema software che fosse in grado di supportare al meglio i dispositivi già prodotti, e, soprattutto, prevedere il supporto dei nuovi, con prestazioni molto migliori del software già sviluppato da loro per la lettura dei dati. Il software richiesto deve fornire una interfaccia grafica che, comunicando con il dispositivo tramite USB per leggere dati da questo, provvede a mostrarli a schermo e permette di registrarli ed effettuare basilari operazioni di analisi. In questa tesi verranno esposte analisi, progettazione e sviluppo dei moduli di software che si interfacciano direttamente con il dispositivo, quindi dei moduli di rilevamento, connessione, acquisizione ed elaborazione dati.
Resumo:
In this work we study a polyenergetic and multimaterial model for the breast image reconstruction in Digital Tomosynthesis, taking into consideration the variety of the materials forming the object and the polyenergetic nature of the X-rays beam. The modelling of the problem leads to the resolution of a high-dimensional nonlinear least-squares problem that, due to its nature of inverse ill-posed problem, needs some kind of regularization. We test two main classes of methods: the Levenberg-Marquardt method (together with the Conjugate Gradient method for the computation of the descent direction) and two limited-memory BFGS-like methods (L-BFGS). We perform some experiments for different values of the regularization parameter (constant or varying at each iteration), tolerances and stop conditions. Finally, we analyse the performance of the several methods comparing relative errors, iterations number, times and the qualities of the reconstructed images.
Resumo:
Progettazione e implementazione dei moduli di visualizzazione, memorizzazione e analisi di un sistema software di acquisizione dati in real-time da dispositivi prodotti da Elements s.r.l. La tesi mostra tutte le fasi di analisi, progettazione, implementazione e testing dei moduli sviluppati.
Resumo:
The aim of this Thesis work is to study the multi-frequency properties of the Ultra Luminous Infrared Galaxy (ULIRG) IRAS 00183-7111 (I00183) at z = 0.327, connecting ALMA sub-mm/mm observations with those at high energies in order to place constraints on the properties of its central power source and verify whether the gas traced by the CO may be responsible for the obscuration observed in X-rays. I00183 was selected from the so-called Spoon diagnostic diagram (Spoon et al. 2007) for mid-infrared spectra of infrared galaxies based on the equivalent width of the 6.2 μm Polycyclic Aromatic Hydrocarbon (PAH) emission feature versus the 9.7 μm silicate strength. Such features are a powerful tool to investigate the contribution of star formation and AGN activity in this class of objects. I00183 was selected from the top-left region of the plot where the most obscured sources, characterized by a strong Si absorption feature, are located. To link the sub-mm/mm to the X-ray properties of I00183, ALMA archival Cycle 0 data in Band 3 (87 GHz) and Band 6 (270 GHz) have been calibrated and analyzed, using CASA software. ALMA Cycle 0 was the Early Science program for which data reprocessing is strongly suggested. The main work of this Thesis consisted in reprocessing raw data to provide an improvement with respect to the available archival products and results, which were obtained using standard procedures. The high-energy data consists of Chandra, XMM-Newton and NuSTAR observations which provide a broad coverage of the spectrum in the energy range 0.5 − 30 keV. Chandra and XMM archival data were used, with an exposure time of 22 and 22.2 ks, respectively; their reduction was carried out using CIAO and SAS software. The 100 ks NuSTAR are still private and the spectra were obtained by courtesy of the PI (K. Iwasawa). A detailed spectral analysis was done using XSPEC software; the spectral shape was reproduced starting from simple phenomenological models, and then more physical models were introduced to account for the complex mechanisms that involve this source. In Chapter 1, an overview of the scientific background is discussed, with a focus on the target, I00183, and the Spoon diagnostic diagram, from which it was originally selected. In Chapter 2, the basic principles of interferometry are briefly introduced, with a description of the calibration theory applied to interferometric observations. In Chapter 3, ALMA and its capabilities, both current and future, are shown, explaining also the complex structure of the ALMA archive. In Chapter 4, the calibration of ALMA data is presented and discussed, showing also the obtained imaging products. In Chapter 5, the analysis and discussion of the main results obtained from ALMA data is presented. In Chapter 6, the X-ray observations, data reduction and spectral analysis are reported, with a brief introduction to the basic principle of X-ray astronomy and the instruments from which the observations were carried out. Finally, the overall work is summarized, with particular emphasis on the main obtained results and the possible future perspectives.
Resumo:
Pacchetto R per il supporto dell'analisi di dati spazio temporali. Il pacchetto fornisce due funzioni, le quali permettono di avviare due applicazioni web, sviluppate con il framework shiny, per la visualizzazione di dati con connotazione spaziale di tipo areale o puntuale. Le applicazioni generano, a partire dai dati caricati dall'utente, due grafici interattivi per la visualizzazione della distribuzione temporale e spaziale del fenomeno che i dati descrivono. Sono previsti, all'interno dell'interfaccia utente delle applicazioni, una serie di componenti che permettono di personalizzare i grafici prodotti.
Resumo:
L'inquinamento è un pensiero costante nel ventunesimo secolo. Ogni anno, i ricercatori cercano di trovare nuove metodologie e tecnologie per controllarlo e ridurlo. Per questo motivo l’Università di Bologna ha avviato svariati progetti per contrastare le problematiche ambientali. Una delle iniziative è AlmaBike. Sono biciclette che vengono assegnate nella forma di comodato gratuito al personale universitario e agli studenti. Nell'ultimo periodo, 50 AlmaBike sono state dotate di un pacchetto sensori in grado di rilevare posizione GPS, la qualità dell’aria, il rumore e alcuni parametri ambientali. Gli obiettivi perseguiti sono: sperimentare un sistema che permetta la misurazione di dati in merito alla qualità ambientale del comune di Bologna e misurare la rilevanza della consapevolezza della qualità dell’aria nella scelta di percorsi da parte di un utente, ad esempio casa-lavoro. L’obiettivo di questa tesi è quello di creare un applicativo che permetta la fruizione dei dati raccolti dai vari sensori attraverso l’uso di tecniche di Data Visualization. I dati vengono elaborati e organizzati con lo scopo di permetterne la comprensione anche ad utenti inesperti. La tesi è suddivisa in tre capitoli: nel primo capitolo sono stati approfonditi i concetti inerenti alla sostenibilità riprendendo quanto detto a proposito degli obiettivi dell'Agenda 2030, facendo anche una breve introduzione sul concetto di IoT e sensori; nel secondo capitolo vengono presentate le tecnologie utilizzate per la realizzazione dell’applicativo tra cui: Docker, MySQL, Angular, Typescript, Golang; nel terzo capitolo viene mostrata nel dettaglio l'applicazione creata: dalle scelte progettuali, fino ad arrivare al risultato finale.