1000 resultados para Grafi,Basi di dati a grafo,interrogazioni,GraphVista,Graphite,SPARQL


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questo elaborato è di analizzare e progettare un sistema in grado di supportare la definizione dei dati nel formato utilizzato per definire in modo formale la semantica dei dati, ma soprattutto nella complessa e innovativa attività di link discovery. Una attività molto potente che, tramite gli strumenti e le regole del Web Semantico (chiamato anche Web of Data), permette data una base di conoscenza sorgente ed altre basi di conoscenza esterne e distribuite nel Web, di interconnettere i dati della base di conoscenza sorgente a quelli esterni sulla base di complessi algoritmi di interlinking. Questi algoritmi fanno si che i concetti espressi sulla base di dati sorgente ed esterne vengano interconnessi esprimendo la semantica del collegamento ed in base a dei complessi criteri di confronto definiti nel suddetto algoritmo. Tramite questa attività si è in grado quindi di aumentare notevolmente la conoscenza della base di conoscenza sorgente, se poi tutte le basi di conoscenza presenti nel Web of Data seguissero questo procedimento, la conoscenza definita aumenterebbe fino a livelli che sono limitati solo dalla immensa vastità del Web, dando una potenza di elaborazione dei dati senza eguali. Per mezzo di questo sistema si ha l’ambizioso obiettivo di fornire uno strumento che permetta di aumentare sensibilmente la presenza dei Linked Open Data principalmente sul territorio nazionale ma anche su quello internazionale, a supporto di enti pubblici e privati che tramite questo sistema hanno la possibilità di aprire nuovi scenari di business e di utilizzo dei dati, dando una potenza al dato che attualmente è solo immaginabile.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’esperimento CMS a LHC ha raccolto ingenti moli di dati durante Run-1, e sta sfruttando il periodo di shutdown (LS1) per evolvere il proprio sistema di calcolo. Tra i possibili miglioramenti al sistema, emergono ampi margini di ottimizzazione nell’uso dello storage ai centri di calcolo di livello Tier-2, che rappresentano - in Worldwide LHC Computing Grid (WLCG)- il fulcro delle risorse dedicate all’analisi distribuita su Grid. In questa tesi viene affrontato uno studio della popolarità dei dati di CMS nell’analisi distribuita su Grid ai Tier-2. Obiettivo del lavoro è dotare il sistema di calcolo di CMS di un sistema per valutare sistematicamente l’ammontare di spazio disco scritto ma non acceduto ai centri Tier-2, contribuendo alla costruzione di un sistema evoluto di data management dinamico che sappia adattarsi elasticamente alle diversi condizioni operative - rimuovendo repliche dei dati non necessarie o aggiungendo repliche dei dati più “popolari” - e dunque, in ultima analisi, che possa aumentare l’“analysis throughput” complessivo. Il Capitolo 1 fornisce una panoramica dell’esperimento CMS a LHC. Il Capitolo 2 descrive il CMS Computing Model nelle sue generalità, focalizzando la sua attenzione principalmente sul data management e sulle infrastrutture ad esso connesse. Il Capitolo 3 descrive il CMS Popularity Service, fornendo una visione d’insieme sui servizi di data popularity già presenti in CMS prima dell’inizio di questo lavoro. Il Capitolo 4 descrive l’architettura del toolkit sviluppato per questa tesi, ponendo le basi per il Capitolo successivo. Il Capitolo 5 presenta e discute gli studi di data popularity condotti sui dati raccolti attraverso l’infrastruttura precedentemente sviluppata. L’appendice A raccoglie due esempi di codice creato per gestire il toolkit attra- verso cui si raccolgono ed elaborano i dati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo dell'elaborato di tesi è la progettazione e lo sviluppo di alcuni moduli di un software per la lettura ad elevato throughput di dati da particolari dispositivi per elettrofisiologia sviluppati dall'azienda Elements s.r.l. Elements produce amplificatori ad alta precisione per elettrofisiologia, in grado di misurare correnti a bassa intensità prodotte dai canali ionici. Dato il grande sviluppo che l'azienda sta avendo, e vista la previsione di introdurre sul mercato nuovi dispositivi con precisione e funzionalità sempre migliori, Elements ha espresso l'esigenza di un sistema software che fosse in grado di supportare al meglio i dispositivi già prodotti, e, soprattutto, prevedere il supporto dei nuovi, con prestazioni molto migliori del software già sviluppato da loro per la lettura dei dati. Il software richiesto deve fornire una interfaccia grafica che, comunicando con il dispositivo tramite USB per leggere dati da questo, provvede a mostrarli a schermo e permette di registrarli ed effettuare basilari operazioni di analisi. In questa tesi verranno esposte analisi, progettazione e sviluppo dei moduli di software che si interfacciano direttamente con il dispositivo, quindi dei moduli di rilevamento, connessione, acquisizione ed elaborazione dati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le condizioni iperacide presenti nelle acque di alcuni laghi craterici, combinate con altre proprietà chimico-fisiche quali densità e temperatura, possono favorire processi di degassamento anche di specie ad elevata solubilità e geochimicamente conservative in acque “normali”. In questa tesi si sono studiati i meccanismi e l’influenza di tali proprietà nel processo di degassamento attraverso la ricostruzione in laboratorio delle condizioni iperacide che caratterizzano i laghi iperacidi in natura. Particolare attenzione è posta al comportamento dello ione Cl-, diffusamente presente nelle acque crateriche e considerato fin ora tipicamente “conservativo”. In condizioni di estrema acidità questo ione modifica la sua tendenza conservativa, attivando le sue caratteristiche di base coniugata. In tali condizioni infatti esso si lega agli ioni H+ presenti formando acido cloridrico molecolare (HCl), parte del quale inevitabilmente degassa. Lo studio di soluzioni preparate in laboratorio e poste a condizioni di temperatura, densità ed acidità iniziale differenti, sono stati raccolti una serie di dati relativi al pH e alle variazioni della concentrazione dello ione Cl- imputabile a fenomeni di degassamento. I dati così ottenuti, sono stati poi confrontati con le caratteristiche chimico-fisiche di una serie di laghi craterici iperacidi esistenti in varie parti del mondo. Questo confronto ha consentito di definire più in dettaglio le cause ed i meccanismi che portano al degassamento di acidi forti (HCl) da acque iperacide e il grado di influenza delle varie proprietà sopra citate in questo fenomeno naturale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi si pone come obbiettivo l’elaborazione di dati GNSS in modalità cinematica post-processing per il monitoraggio strutturale e, in una seconda fase, lo studio delle precisioni raggiungibili delle soluzioni ottenute utilizzando algoritmi di post-elaborazione del dato. L’oggetto di studio è la torre Garisenda, situata in piazza Ravegnana, accanto alla torre Asinelli, nel centro storico di Bologna, da tempo oggetto di studi e monitoraggi per via della sua inclinazione particolarmente critica. Per lo studio è stato utilizzato un data set di quindici giorni, dal 15/12/2013 al 29/12/2013 compresi. Per l’elaborazione dei dati è stato utilizzato un software open source realizzato da ricercatori del Politecnico di Milano, goGPS. Quest'ultimo, essendo un codice nuovo, è stato necessario testarlo al fine di poter ottenere dei risultati validi. Nella prima fase della tesi si è quindi affrontato l’aspetto della calibrazione dei parametri che forniscono le soluzioni più precise per le finalità di monitoraggio considerando le possibili scelte offerte dal codice goGPS. In particolare sono stati imposti dei movimenti calibrati e si è osservata la soluzione al variare dei parametri selezionati scegliendo poi quella migliore, ossia il miglior compromesso tra la capacità di individuare i movimenti e il rumore della serie. Nella seconda fase, allo scopo di poter migliorare le precisioni delle soluzioni si sono valutati metodi di correzione delle soluzioni basati sull'uso di filtri sequenziali e sono state condotte analisi sull'incremento di precisione derivante dall'applicazione di tali correzioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le macchine automatiche per il confezionamento sono sistemi complessi composti da molte parti soggette a usura. Con ritmi di produzione di migliaia di pezzi l’ora, l’eventualità di un guasto e del conseguente fermo macchina, può avere ripercussioni economiche considerevoli per un’azienda. Sempre più risorse, per tale motivo, vengono dedicate allo sviluppo di tecniche per incrementare l’affidabilità dei macchinari, e che riducano al contempo, il numero e la durata degli interventi manutentivi. In tal senso, le tecniche di manutenzione predittiva permettono di prevedere, con un certo grado di accuratezza, il tempo di vita residuo dei componenti delle macchine; consentendo l’ottimizzazione della programmazione degli interventi di manutenzione. Appositi sensori installati sui macchinari permettono l’acquisizione di dati, la cui analisi è alla base di tali tecniche. L'elaborato descrive il progetto e la realizzazione di un’infrastruttura software, nell’ambiente di sviluppo Matlab, per l’elaborazione automatizzata di dati di vibrazione. Il sistema proposto, attraverso il monitoraggio dei parametri rms e kurtosis, consiste in strumento di ausilio per la diagnostica di cuscinetti. Il progetto è stato realizzato sulla base di veri dati storici messi a disposizione da un'azienda del settore. L’elaborato affronta inizialmente il problema dell’accuratezza e affidabilità dei campioni, proponendo soluzioni pratiche per la valutazione della qualità e selezione automatica dei dati. Segue la descrizione del processo di estrapolazione dei parametri sopraccitati, nel caso di cuscinetti in moto non stazionario, con profilo di velocità periodico. Nella terza parte è discussa la metodologia con cui istruire il sistema affinché possa, attraverso la redazione di report sullo stato dei componenti, fungere da strumento di diagnosi. L’ultimo capitolo descrive gli strumenti del toolbox per l’analisi dati che è stato realizzato allo scopo di aumentare potenzialità del sistema di diagnostica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'Italia è spesso sede di eventi d'intensa precipitazione, frequentemente associati ad alluvioni con conseguente perdita di vite umane e gravi danni economici. È quindi di fondamentale importanza poter prevedere questi eventi con un adeguato anticipo. Allo stato attuale, i modelli meteorologici non permettono sempre di raggiungere tale obbiettivo e, di conseguenza, è in atto un'intensa attività di ricerca al fine di di renderne più accurata la previsione, sia attraverso il miglioramento dei modelli stessi, sia sviluppando l'assimilazione dati, la quale riduce l'incertezza della condizione iniziale da cui parte la previsione. All'interno di questo contesto, la tesi si prefigge l'obiettivo di studiare gli effetti dell'assimilazione di dati di precipitazione, effettuata mediante uno schema di nudging, nel modello non idrostatico MOLOCH. Al fine di ottimizzare lo schema e di valutarne l'impatto, sono stati simulati tutti gli eventi di maltempo di ottobre e novembre del 2014 che hanno interessato la Liguria, area frequentemente soggetta ad alluvioni. Dalla sistematica verifica dei risultati, effettuata sia qualitativamente che mediante numerosi metodi statistici (tra cui la tecnica SAL basata sull'individuazione dei nuclei di precipitazione), si riscontra un generale miglioramento della previsione della precipitazione anche se limitato alle prime ore dopo la fine del periodo di assimilazione. L'impatto dello schema di nudging varia a seconda dell'evento e, in particolare, si osserva una certa correlazione tra il miglioramento ottenuto e la tipologia di evento, come descritto dalla teoria dell'equilibrio convettivo e come riportato in alcuni studi analoghi recentemente comparsi in letteratura. La ricaduta del miglioramento della previsione meteorologica è stata valutata anche in termini di impatti al suolo accoppiando il modello meteorologico con il modello idrologico utilizzato dal Centro Funzionale della Regione Liguria, con risultati abbastanza positivi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nell’ambito delle Smart City si rivela di fondamentale importanza ottenere quante più informazioni possibili dalla popolazione locale. In questo scenario sono di utilizzo strategico sistemi di CrowdSensing e soprattutto di Mobile CrowdSensing per raccogliere informazioni dalla popolazione autoctona. Su queste basi nasce e si sviluppa il sistema ParticipAct dell’Università di Bologna. A differenza dei tradizionali sistemi di Mobile CrowdSensing, ParticipAct attua il modello del così detto “Mobile CrowdSensing Partecipativo”, che vede l’utente non solo come fonte di dati passivi, ma come fonte di informazioni di qualsiasi genere, da questionari a fotografie. Questa Tesi di laurea vuole mettere in evidenza come l’integrazione di dati multimediali, in particolare i Video, possono essere sfruttati come risorsa per Smart City grazie alla loro particolare natura composta. Viene poi analizzata la particolare architettura del sistema ParticipAct e come è stato possibile implementare la richiesta di Task contenenti azioni di tipo Video in un sistema basato su interazione Client - Server.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Our objective in this thesis is to study the pseudo-metric and topological structure of the space of group equivariant non-expansive operators (GENEOs). We introduce the notions of compactification of a perception pair, collectionwise surjectivity, and compactification of a space of GENEOs. We obtain some compactification results for perception pairs and the space of GENEOs. We show that when the data spaces are totally bounded and endow the common domains with metric structures, the perception pairs and every collectionwise surjective space of GENEOs can be embedded isometrically into the compact ones through compatible embeddings. An important part of the study of topology of the space of GENEOs is to populate it in a rich manner. We introduce the notion of a generalized permutant and show that this concept too, like that of a permutant, is useful in defining new GENEOs. We define the analogues of some of the aforementioned concepts in a graph theoretic setting, enabling us to use the power of the theory of GENEOs for the study of graphs in an efficient way. We define the notions of a graph perception pair, graph permutant, and a graph GENEO. We develop two models for the theory of graph GENEOs. The first model addresses the case of graphs having weights assigned to their vertices, while the second one addresses weighted on the edges. We prove some new results in the proposed theory of graph GENEOs and exhibit the power of our models by describing their applications to the structural study of simple graphs. We introduce the concept of a graph permutant and show that this concept can be used to define new graph GENEOs between distinct graph perception pairs, thereby enabling us to populate the space of graph GENEOs in a rich manner and shed more light on its structure.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La semantica di RDF non permette di esprimere punti di vista contraddittori sullo stesso set di dati. Il problema consiste sostanzialmente nell’impossibilità di esprimere, in RDF, affermazioni il cui valore di verità sia sconosciuto, oppure in contrasto con quello di altre affermazioni, senza però asserirle, poichè questo le renderebbe indubbiamente vere. Nel corso del tempo, partendo dalla necessità di esprimere statement su altri statement, sono stati prodotti diversi approcci, nessuno dei quali sembra dare una risposta convincente all’esigenza che potremmo riassumere nel poter esprimere senza asserire. Nel presente lavoro, dopo un'analisi dei differenti approcci al problema, e dei relativi risultati, verranno presentate le "Congetture": una nuova proposta di estensione di RDF 1.1 che permette l’espressione di grafi il cui valore di verità è sconosciuto. Le Congetture sono una notazione per esprimere, senza asserire, named graphs in RDF, unitamente ad un meccanismo per affermarne la verità chiamato "collasso alla realtà". Una Congettura collassata è allo stesso tempo un grafo congetturale e un grafo asserito, ed è un modo semplice per gestire situazioni che, espresse inizialmente sotto forma di congetture, devono successivamente essere considerare vere. La proposta è costruita attorno a due concetti principali: 1) la Congettura: un concetto il cui valore di verità non è disponibile; 2) il collasso alla realtà: un meccanismo per asserire pienamente, in RDF, quando necessario, il valore di verità della Congettura. Verranno analizzati scenari avanzati quali Congetture di Congetture, Congetture di collassi e collassi a cascata. Verrà delineata la semantica formale completa della proposta, estendendo la simple interpretation di RDF 1.1, dimostrando che le Congetture sono pienamente compatibili con RDF. Le Congetture, con un'estensione minima del modello, aggiungono ad RDF la possibilità di esprimere, senza asserire, incertezze, ipotesi e dubbi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La seguente tesi propone un’introduzione al geometric deep learning. Nella prima parte vengono presentati i concetti principali di teoria dei grafi ed introdotta una dinamica di diffusione su grafo, in analogia con l’equazione del calore. A seguire, iniziando dal linear classifier verranno introdotte le architetture che hanno portato all’ideazione delle graph convolutional networks. In conclusione, si analizzano esempi di alcuni algoritmi utilizzati nel geometric deep learning e si mostra una loro implementazione sul Cora dataset, un insieme di dati con struttura a grafo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le recenti restrizioni, che sono state imposte negli ultimi anni, in termini di emissioni hanno dato modo di portare innovazioni tecnologiche nel campo automotive. In particolare, è stata fatta molta strada nel campo dei sistemi di propulsione con lo scopo di ridurre gli inquinanti dovuti ai motori termici tramite l’utilizzo di veicoli ibridi ed elettrici. Oltre a questo, è cresciuta la ricerca anche per tematiche quali: nuove strategie di iniezione, nuovi tipi di combustibile e di motori e analisi più dettagliate dei processi di combustione. Queste innovazioni sono andate di pari passo con uno sviluppo tecnologico riguardante il controllo elettronico presente nel veicolo, il quale permette una maggiore precisione rispetto a quello meccanico. Al fine migliorare l’accuratezza del controllo elettronico è quindi fondamentale l’utilizzo dei segnali provenienti dai sensori, in modo tale da poter individuare e correggere eventuali problemi. Questo progetto ha infatti l’obiettivo di sviluppare strategie per l’analisi e il trattamento di una grande mole di dati, in modo tale da avere un controllo preciso ed automatizzato in modo tale da rendere la procedura meno soggetta ad errori e più veloce. Nello specifico il progetto di tesi è stato incentrato sull’implementazione di nuovi trigger, i quali hanno lo scopo di valutare i segnali in modo tale che non siano presenti problemi per la calibrazione del veicolo. In particolare, sono stati implementati trigger riguardanti il misfire e il controllo dei componenti di un veicolo ibrido, come per esempio il BSG e la batteria a 48V. Il tool fornisce quindi la possibilità di essere sempre aggiornato, ma anche di restituire risultati sempre più precisi potendo aumentare il numero delle funzioni e delle condizioni in essi presenti, con la possibilità, un giorno, di poter realizzare a bordo l’intero processo di calibrazione del motore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Al giorno d’oggi, l’inquinamento costituisce una delle principali problematiche che l’uomo e il pianeta si trovano ad affrontare. Questo progetto di tesi si pone come obiettivo quello di coinvolgere le persone nella raccolta di dati sull'inquinamento acustico e luminoso attraverso un'app Android, realizzata sfruttando strategie e metodologie quali crowdsourcing, crowdsensing, citizen science e gamification. Il volume di tesi descrive quindi il contesto in cui si è svolto questo progetto, le tecnologie utilizzate e l'implementazione finale. In particolare, nel primo capitolo viene descritto il contesto generale con un approfondimento sul fenomeno dell'inquinamento, trattando in dettaglio quello sonoro e luminoso. Inoltre, il capitolo approfondisce i concetti di crowdsourcing, crowdsensing, citizen science e gamification. Nel secondo capitolo, invece, vengono illustrate le tecnologie utilizzate sia nel client, cioè l'applicazione Android con le sue funzionalità, sia nel server, che comprende l'uso di Flask e di un database PostgreSQL, oltre a delle API di tipo REST. Il terzo e ultimo capitolo verte sull'implementazione dell'applicazione, con dei focus sulle principali scelte adottate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi ha lo scopo di implementare un modello previsionale del comportamento magnetico di leghe Fe-Si in regime statico e dinamico, mediante l’identificazione e l’ottimizzazione dei parametri caratteristici del modello di Jiles-Atherton. Tale fine è stato perseguito attraverso l’uso del software di calcolo Matlab-Simulink. Il modello, validato mediante i dati reperibili in letteratura, permette di simulare la curva di prima magnetizzazione e il ciclo di isteresi per materiali ferromagnetici soft mediante la conoscenza di un set limitato di dati sperimentali ricavabili dalle prove magnetiche. Il modello è stato impiegato per eseguire la simulazione anche su campioni prodotti industrialmente in acciaio al silicio a grano non orientato forniti allo stato fully-processed M470-50A preventivamente sottoposti a caratterizzazione microstrutturale, mediante microscopia ottica, elettronica e analisi EBSD, e meccanica, attraverso le prove di trazione. I risultati ottenuti dalla simulazione presentano ottimale accuratezza, in particolar modo nel caso statico sia in termini di estrazione dei parametri sia di definizione del ciclo; risulta ancora da migliorare ulteriormente il grafico in frequenza. Al fine di rendere fruibile il modello realizzato è stata progettata una Graphical User Interface. Nell’ottica di una mobilità green in accordo con gli obiettivi globali, l’implementazione del presente modello pone quindi le basi per uno studio futuro del comportamento dei materiali magnetici per la realizzazione di motori elettrici sempre più performanti in funzione dei parametri di produzione e delle condizioni di utilizzo, aspetti che incidono notevolmente sulle proprietà di tale materiale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Industria 4.0 ha coinvolto il settore agroalimentare introducendo nuove strategie di tracciabilità, a favore della sostenibilità e della sicurezza alimentare. L’Organizzazione Internazionale della Vigna e del Vino pone tra gli obiettivi per il 2024 la transizione digitale della filiera, così da avere una tracciabilità trasparente e affidabile. Questo fornisce un vantaggio ai produttori e ai consumatori che dispongono di maggiori informazioni quantitative e qualitative del prodotto. I sistemi di tracciabilità sono integrati nella supply chain aumentandone la resilienza; tuttavia, la maggior parte degli ERP in commercio ricostruiscono la tracciabilità a posteriori: dal codice lotto finale si ricompone tutto il processo. Per monitorare costantemente la filiera ed incrementarne la trasparenza si stanno integrando nuove tecnologie alla tracciabilità, come l’intelligenza artificiale e la blockchain. Obiettivo di questa tesi è la progettazione di un sistema di tracciabilità blockchain. Pertanto, si introduce alla tracciabilità e alla blockchain descrivendo i principali contributi in letteratura che propongono approcci e strategie, evidenziando vantaggi e sfide future. Poi, si presenta il caso Moncaro, cooperativa agricola che ha cantine e vigneti nel territorio marchigiano, analizzando il processo di vinificazione in bianco dal punto di vista del flusso fisico e informativo, rispettivamente tramite BPMN e Relationship chart. Ai fini della modellazione e della scelta dei dati da inserire in tracciabilità, si analizzano le informazioni registrate negli ERP sviluppati da Apra s.p.a., software house, di cui Moncaro fruisce. Quindi, si propone la formulazione di un algoritmo in pseudocodice che permette di collegare sequenzialmente le attività, così, da ottenere la tracciabilità real time e un’architettura che può gestire tutte le informazioni della supply chain. Infine, si è implementato uno scenario produttivo reale, mediante l’architettura di database a grafo di Neo4j AuraDB