24 resultados para Dbpedia, affiliazioni, RDF
Resumo:
La trattazione di questa tesi ha lo scopo di fornire esempi di ontologie, nonché una panoramica sugli editor per la creazione e lo sviluppo di queste, evidenziandone pregi e difetti. Dopo un’introduzione generale al Web Semantico, tale documento fornisce dei tutorial, sempre affiancati da molteplici screenshot e da tutto il codice necessario, molto utili per “avventurarsi” nello sviluppo di ontologie. Le ontologie, per essere fruibili, devono essere pubblicate. Si è deciso pertanto di dare una descrizione dei principali vocabolari attualmente utilizzati nell’ambito del Web Semantico, così da dare un’idea al lettore dei diversi tipi di vocabolario presenti sul web. Infine è stato esaminato Jena: un framework per le applicazioni del Web Semantico sviluppate in Java. Anche in questo caso è stato creato un tutorial in cui tale framework è stato integrato in Eclipse. Vengono mostrati l’installazione delle librerie, l’importazione e l’interrogazione di un file RDF. Poiché per importare un file RDF il lettore deve averne uno, è stata colta l’occasione per fornire anche una guida utile alla creazione di un documento RDF, attraverso FOAF-a-Matic, un’applicazione Javascript che permette di creare una descrizione di se stessi in formato FOAF.
Resumo:
Lavoro svolto per la creazione di una rete citazionale a partire da articoli scientifici codificati in XML JATS. Viene effettuata un'introduzione sul semantic publishing, le ontologie di riferimento e i principali dataset su pubblicazioni scientifiche. Infine viene presentato il prototipo CiNeX che si occupa di estrarre da un dataset in XML JATS un grafo RDF utilizzando l'ontologia SPAR.
Resumo:
Questo lavoro di tesi si concentra sulle estensioni apportate a BEX (Bibliographic Explorer), una web app finalizzata alla navigazione di pubblicazioni scientifiche attraverso le loro citazioni. Il settore in cui si colloca è il Semantic Publishing, un nuovo ambito di ricerca derivato dall'applicazione delle tecnologie del Semantic Web allo Scholarly Publishing, che ha come scopo la pubblicazione di articoli accademici a cui vengono associati metadati semantici. BEX nasce all'interno del Semantic Lancet Project del Dipartimento di Informatica dell'Università di Bologna, il cui obiettivo è costruire un Linked Open Dataset di pubblicazioni accademiche, il Semantic Lancet Triplestore (SLT), e fornire strumenti per la navigazione ad alto livello e l'uso approfondito dei dati in esso contenuti. Gli scholarly Linked Open Data elaborati da BEX sono insiemi di triple RDF conformi alle ontologie SPAR. Originariamente BEX ha come backend il dataset SLT che contiene metadati relativi alle pubblicazioni del Journal Of Web Semantics di Elsevier. BEX offre viste avanzate tramite un'interfaccia interattiva e una buona user-experience. L'utente di BEX è principalmente il ricercatore universitario, che per compiere le sue attività quotidiane fa largo uso delle Digital Library (DL) e dei servizi che esse offrono. Dato il fermento dei ricercatori nel campo del Semantic Publishing e la veloce diffusione della pubblicazione di scholarly Linked Open Data è ragionevole pensare di ampliare e mantenere un progetto che possa provvedere al sense making di dati altrimenti interrogabili solo in modo diretto con queries SPARQL. Le principali integrazioni a BEX sono state fatte in termini di scalabilità e flessibilità: si è implementata la paginazione dei risultati di ricerca, l'indipendenza da SLT per poter gestire datasets diversi per struttura e volume, e la creazione di viste author centric tramite aggregazione di dati e comparazione tra autori.
Resumo:
La tesi ha lo scopo di introdurre Investiga, un'applicazione per l'estrazione automatica di informazioni da articoli scientifici in formato PDF e pubblicazione di queste informazioni secondo i principi e i formati Linked Open Data, creata per la tesi. Questa applicazione è basata sul Task 2 della SemPub 2016, una challenge che ha come scopo principale quello di migliorare l'estrazione di informazioni da articoli scientifici in formato PDF. Investiga estrae i capitoli di primo livello, le didascalie delle figure e delle tabelle da un dato articolo e crea un grafo delle informazioni così estratte collegate adeguatamente tra loro. La tesi inoltre analizza gli strumenti esistenti per l'estrazione automatica di informazioni da documenti PDF e dei loro limiti.
Resumo:
La tesi descrive PARLEN, uno strumento che permette l'analisi di articoli, l'estrazione e il riconoscimento delle entità - ad esempio persone, istituzioni, città - e il collegamento delle stesse a risorse online. PARLEN è inoltre in grado di pubblicare i dati estratti in un dataset basato su principi e tecnologie del Semantic Web.
RSLT: trasformazione di Open LinkedData in testi in linguaggio naturaletramite template dichiarativi
Resumo:
La diffusione del Semantic Web e di dati semantici in formato RDF, ha creato la necessità di un meccanismo di trasformazione di tali informazioni, semplici da interpretare per una macchina, in un linguaggio naturale, di facile comprensione per l'uomo. Nella dissertazione si discuterà delle soluzioni trovate in letteratura e, nel dettaglio, di RSLT, una libreria JavaScript che cerca di risolvere questo problema, consentendo la creazione di applicazioni web in grado di eseguire queste trasformazioni tramite template dichiarativi. Verranno illustrati, inoltre, tutti i cambiamenti e tutte le modi�che introdotte nella versione 1.1 della libreria, la cui nuova funzionalit�à principale �è il supporto a SPARQL 1.0.
Resumo:
Questo elaborato mostra lo sviluppo di un plugin per la visualizzazione in Grafana di eventi provenienti dalla piattaforma semantica SEPA (SPARQL Event Processing Architecture). La principale funzione svolta dal SEPA è quella di notificare in modo asincrono i propri client rispetto al cambiamento dei risultati di una query che interroga il sottostante grafo RDF. La piattaforma trova il suo utilizzo in quei contesti caratterizzati da dati dinamici, eterogenei e non strutturati e viene impiegata principalmente come strumento per abilitare l’interoperabilità in domini come per esempio l’Internet of Things. Nasce quindi l’esigenza di disporre di strumenti per il monitoraggio e la visualizzazione di dati real-time. Grafana risulta in questo caso lo strumento ideale data la sua flessibilità, che affiancata alla sua natura open source, lo rende particolarmente interessante per lo sviluppo della soluzione proposta da VAIMEE, spinoff dell’Università di Bologna, ospitato presso il CesenaLab, luogo dove è stato svolto questo lavoro di tesi.
Resumo:
In questo elaborato si analizzano i principali metodi di rappresentazione delle nozioni di incertezza e di dibattito all’interno della Knowledge Base di Wikidata. In particolare, quali sono i metodi per rappresentare tali nozioni, quali tra questi metodi è il più utilizzato, quali offrono un'accuratezza maggiore (ovvero delle informazioni aggiuntive sulla motivazione del perché un determinato statement è in discussione) e infine la presenza di possibili correlazioni tra i vari metodi. Innanzitutto, è stato svolto uno studio preliminare volto a individuare tali metodi in Wikidata. In seguito, sono stati estratti e costruiti quattro dataset rappresentativi del dominio descritto che contenessero le rappresentazioni in esame. Ogni dataset, rappresentativo di un metodo di rappresentazione, è stato prima analizzato singolarmente e in seguito è stata ricercata la presenza degli altri metodi nello stesso. Infine sono stati presentati gli sviluppi futuri, i punti di forza e le debolezze del lavoro svolto.
Resumo:
Semantic Web technologies provide the means to express the knowledge in a formal and standardized manner, enabling machines to automatically derive meaning from the data. Often this knowledge is uncertain or different degrees of certainty may be assigned to the same statements. This is the case in many fields of study such as in Digital Humanities, Science and Arts. The challenge relies on the fact that our knowledge about the surrounding world is dynamic and may evolve based on new data coming from the latest discoveries. Furthermore we should be able to express conflicting, debated or disputed statements in an efficient, effective and consistent way without the need of asserting them. We call this approach 'Expressing Without Asserting' (EWA). In this work we identify all existing methods that are compatible with actual Semantic Web standards and enable us to express EWA. In our research we were able to prove that existing reification methods such as Named Graphs, Singleton Properties, Wikidata Statements and RDF-Star are the most suitable methods to represent in a reliable way EWA. Next we compare these methods with our own method, namely Conjectures from a quantitative perspective. Our main objective was to put Conjectures into stress tests leveraging enormous datasets created ad hoc using art-related Wikidata dumps and measure the performance in various triplestores in relation with similar concurrent methods. Our experiments show that Conjectures are a formidable tool to express efficiently and effectively EWA. In some cases, Conjectures outperform state of the art methods such as singleton and Rdf-Star exposing their great potential. Is our firm belief that Conjectures represent a suitable solution to EWA issues. Conjectures in their weak form are fully compatible with Semantic Web standards, especially with RDF and SPARQL. Furthermore Conjectures benefit from comprehensive syntax and intuitive semantics that make them easy to learn and adapt.