989 resultados para RDF,Named Graphs,Provenance,Semantic Web,Semantics
Resumo:
The goal of the present research is to define a Semantic Web framework for precedent modelling, by using knowledge extracted from text, metadata, and rules, while maintaining a strong text-to-knowledge morphism between legal text and legal concepts, in order to fill the gap between legal document and its semantics. The framework is composed of four different models that make use of standard languages from the Semantic Web stack of technologies: a document metadata structure, modelling the main parts of a judgement, and creating a bridge between a text and its semantic annotations of legal concepts; a legal core ontology, modelling abstract legal concepts and institutions contained in a rule of law; a legal domain ontology, modelling the main legal concepts in a specific domain concerned by case-law; an argumentation system, modelling the structure of argumentation. The input to the framework includes metadata associated with judicial concepts, and an ontology library representing the structure of case-law. The research relies on the previous efforts of the community in the field of legal knowledge representation and rule interchange for applications in the legal domain, in order to apply the theory to a set of real legal documents, stressing the OWL axioms definitions as much as possible in order to enable them to provide a semantically powerful representation of the legal document and a solid ground for an argumentation system using a defeasible subset of predicate logics. It appears that some new features of OWL2 unlock useful reasoning features for legal knowledge, especially if combined with defeasible rules and argumentation schemes. The main task is thus to formalize legal concepts and argumentation patterns contained in a judgement, with the following requirement: to check, validate and reuse the discourse of a judge - and the argumentation he produces - as expressed by the judicial text.
Resumo:
The Internet of Things (IoT) is the next industrial revolution: we will interact naturally with real and virtual devices as a key part of our daily life. This technology shift is expected to be greater than the Web and Mobile combined. As extremely different technologies are needed to build connected devices, the Internet of Things field is a junction between electronics, telecommunications and software engineering. Internet of Things application development happens in silos, often using proprietary and closed communication protocols. There is the common belief that only if we can solve the interoperability problem we can have a real Internet of Things. After a deep analysis of the IoT protocols, we identified a set of primitives for IoT applications. We argue that each IoT protocol can be expressed in term of those primitives, thus solving the interoperability problem at the application protocol level. Moreover, the primitives are network and transport independent and make no assumption in that regard. This dissertation presents our implementation of an IoT platform: the Ponte project. Privacy issues follows the rise of the Internet of Things: it is clear that the IoT must ensure resilience to attacks, data authentication, access control and client privacy. We argue that it is not possible to solve the privacy issue without solving the interoperability problem: enforcing privacy rules implies the need to limit and filter the data delivery process. However, filtering data require knowledge of how the format and the semantics of the data: after an analysis of the possible data formats and representations for the IoT, we identify JSON-LD and the Semantic Web as the best solution for IoT applications. Then, this dissertation present our approach to increase the throughput of filtering semantic data by a factor of ten.
Resumo:
La produzione ontologica è un processo fondamentale per la crescita del Web Semantico in quanto le ontologie rappresentano i vocabolari formali con cui strutturare il Web of Data. Le notazioni grafiche ontologiche costituiscono il mezzo ideale per progettare ontologie OWL sensate e ben strutturate. Tuttavia la successiva fase di generazione ontologica richiede all'utente un fastidioso cambio sia di prospettiva sia di strumentazione. Questa tesi propone dunque GraMOS, Graffoo to Manchester OWL Syntax, un motore di trasformazione da modelli Graffoo a ontologie formali in grado di fondere le due fasi di progettazione e generazione ontologica.
Resumo:
Realizzazione di un database semantico in Java a partire da una sua versione in tecnologia OSGI. La trattazione è organizzata come segue: nel primo capitolo verranno introdotte nozioni generali sullo scenario di rilevanza e le tecnologie. Nel secondo capitolo si parlerà della SIB-O, introducendone l’architettura e le funzionalità. Il terzo capitolo descriverà il lavoro svolto ed infine il quarto capitolo riporterà i risultati di test di performance allo scopo di validare il lavoro svolto e caratterizzare l’efficienza dei prodotti software realizzati.
Resumo:
Tesi riguardante le differenze tra Semantic Web e Web Tradizionale
Resumo:
In questo elaborato viene presentata Semantic City Guide, un'applicazione mobile di guida turistica basata su Linked Open Data. Si vogliono presentare i principali vantaggi e svantaggi derivati dall'interazione tra sviluppo nativo di applicazioni mobili e tecnologie del Semantic Web. Il tutto verrà contestualizzato esaminando alcuni progetti di aziende ed enti statali operativi nel settore turistico e dell'informatica.
Resumo:
Lo scopo di questo elaborato è di analizzare e progettare un sistema in grado di supportare la definizione dei dati nel formato utilizzato per definire in modo formale la semantica dei dati, ma soprattutto nella complessa e innovativa attività di link discovery. Una attività molto potente che, tramite gli strumenti e le regole del Web Semantico (chiamato anche Web of Data), permette data una base di conoscenza sorgente ed altre basi di conoscenza esterne e distribuite nel Web, di interconnettere i dati della base di conoscenza sorgente a quelli esterni sulla base di complessi algoritmi di interlinking. Questi algoritmi fanno si che i concetti espressi sulla base di dati sorgente ed esterne vengano interconnessi esprimendo la semantica del collegamento ed in base a dei complessi criteri di confronto definiti nel suddetto algoritmo. Tramite questa attività si è in grado quindi di aumentare notevolmente la conoscenza della base di conoscenza sorgente, se poi tutte le basi di conoscenza presenti nel Web of Data seguissero questo procedimento, la conoscenza definita aumenterebbe fino a livelli che sono limitati solo dalla immensa vastità del Web, dando una potenza di elaborazione dei dati senza eguali. Per mezzo di questo sistema si ha l’ambizioso obiettivo di fornire uno strumento che permetta di aumentare sensibilmente la presenza dei Linked Open Data principalmente sul territorio nazionale ma anche su quello internazionale, a supporto di enti pubblici e privati che tramite questo sistema hanno la possibilità di aprire nuovi scenari di business e di utilizzo dei dati, dando una potenza al dato che attualmente è solo immaginabile.
Resumo:
Un'applicazione web user-friendly di supporto ai ricercatori per l'esecuzione efficiente di specifici tasks di ricerca e analisi di articoli scientifici
Resumo:
Dalla necessità di risolvere il problema della disambiguazione di un insieme di autori messo a disposizione dall'Università di Bologna, il Semantic Lancet, è nata l'idea di progettare un algoritmo di disambiguazione in grado di adattarsi, in caso di bisogno, a qualsiasi tipo di lista di autori. Per la fase di testing dell'algoritmo è stato utilizzato un dataset generato (11724 autori di cui 1295 coppie da disambiguare) dalle informazioni disponibili dal "database systems and logic programming" (DBLP), in modo da essere il più etereogeneo possibile, cioè da contenere il maggior numero di casi di disambiguazione possibile. Per i primi test di sbarramento è stato definito un algoritmo alternativo discusso nella sezione 4.3 ottenendo una misura di esattezza dell'1% ed una di completezza dell'81%. L'algoritmo proposto impostato con il modello di configurazione ha ottenuto invece una misura di esattezza dell'81% ed una di completezza del 70%, test discusso nella sezione 4.4. Successivamente l'algoritmo è stato testato anche su un altro dataset: Semantic Lancet (919 autori di cui 34 coppie da disambiguare), ottenendo, grazie alle dovute variazioni del file di configurazione, una misura di esattezza del 84% e una di completezza del 79%, discusso nella sezione 4.5.
Resumo:
La Federazione è un concetto molto utilizzato ed implementato in vari ambiti dell’informatica. In particolare sta avendo grande interesse nel Semantic Web, e risulta essere significativo e importante il suo utilizzo in una disciplina in grande evoluzione come l’Enterprise Architecture. L’obiettivo di questa tesi è stato implementare il concetto di Federazione di Endpoint SPARQL, dove l’elemento centrale è stata la condivisione del modello dei dati tra i vari membri, il quale rappresenta il patto della federazione. Successivamente sono stati messi in luce i benefici che questo tipo di soluzione apporta alla disciplina dell’Enterprise Architecture, in particolar modo nell’ambito dell’analisi dei dati. In relazione a quest’ultimo aspetto, il Semantic Web offre un linguaggio flessibile e facilmente evolvibile per rappresentare l’azienda e i suoi dati, oltre che ad un protocollo standard per la loro interrogazione, ovvero lo SPARQL. La federazione, invece, apporta dei miglioramenti rendendo le fonti dato omogenee dal punto di vista del modello, utilizza un unico protocollo per l’accesso ad essi (SPARQL), ed elimina le criticità in relazione alla normalizzazione dei dati nei processi di analisi. Questi due aspetti risultano abilitanti proprio per l’Enterprise Architecture. Infine sono state definite due possibili evoluzioni, in particolare un costrutto che permetta l’implementazione e la gestione della federazione a livello di linguaggio SPARQL, ed una ontologia standard e condivisibile tramite la quale gestire la federazione in modo trasparente.
Resumo:
Questa tesi riguarda lo sviluppo di un'applicazione che sfrutta le tecnologie del Web Semantico e del Text Mining. L'applicazione rappresenta l'estensione di un lavoro relativo ad una tesi precedente, aggiungendo ad esso la funzionalità di ricerca semantica. Tale funzionalità permette il recupero di informazioni che con il metodo di ricerca normale non verrebbero considerate. Per raggiungere questo risultato si utilizza WordNet, un database semantico-lessicale, e una libreria per la Latent Semantic Analysis, una tecnica del Text Mining.