483 resultados para grafana,SEPA,Plugin,RDF,SPARQL
Towards model driven software development for Arduino platforms: a DSL and automatic code generation
Resumo:
La tesi ha lo scopo di esplorare la produzione di sistemi software per Embedded Systems mediante l'utilizzo di tecniche relative al mondo del Model Driven Software Development. La fase più importante dello sviluppo sarà la definizione di un Meta-Modello che caratterizza i concetti fondamentali relativi agli embedded systems. Tale modello cercherà di astrarre dalla particolare piattaforma utilizzata ed individuare quali astrazioni caratterizzano il mondo degli embedded systems in generale. Tale meta-modello sarà quindi di tipo platform-independent. Per la generazione automatica di codice è stata adottata una piattaforma di riferimento, cioè Arduino. Arduino è un sistema embedded che si sta sempre più affermando perché coniuga un buon livello di performance ed un prezzo relativamente basso. Tale piattaforma permette lo sviluppo di sistemi special purpose che utilizzano sensori ed attuatori di vario genere, facilmente connessi ai pin messi a disposizione. Il meta-modello definito è un'istanza del meta-metamodello MOF, definito formalmente dall'organizzazione OMG. Questo permette allo sviluppatore di pensare ad un sistema sotto forma di modello, istanza del meta-modello definito. Un meta-modello può essere considerato anche come la sintassi astratta di un linguaggio, quindi può essere definito da un insieme di regole EBNF. La tecnologia utilizzata per la definizione del meta-modello è stata Xtext: un framework che permette la scrittura di regole EBNF e che genera automaticamente il modello Ecore associato al meta-modello definito. Ecore è l'implementazione di EMOF in ambiente Eclipse. Xtext genera inoltre dei plugin che permettono di avere un editor guidato dalla sintassi, definita nel meta-modello. La generazione automatica di codice è stata realizzata usando il linguaggio Xtend2. Tale linguaggio permette di esplorare l'Abstract Syntax Tree generato dalla traduzione del modello in Ecore e di generare tutti i file di codice necessari. Il codice generato fornisce praticamente tutta la schematic part dell'applicazione, mentre lascia all'application designer lo sviluppo della business logic. Dopo la definizione del meta-modello di un sistema embedded, il livello di astrazione è stato spostato più in alto, andando verso la definizione della parte di meta-modello relativa all'interazione di un sistema embedded con altri sistemi. Ci si è quindi spostati verso un ottica di Sistema, inteso come insieme di sistemi concentrati che interagiscono. Tale difinizione viene fatta dal punto di vista del sistema concentrato di cui si sta definendo il modello. Nella tesi viene inoltre introdotto un caso di studio che, anche se abbastanza semplice, fornisce un esempio ed un tutorial allo sviluppo di applicazioni mediante l'uso del meta-modello. Ci permette inoltre di notare come il compito dell'application designer diventi piuttosto semplice ed immediato, sempre se basato su una buona analisi del problema. I risultati ottenuti sono stati di buona qualità ed il meta-modello viene tradotto in codice che funziona correttamente.
Resumo:
Con questa dissertazione di tesi miro ad illustrare i risultati della mia ricerca nel campo del Semantic Publishing, consistenti nello sviluppo di un insieme di metodologie, strumenti e prototipi, uniti allo studio di un caso d‟uso concreto, finalizzati all‟applicazione ed alla focalizzazione di Lenti Semantiche (Semantic Lenses).
Resumo:
Questa tesi tratta di scambio di dati aperti (open data exchange). In particolare, tratta di intervalli temporali con annesse informazioni di vario tipo. Le attività commerciali, come aziende, bar, ristoranti, cinema, teatri, e via dicendo, hanno bisogno di un modo comune per poter condividere i dati inerenti ai propri orari (timetable). Lo scopo di questa tesi è quello di mostrare un modello efficiente, compatto e completo per poter condividere tali informazioni con l'ausilio di formati standard (XML). Oggi giorno esistono diverse soluzioni atte a far fronte a questa necessità ma si tratta di soluzioni incomplete e che gestiscono tali informazioni separatamente. Il problema sorto è quello di avere un'unica struttura che posso unificare informazioni di diverso carattere con gli orari di un'attività: un cinema ha la necessità di fornire orari di diverse proiezioni svolte in sale diverse, una tournée dovrà poter specificare le coordinate geografiche del prossimo evento e così discorrendo.
Resumo:
Das Penningfallen-Massenspektrometer SHIPTRAP wurde gebaut um HochprÄazi-rnsionsmassenmessungen an schweren Radionukliden durchzufÄuhren, die in Fusions-rnreaktionen produziert und vom Geschwindigkeitsfilter SHIP vom Primärstrahl sepa-rnriert werden. Es besteht aus einer Gaszelle zur Abbremsung der hochenergetis-rnchen Reaktionsprodukte, einem RFQ-Kühler und Buncher zur Kühlung und Akku-rnmulation der Ionen und einem Doppel-Penningfallen-System um Massenmessungenrndurchzuführen. Die Masse wird durch die Messungen der Zyklotronfrequenz desrnentsprechenden Ions in einem starken homogenen Magnetfeld bestimmt. Diese Fre-rnquenz wird mit der Frequenz eines wohlbekannten Referenzions verglichen. Mitrndieser Methode können relative Fehler in der Größenordnung von 10^-8 erreicht werden. Kürzlich konnten die Massen der Nobeliumisotope 252-254No (Z=102) und desrnLawrenciumisotops 255Lr (Z=103) erstmals erfolgreich gemessen werden. Dies warenrndie ersten direkten Massenmessungen an Transuranen. Die Produktionrate dieserrnAtome lag bei etwa eins pro Sekunde und weniger. Die Ergebnisse der Massenmes-rnsungen an Nobelium bestätigen die früheren Massenwerte, die aus Q_alpha-Messungenrnabgeleitet wurden. Im Fall von 255Lr wurde der Massenexzess, der bis dahin nur ausrnsystematischen Trends abgeschätzt wurde, zum ersten Mal direkt bestimmt. DiesernErgebnisse sind ein erster Schritt für die an SHIPTRAP geplante Erforschung derrnRegion der Transurane. Das Hauptziel ist hierbei die Bestimmung der Endpunkternder alpha-Zerfallsketten, die in superschweren Elementen in der Nähe der vorhergesagtenrnStabilitätsinsel ihren Ursprung nehmen.
Resumo:
Con il seguente elaborato propongo di presentare il lavoro svolto sui documenti XML che ci sono stati forniti. Più nello specifico, il lavoro è incentrato sui riferimenti bibliografici presenti in ogni documento e ha come fine l'elaborazione delle informazioni estrapolate al fine di poterle esportare nel formato RDF (Resource Description Framework). I documenti XML (eXtensible Markup Language) fornitimi provengono dalla casa editrice Elsevier, una delle più grandi case editrici di articoli scientifici organizzati in riviste specializzate (journal).
Resumo:
La trattazione di questa tesi ha lo scopo di fornire esempi di ontologie, nonché una panoramica sugli editor per la creazione e lo sviluppo di queste, evidenziandone pregi e difetti. Dopo un’introduzione generale al Web Semantico, tale documento fornisce dei tutorial, sempre affiancati da molteplici screenshot e da tutto il codice necessario, molto utili per “avventurarsi” nello sviluppo di ontologie. Le ontologie, per essere fruibili, devono essere pubblicate. Si è deciso pertanto di dare una descrizione dei principali vocabolari attualmente utilizzati nell’ambito del Web Semantico, così da dare un’idea al lettore dei diversi tipi di vocabolario presenti sul web. Infine è stato esaminato Jena: un framework per le applicazioni del Web Semantico sviluppate in Java. Anche in questo caso è stato creato un tutorial in cui tale framework è stato integrato in Eclipse. Vengono mostrati l’installazione delle librerie, l’importazione e l’interrogazione di un file RDF. Poiché per importare un file RDF il lettore deve averne uno, è stata colta l’occasione per fornire anche una guida utile alla creazione di un documento RDF, attraverso FOAF-a-Matic, un’applicazione Javascript che permette di creare una descrizione di se stessi in formato FOAF.
Resumo:
This thesis aims at investigating methods and software architectures for discovering what are the typical and frequently occurring structures used for organizing knowledge in the Web. We identify these structures as Knowledge Patterns (KPs). KP discovery needs to address two main research problems: the heterogeneity of sources, formats and semantics in the Web (i.e., the knowledge soup problem) and the difficulty to draw relevant boundary around data that allows to capture the meaningful knowledge with respect to a certain context (i.e., the knowledge boundary problem). Hence, we introduce two methods that provide different solutions to these two problems by tackling KP discovery from two different perspectives: (i) the transformation of KP-like artifacts to KPs formalized as OWL2 ontologies; (ii) the bottom-up extraction of KPs by analyzing how data are organized in Linked Data. The two methods address the knowledge soup and boundary problems in different ways. The first method provides a solution to the two aforementioned problems that is based on a purely syntactic transformation step of the original source to RDF followed by a refactoring step whose aim is to add semantics to RDF by select meaningful RDF triples. The second method allows to draw boundaries around RDF in Linked Data by analyzing type paths. A type path is a possible route through an RDF that takes into account the types associated to the nodes of a path. Then we present K~ore, a software architecture conceived to be the basis for developing KP discovery systems and designed according to two software architectural styles, i.e, the Component-based and REST. Finally we provide an example of reuse of KP based on Aemoo, an exploratory search tool which exploits KPs for performing entity summarization.
Resumo:
Der Tumorstoffwechsel ist charakterisiert durch eine erhöhte Glykolyserate und die Anreicherung von Laktat auch in Anwesenheit von Sauerstoff. In früheren Arbeiten dieser Arbeitsgruppe konnte gezeigt werden, dass ein hoher Laktatgehalt in Primärtumoren signifikant mit einem gesteigerten Metastasierungsverhalten und einer schlechteren Patientenprognose verknüpft ist. Ein wichtiges Verfahren zur Bestimmung des Metabolitstatus in kryokonservierten Tumorschnitten ist die induzierte, metabolische Biolumineszenz. Im Rahmen dieser Arbeit wurde ein neues, digitales Kamerasystem für Biolumineszenzmessungen etabliert. Außerdem wurde der für die Laktat- und Glukosemessungen benötigte Enzymmix optimiert, so dass eine bessere Lichtausbeute und eine Kosteneinsparung von etwa 50% erzielt werden konnte. Durch die Einführung von Kontrollmessungen und die Verwendung eines neu entwickelten ImageJ-PlugIns für eine halbautomatisierte Auswertung, konnte ein zuverlässiges Messsystem etabliert werden, das Ergebnisse mit einer verbesserten Reproduzierbarkeit liefert. rnDieses neue Messsytem wurde in einer Studie an zehn humanen xenotransplantierten Plattenepithelkarzinomen des Kopf-Hals-Bereiches erfolgreich eingesetzt. Es konnte gezeigt werden, dass eine signifikante, positive Korrelation zwischen dem Laktatgehalt in soliden Primärtumoren und der Resistenz gegenüber einer fraktionierten Strahlentherapie besteht. rnIn einer weiterführenden Studie wurde im gleichen Xenograftmodell der Einfluss einer fraktionierten Strahlentherapie auf den Tumorstoffwechsel untersucht. Der Vergleich von zwei humanen Plattenepithelkarzinomlinien des Kopf-Hals-Bereichs im Verlauf einer fraktionierten Strahlentherapie zeigt deutliche Unterschiede zwischen strahlenresistenten und strahlensensiblen Tumoren. In der strahlenempfindlichen Tumorlinie UT-SCC 14 treten nach Bestrahlung mit drei Fraktionen in der Expression glykolyse-assoziierter Gene und nach zehn Fraktionen im ATP- und Laktatgehalt signifikante Veränderungen auf. Im Gegensatz dazu wird bei der strahlenresistenten Linie UT-SCC 5 lediglich eine Absenkung des Laktatgehaltes nach zehn Fraktionen beobachtet, nicht jedoch des ATP-Gehalts. Die mRNA-Expression wird in UT-SCC 5 nicht durch eine fraktionierte Bestrahlung verändert. Diese Ergebnisse liefern erste Hinweise, dass das mRNA-Expressionslevel und der Metabolitgehalt frühe Marker für das Ansprechen auf eine Strahlentherapie sein können.rn
Resumo:
Lavoro svolto per la creazione di una rete citazionale a partire da articoli scientifici codificati in XML JATS. Viene effettuata un'introduzione sul semantic publishing, le ontologie di riferimento e i principali dataset su pubblicazioni scientifiche. Infine viene presentato il prototipo CiNeX che si occupa di estrarre da un dataset in XML JATS un grafo RDF utilizzando l'ontologia SPAR.
Resumo:
In this thesis, the author presents a query language for an RDF (Resource Description Framework) database and discusses its applications in the context of the HELM project (the Hypertextual Electronic Library of Mathematics). This language aims at meeting the main requirements coming from the RDF community. in particular it includes: a human readable textual syntax and a machine-processable XML (Extensible Markup Language) syntax both for queries and for query results, a rigorously exposed formal semantics, a graph-oriented RDF data access model capable of exploring an entire RDF graph (including both RDF Models and RDF Schemata), a full set of Boolean operators to compose the query constraints, fully customizable and highly structured query results having a 4-dimensional geometry, some constructions taken from ordinary programming languages that simplify the formulation of complex queries. The HELM project aims at integrating the modern tools for the automation of formal reasoning with the most recent electronic publishing technologies, in order create and maintain a hypertextual, distributed virtual library of formal mathematical knowledge. In the spirit of the Semantic Web, the documents of this library include RDF metadata describing their structure and content in a machine-understandable form. Using the author's query engine, HELM exploits this information to implement some functionalities allowing the interactive and automatic retrieval of documents on the basis of content-aware requests that take into account the mathematical nature of these documents.
Resumo:
L'Open Data, letteralmente “dati aperti”, è la corrente di pensiero (e il relativo “movimento”) che cerca di rispondere all'esigenza di poter disporre di dati legalmente “aperti”, ovvero liberamente re-usabili da parte del fruitore, per qualsiasi scopo. L’obiettivo dell’Open Data può essere raggiunto per legge, come negli USA dove l’informazione generata dal settore pubblico federale è in pubblico dominio, oppure per scelta dei detentori dei diritti, tramite opportune licenze. Per motivare la necessità di avere dei dati in formato aperto, possiamo usare una comparazione del tipo: l'Open Data sta al Linked Data, come la rete Internet sta al Web. L'Open Data, quindi, è l’infrastruttura (o la “piattaforma”) di cui il Linked Data ha bisogno per poter creare la rete di inferenze tra i vari dati sparsi nel Web. Il Linked Data, in altre parole, è una tecnologia ormai abbastanza matura e con grandi potenzialità, ma ha bisogno di grandi masse di dati tra loro collegati, ossia “linkati”, per diventare concretamente utile. Questo, in parte, è già stato ottenuto ed è in corso di miglioramento, grazie a progetti come DBpedia o FreeBase. In parallelo ai contributi delle community online, un altro tassello importante – una sorta di “bulk upload” molto prezioso – potrebbe essere dato dalla disponibilità di grosse masse di dati pubblici, idealmente anche già linkati dalle istituzioni stesse o comunque messi a disposizione in modo strutturato – che aiutino a raggiungere una “massa” di Linked Data. A partire dal substrato, rappresentato dalla disponibilità di fatto dei dati e dalla loro piena riutilizzabilità (in modo legale), il Linked Data può offrire una potente rappresentazione degli stessi, in termini di relazioni (collegamenti): in questo senso, Linked Data ed Open Data convergono e raggiungono la loro piena realizzazione nell’approccio Linked Open Data. L’obiettivo di questa tesi è quello di approfondire ed esporre le basi sul funzionamento dei Linked Open Data e gli ambiti in cui vengono utilizzati.
Resumo:
Questa tesi presenta una rassegna delle principali tecnologie informatiche per la gestione efficace ed efficiente delle librerie digitali. Viene posto l'accento sull'analisi comparativa delle tecnologie e dei modelli di rappresentazione del dato bibliografico presenti allo stato dell'arte.
Resumo:
For the past 10 years, medical imaging techniques have been increasingly applied to forensic investigations. To obtain histological and toxicological information, tissue and liquid samples are required. In this article, we describe the development of a low-cost, secure, and reliable approach for a telematic add-on for remotely planning biopsies on the Virtobot robotic system. Data sets are encrypted and submitted over the Internet. A plugin for the OsiriX medical image viewer allows for remote planning of needle trajectories that are used for needle placement. The application of teleradiological methods to image-guided biopsy in the forensic setting has the potential to reduce costs and, in conjunction with a mobile computer tomographic scanner, allows for tissue sampling in a mass casualty situation involving nuclear, biological, or chemical agents, in a manner that minimizes the risk to involved staff.
Resumo:
We present studies of the spatial clustering of inertial particles embedded in turbulent flow. A major part of the thesis is experimental, involving the technique of Phase Doppler Interferometry (PDI). The thesis also includes significant amount of simulation studies and some theoretical considerations. We describe the details of PDI and explain why it is suitable for study of particle clustering in turbulent flow with a strong mean velocity. We introduce the concept of the radial distribution function (RDF) as our chosen way of quantifying inertial particle clustering and present some original works on foundational and practical considerations related to it. These include methods of treating finite sampling size, interpretation of the magnitude of RDF and the possibility of isolating RDF signature of inertial clustering from that of large scale mixing. In experimental work, we used the PDI to observe clustering of water droplets in a turbulent wind tunnel. From that we present, in the form of a published paper, evidence of dynamical similarity (Stokes number similarity) of inertial particle clustering together with other results in qualitative agreement with available theoretical prediction and simulation results. We next show detailed quantitative comparisons of results from our experiments, direct-numerical-simulation (DNS) and theory. Very promising agreement was found for like-sized particles (mono-disperse). Theory is found to be incorrect regarding clustering of different-sized particles and we propose a empirical correction based on the DNS and experimental results. Besides this, we also discovered a few interesting characteristics of inertial clustering. Firstly, through observations, we found an intriguing possibility for modeling the RDF arising from inertial clustering that has only one (sensitive) parameter. We also found that clustering becomes saturated at high Reynolds number.
Resumo:
Der aktuelle Band der Reihe «Schweizerische Bankrechtstagung», befasst sich vertieft mit dem Thema des «Cross-Border Banking». Im Zentrum der Tagung vom Februar 2009 in Bern standen dabei weniger die Politik als vielmehr das Recht und praktische Fragen, die sich im Zusammenhang mit dem grenzüberschreitenden Bankverkehr stellen. Die Themen: Amtshilfe und Rechtshilfe – Neue Entwicklungen, Euro-Zahlungen gemäss den SEPA-Rulebooks (insbesondere die Haftung der Banken), Rechtliche Risiken im grenzüberschreitenden Verkehr, Aufsicht über international tätige Finanzgruppen – Konsequenzen für die Bank, Praktische Fragen der Vorort-Kontrolle, Die Standards zur Aufhebung des Bankgeheimnisses, Die Verletzung des Bankgeheimnisses – Individual- und Unternehmensstrafrecht.