483 resultados para grafana,SEPA,Plugin,RDF,SPARQL


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Semantic Web technologies provide the means to express the knowledge in a formal and standardized manner, enabling machines to automatically derive meaning from the data. Often this knowledge is uncertain or different degrees of certainty may be assigned to the same statements. This is the case in many fields of study such as in Digital Humanities, Science and Arts. The challenge relies on the fact that our knowledge about the surrounding world is dynamic and may evolve based on new data coming from the latest discoveries. Furthermore we should be able to express conflicting, debated or disputed statements in an efficient, effective and consistent way without the need of asserting them. We call this approach 'Expressing Without Asserting' (EWA). In this work we identify all existing methods that are compatible with actual Semantic Web standards and enable us to express EWA. In our research we were able to prove that existing reification methods such as Named Graphs, Singleton Properties, Wikidata Statements and RDF-Star are the most suitable methods to represent in a reliable way EWA. Next we compare these methods with our own method, namely Conjectures from a quantitative perspective. Our main objective was to put Conjectures into stress tests leveraging enormous datasets created ad hoc using art-related Wikidata dumps and measure the performance in various triplestores in relation with similar concurrent methods. Our experiments show that Conjectures are a formidable tool to express efficiently and effectively EWA. In some cases, Conjectures outperform state of the art methods such as singleton and Rdf-Star exposing their great potential. Is our firm belief that Conjectures represent a suitable solution to EWA issues. Conjectures in their weak form are fully compatible with Semantic Web standards, especially with RDF and SPARQL. Furthermore Conjectures benefit from comprehensive syntax and intuitive semantics that make them easy to learn and adapt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objectivo a quantificação de metais (Alumínio, Bário, Cádmio, Chumbo, Cobalto, Cobre, Crómio, Estanho, Níquel, Potássio, Selénio, Sódio, Antimónio, Vanádio, Zinco e Mercúrio), em resíduos com potencial para valorização energética, em particular o refugo da estação de triagem do embalão de Palmela e o rejeitado do TMB da Central de Setúbal. A partir destes resíduos pode produzir-se RDF que é um combustível heterogéneo e de elevado PCI, que é utilizado em diversos países Europeus, como a Alemanha, a Itália e a Holanda como combustível alternativo. Este tipo de combustível tem especial pertinência devido ao Protocolo de Quioto e à Directiva das Energias Renováveis, que sugerem a substituição dos combustíveis fósseis. Assim, indústrias como cimenteiras, produtoras de gesso, termoeléctricas entre outras podem fazer uso destes combustíveis de forma a cumprir alguns dos requisitos exigidos nestes documentos. Neste trabalho estudou-se o comportamento dos resultados dos metais relativamente à distribuição Normal, e sempre que possível, associaram-se intervalos com 95% de confiança para as médias, e fez-se uma comparação final entre os dois resíduos estudados. Seguidamente, fez-se a comparação dos valores das médias e dos máximos obtidos para os metais, com a Norma CEN/TC 343, com as Normas da Secil, EURITS, Alemanha, Finlândia, Itália e Suécia. Verificaram-se incumprimentos em todas as Normas estudadas, para ambos os resíduos, com excepção da Norma CEN/TC 343 e da Norma da Finlândia, segundo as quais estes resíduos podem ser usados na produção de RDF.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Extracting the semantic relatedness of terms is an important topic in several areas, including data mining, information retrieval and web recommendation. This paper presents an approach for computing the semantic relatedness of terms using the knowledge base of DBpedia — a community effort to extract structured information from Wikipedia. Several approaches to extract semantic relatedness from Wikipedia using bag-of-words vector models are already available in the literature. The research presented in this paper explores a novel approach using paths on an ontological graph extracted from DBpedia. It is based on an algorithm for finding and weighting a collection of paths connecting concept nodes. This algorithm was implemented on a tool called Shakti that extract relevant ontological data for a given domain from DBpedia using its SPARQL endpoint. To validate the proposed approach Shakti was used to recommend web pages on a Portuguese social site related to alternative music and the results of that experiment are reported in this paper.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertation presented to obtain the Ph.D degree in Bioinformatics

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste documento ´e feita a descrição detalhada da integração modular de um script no software OsiriX. O objectivo deste script ´e determinar o diâmetro central da artéria aorta a partir de uma Tomografia Computorizada. Para tal são abordados conceitos relacionados com a temática do processamento de imagem digital, tecnologias associadas, e.g., a norma DICOM e desenvolvimento de software. Como estudo preliminar, são analisados diversos visualizadores de imagens médica, utilizados para investigação ou mesmo comercializados. Foram realizadas duas implementações distintas do plugin. A primeira versão do plugin faz a invocação do script de processamento usando o ficheiro de estudo armazenado em disco; a segunda versão faz a passagem de dados através de um bloco de memória partilhada e utiliza o framework Java Native Interface. Por fim, é demonstrado todo o processo de aposição da Marcação CE de um dispositivo médico de classe IIa e obtenção da declaração de conformidade por parte de um Organismo Notificado. Utilizaram-se os Sistemas Operativos Mac OS X e Linux e as linguagens de programação Java, Objective-C e Python.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This article presents a work-in-progress version of a Dublin Core Application Profile (DCAP) developed to serve the Social and Solidarity Economy (SSE). Studies revealed that this community is interested in implementing both internal interoperability between their Web platforms to build a global SSE e-marketplace, and external interoperability among their Web platforms and external ones. The Dublin Core Application Profile for Social and Solidarity Economy (DCAP-SSE) serves this purpose. SSE organisations are submerged in the market economy but they have specificities not taken into account in this economy. The DCAP-SSE integrates terms from well-known metadata schemas, Resource Description Framework (RDF) vocabularies or ontologies, in order to enhance interoperability and take advantage of the benefits of the Linked Open Data ecosystem. It also integrates terms from the new essglobal RDF vocabulary which was created with the goal to respond to the SSE-specific needs. The DCAP-SSE also integrates five new Vocabulary Encoding Schemes to be used with DCAP-SSE properties. The DCAP development was based on a method for the development of application profiles (Me4MAP). We believe that this article has an educational value since it presents the idea that it is important to base DCAP developments on a method. This article shows the main results of applying such a method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This project aimed to create a communication and interaction channel between Madeira Airport and its passengers. We used the pre-existent touch enabled screens at the terminal since their potential was not being utilised to their full capacity. To achieve our goal, we have followed an agile strategy to create a testable prototype and take advantages of its results. The developed prototype is based on a plugin architecture turning it into a maintainable and highly customisable system. The collected usage data suggests that we have achieved the initially defined goals. There is no doubt that this new interaction channel is an improvement regarding the provided services and, supported by the usage data, there is an opportunity to explore additional developments to the channel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The wide acceptance of digital repositories today in the eLearning field raises several interoperability issues. In this paper we present the interoperability features of a service oriented repository of learning objects called crimsonHex. These features are compliant with the existing standards and we propose extensions to the IMS interoperability recommendation, adding new functions, formalizing message interchange and providing also a REST interface. To validate the proposed extensions and its implementation in crimsonHex we developed a repository plugin for Moodle 2.0 that is expected to be included in the next release of this popular learning management system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thesis submitted to the Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia for the degree of Doctor of Philosophy in Environmental Engineering

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eradication of code smells is often pointed out as a way to improve readability, extensibility and design in existing software. However, code smell detection remains time consuming and error-prone, partly due to the inherent subjectivity of the detection processes presently available. In view of mitigating the subjectivity problem, this dissertation presents a tool that automates a technique for the detection and assessment of code smells in Java source code, developed as an Eclipse plugin. The technique is based upon a Binary Logistic Regression model that uses complexity metrics as independent variables and is calibrated by expert‟s knowledge. An overview of the technique is provided, the tool is described and validated by an example case study.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O peixe-zebra é utilizado como modelo vertebrado para estudos in vivo de diversas patologias de origem genética. Neste trabalho pretendeu-se estudar a discinesia ciliar primária através do estudo in vivo do organizador da esquerda-direita destes peixes, conhecido por vesícula de Kupffer. Em particular, após análise de sequências de imagens captadas a alta velocidade, avaliou-se o com-portamento dinâmico de cílios normais e comparou-se com o de cílios com alte-rações genéticas com o objectivo de melhor compreender os processos que in-fluenciam a localização assimétrica dos órgãos internos, associados a esta doen-ça. De vídeos obtidos por microscopia de alta velocidade do interior da vesí-cula de Kupffer foram analisados 32 cílios, sendo 8 normais e os restantes cílios pertencentes a três alterações genéticas diferentes: subexpressão de Pkd2, so-brexpressão de Arl13b e mutação no gene deltaD. Para cada cílio calculou-se a frequência de batimento e caracterizou-se quantitativamente o movimento. Esta última análise teve como base a segmentação manual do cílio em quatro pontos definindo a base, o meio e a ponta. De seguida, estudou-se a dinâmica de cada uma das rectas constituídas por estas três estruturas ao longo do tempo. Com recurso à análise estatística ANOVA podemos comprovar diferenças no movi-mento entre os cílios alterados quando comparados com os normais. A análise da frequência demonstrou que todos os cílios estudados possu-em uma frequência média 34,9 Hz. Demonstrou-se ainda que, quando compa-rados com cílios normais, os cílios Pkd2 possuem um movimento 60% mais rí-gido, os Alr13b são caracterizados por amplitudes angulares 26% superiores no seu movimento e, por fim, a relação entre as amplitudes base/meio é 23% supe-rior nos cílios Delta D. Para implementar estes estudos, desenvolveu-se uma ferramenta baseada num plugin para ImageJ conjuntamente com códigos em R, que poderá vir a ser utilizada em investigações da discinesia ciliar primária em peixes-zebra.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The pavement recycling allows to reuse reclaimed asphalt pavement (RAP) or other waste materials in new asphalt mixtures for road construction or rehabilitation, thus re-ducing the use of virgin materials (aggregates and bitumen). Thus, the main aim of this study is to minimize the use of natural resources through the reuse of three waste materials: HDPE, mo-tor oil and RAP. Different amounts of waste motor oil and HDPE were added to an asphalt binder with 50% aged bitumen. The best solutions to produce the modified binders (4.5 to 5.0% HDPE and 10 % waste motor oil) performed as well as a conventional bitumen although they only used 35 % of virgin bitumen. Asphalt mixtures with 50 % RAP were produced with the selected modified binders, improving some characteristics in comparison with conventional asphalt mixtures. In conclusion, these wastes can revive in new asphalt mixtures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work was supported by FCT (Fundação para a Ciência e Tecnologia) within Project Scope (UID/CEC/00319/2013), by LIP (Laboratório de Instrumentação e Física Experimental de Partículas) and by Project Search-ON2 (NORTE-07-0162- FEDER-000086), co-funded by the North Portugal Regional Operational Programme (ON.2 - O Novo Norte), under the National Strategic Reference Framework, through the European Regional Development Fund.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de mestrado integrado em Engenharia de Gestão e Sistemas de Informação

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En aquest treball es realitza una descripció dels llenguatges que constitueixen la base de la construcció de la Web Semàntica: l'XML, l'RDF i l'OWL. En concret, es realitza un estudi de la base de dades lèxica WordNet. Finalment, es presenta el disseny i la implementació d'una ontologia per representar les relacions lèxiques dels mots del català. A partir d'aquesta ontologia es crea una petita base de dades basada en la temàtica dels animals de companyia. Aquest cas pràctic permet extreure conclusions sobre els avantatges d'introduir metadades en els documents electrònics, i sobre les facilitats que ofereixen les aplicacions actuals pel desenvolupament d'aquest tipus de documents.