989 resultados para RDF,Named Graphs,Provenance,Semantic Web,Semantics
Resumo:
International audience
Resumo:
La visibilidad de una página Web involucra el proceso de mejora de la posición del sitio en los resultados devueltos por motores de búsqueda como Google. Hay muchas empresas que compiten agresivamente para conseguir la primera posición en los motores de búsqueda más populares. Como regla general, los sitios que aparecen más arriba en los resultados suelen obtener más tráfico a sus páginas, y de esta forma, potencialmente más negocios. En este artículo se describe los principales modelos para enriquecer los resultados de las búsquedas con información tales como fechas o localidades; información de tipo clave-valor que permite al usuario interactuar con el contenido de una página Web directamente desde el sitio de resultados de la búsqueda. El aporte fundamental del artículo es mostrar la utilidad de diferentes formatos de marcado para enriquecer fragmentos de una página Web con el fin de ayudar a las empresas que están planeando implementar métodos de enriquecimiento semánticos en la estructuración de sus sitios Web.
Resumo:
Most of the existing open-source search engines, utilize keyword or tf-idf based techniques to find relevant documents and web pages relative to an input query. Although these methods, with the help of a page rank or knowledge graphs, proved to be effective in some cases, they often fail to retrieve relevant instances for more complicated queries that would require a semantic understanding to be exploited. In this Thesis, a self-supervised information retrieval system based on transformers is employed to build a semantic search engine over the library of Gruppo Maggioli company. Semantic search or search with meaning can refer to an understanding of the query, instead of simply finding words matches and, in general, it represents knowledge in a way suitable for retrieval. We chose to investigate a new self-supervised strategy to handle the training of unlabeled data based on the creation of pairs of ’artificial’ queries and the respective positive passages. We claim that by removing the reliance on labeled data, we may use the large volume of unlabeled material on the web without being limited to languages or domains where labeled data is abundant.
Resumo:
Due to both the widespread and multipurpose use of document images and the current availability of a high number of document images repositories, robust information retrieval mechanisms and systems have been increasingly demanded. This paper presents an approach to support the automatic generation of relationships among document images by exploiting Latent Semantic Indexing (LSI) and Optical Character Recognition (OCR). We developed the LinkDI (Linking of Document Images) service, which extracts and indexes document images content, computes its latent semantics, and defines relationships among images as hyperlinks. LinkDI was experimented with document images repositories, and its performance was evaluated by comparing the quality of the relationships created among textual documents as well as among their respective document images. Considering those same document images, we ran further experiments in order to compare the performance of LinkDI when it exploits or not the LSI technique. Experimental results showed that LSI can mitigate the effects of usual OCR misrecognition, which reinforces the feasibility of LinkDI relating OCR output with high degradation.
Resumo:
Introduction: Internet users are increasingly using the worldwide web to search for information relating to their health. This situation makes it necessary to create specialized tools capable of supporting users in their searches. Objective: To apply and compare strategies that were developed to investigate the use of the Portuguese version of Medical Subject Headings (MeSH) for constructing an automated classifier for Brazilian Portuguese-language web-based content within or outside of the field of healthcare, focusing on the lay public. Methods: 3658 Brazilian web pages were used to train the classifier and 606 Brazilian web pages were used to validate it. The strategies proposed were constructed using content-based vector methods for text classification, such that Naive Bayes was used for the task of classifying vector patterns with characteristics obtained through the proposed strategies. Results: A strategy named InDeCS was developed specifically to adapt MeSH for the problem that was put forward. This approach achieved better accuracy for this pattern classification task (0.94 sensitivity, specificity and area under the ROC curve). Conclusions: Because of the significant results achieved by InDeCS, this tool has been successfully applied to the Brazilian healthcare search portal known as Busca Saude. Furthermore, it could be shown that MeSH presents important results when used for the task of classifying web-based content focusing on the lay public. It was also possible to show from this study that MeSH was able to map out mutable non-deterministic characteristics of the web. (c) 2010 Elsevier Inc. All rights reserved.
Resumo:
This paper contains a new proposal for the definition of the fundamental operation of query under the Adaptive Formalism, one capable of locating functional nuclei from descriptions of their semantics. To demonstrate the method`s applicability, an implementation of the query procedure constrained to a specific class of devices is shown, and its asymptotic computational complexity is discussed.
Resumo:
Scheduling parallel and distributed applications efficiently onto grid environments is a difficult task and a great variety of scheduling heuristics has been developed aiming to address this issue. A successful grid resource allocation depends, among other things, on the quality of the available information about software artifacts and grid resources. In this article, we propose a semantic approach to integrate selection of equivalent resources and selection of equivalent software artifacts to improve the scheduling of resources suitable for a given set of application execution requirements. We also describe a prototype implementation of our approach based on the Integrade grid middleware and experimental results that illustrate its benefits. Copyright (C) 2009 John Wiley & Sons, Ltd.
Resumo:
This paper explains and explores the concept of "semantic molecules" in the NSM methodology of semantic analysis. A semantic molecule is a complex lexical meaning which functions as an intermediate unit in the structure of other, more complex concepts. The paper undertakes an overview of different kinds of semantic molecule, showing how they enter into more complex meanings and how they themselves can be explicated. It shows that four levels of "nesting" of molecules within molecules are attested, and it argues that while some molecules such as 'hands' and 'make', may well be language-universal, many others are language-specific.
Resumo:
This paper describes the emergence of new functional items in the Mauritian Creole noun phrase, following the collapse of the French determiner system when superstrate and substrate came into contact. The aim of the paper is to show how the new language strived to express the universal semantic contrasts of (in)definiteness and singular vs. plural. The process of grammaticalization of new functional items in the determiner system was accompanied by changes in the syntax from French to creole. An analysis within Chomsky’s Minimalist framework (1995, 2000, 2001) suggests that these changes were driven by the need to map semantic features onto the syntax.
Resumo:
Este estudo pretende conhecer o nível de divulgação de informação sobre responsabilidade social(RS) e analisar possíveis factores determinantes em 60 municípios portugueses. Assumindo que os municípios utilizam cada vez mais Internet como meio de comunicação com seus stakholders, a metodologia de estudo consistiu na analise de conteúdo dos websites e dos documentos disponíveis para download. com vista a determinar se para cada item de informação necessária é elaboração dos Índices de Divulgação de Informação, que permitissem medir o nível de divulgação de informação de cada município. Como forma de analisar a associação existente entre os índices de divulgação de informação criados e os potenciais factores determinantes, foram efectuados diversos testes ás hipóteses formuladas. Os resultados apontam para níveis de divulgação médios na maioria dos índices analisados. O Índice de Divulgação Total(IDT) apurado foi de 0,46. Para cada bloco de informação, o índice que apresentou um valor mais alto foi o da Informação Económica(IDE) com 0,66, seguindo-se o da Informação Social(IDS) com 0,61 e o Ambiental(IDA) com 0,36. O Índice de divulgação de informação genérica(IDG) sobre o RS foi o qeu apresentou valores mais reduzidos, 0,22. Foi efectuada uma analise univariada e bivariada que surgem vários factores como explicativos dos níveis de divulgação de informação. Da aplicação do Modelo de Regressão Linear Multiplica resulta que o IDG é influenciado pelo facto e o município implementar a Agenda 21 Local(A21L) e a pela percentagem de despesas ambientais nas despesas totais(DAMB);que apenas a elevada percentagem de despesas de licenciados(ESCOL)influência o IDE; e a localização do município(LOC, a A21L e a Carga Fiscal(FISC) tem influência no IDA e que a percentagem de habitantes com idade <19 anos e >65 anos(POPID) influencia negativamente o IDA; por ultimo e no que diz respeito ao Índice de Divulgação Total, a CARAT, a A21L, o possuir Certificação e a FISC influenciam positivamente o IDT, enquanto que a POPID influencia negativamente.
Resumo:
Os sítios Web são a face das instituições, mas há evidências de frequentemente serem pouco cuidados, sobretudo ao nível dos seus conteúdos. Nesta tese apresentamos uma investigação que desenvolve um modelo de avaliação da qualidade dos conteúdos de sítios Web de unidades de saúde. A revisão bibliográfica, realizada neste trabalho, permitiu identificar as dimensões e atributos de avaliação da qualidade de conteúdos de sítios Web mais considerados pelos diversos autores dos trabalhos mais importantes da área, mas não um modelo que, a partir deles, fosse capaz de os avaliar objetivamente. Assim, levantou-se o problema de saber se todos os atributos têm a mesma importância. Atributos mais importantes devem dar maior contributo na avaliação pretendida e o modelo a ser considerado deve refletir isso, adicionalmente a ferramenta de avaliação deveria ser intuitiva e rápida na aplicação. Para determinar a importância de cada atributo aplicou-se o Método Delphi tendo sido necessário três rondas para encontrar consenso relativamente à importância dos atributos a que se seguiu a aplicação de um conjunto de modelos estatísticos de forma a determinar uma métrica consistente e que permitisse a comparação de pontuações entre sítios web. De acordo com as questões de investigação e os objetivos definidos foi possível encontrar um modelo que fornecesse uma medida objetiva, normalizada e consistente acerca da qualidade de conteúdos de sítios web de unidades de saúde
Resumo:
Aiming for teaching/learning support in sciences and engineering areas, the Remote Experimentation concept (an E-learning subset) has grown in last years with the development of several infrastructures that enable doing practical experiments from anywhere and anytime, using a simple PC connected to the Internet. Nevertheless, given its valuable contribution to the teaching/learning process, the development of more infrastructures should continue, in order to make available more solutions able to improve courseware contents and motivate students for learning. The work presented in this paper contributes for that purpose, in the specific area of industrial automation. After a brief introduction to the Remote Experimentation concept, we describe a remote accessible lab infrastructure that enables users to conduct real experiments with an important and widely used transducer in industrial automation, named Linear Variable Differential Transformer.
Resumo:
Extracting the semantic relatedness of terms is an important topic in several areas, including data mining, information retrieval and web recommendation. This paper presents an approach for computing the semantic relatedness of terms using the knowledge base of DBpedia — a community effort to extract structured information from Wikipedia. Several approaches to extract semantic relatedness from Wikipedia using bag-of-words vector models are already available in the literature. The research presented in this paper explores a novel approach using paths on an ontological graph extracted from DBpedia. It is based on an algorithm for finding and weighting a collection of paths connecting concept nodes. This algorithm was implemented on a tool called Shakti that extract relevant ontological data for a given domain from DBpedia using its SPARQL endpoint. To validate the proposed approach Shakti was used to recommend web pages on a Portuguese social site related to alternative music and the results of that experiment are reported in this paper.
Resumo:
Nos últimos anos, o processo de ensino e aprendizagem tem sofrido significativas alterações graças ao aparecimento da Internet. Novas ferramentas para apoio ao ensino têm surgido, nas quais se destacam os laboratórios remotos. Atualmente, muitas instituições de ensino disponibilizam laboratórios remotos nos seus cursos, que permitem, a professores e alunos, a realização de experiências reais através da Internet. Estes são implementados por diferentes arquiteturas e infraestruturas, suportados por vários módulos de laboratório acessíveis remotamente (e.g. instrumentos de medição). No entanto, a sua inclusão no ensino é ainda deficitária, devido: i) à falta de meios e competências técnicas das instituições de ensino para os desenvolverem, ii) à dificuldade na partilha dos módulos de laboratório por diferentes infraestruturas e, iii) à reduzida capacidade de os reconfigurar com esses módulos. Para ultrapassar estas limitações, foi idealizado e desenvolvido no âmbito de um trabalho de doutoramento [1] um protótipo, cuja arquitetura é baseada na norma IEEE 1451.0 e na tecnologia de FPGAs. Para além de garantir o desenvolvimento e o acesso de forma normalizada a um laboratório remoto, este protótipo promove ainda a partilha de módulos de laboratório por diferentes infraestruturas. Nesse trabalho explorou-se a capacidade de reconfiguração de FPGAs para embutir na infraestrutura do laboratório vários módulos, todos descritos em ficheiros, utilizando linguagens de descrição de hardware estruturados de acordo com a norma IEEE 1451.0. A definição desses módulos obriga à criação de estruturas de dados binárias (Transducer Electronic Data Sheets, TEDSs), bem como de outros ficheiros que possibilitam a sua interligação com a infraestrutura do laboratório. No entanto, a criação destes ficheiros é bastante complexa, uma vez que exige a realização de vários cálculos e conversões. Tendo em consideração essa mesma complexidade, esta dissertação descreve o desenvolvimento de uma aplicação Web para leitura e escrita dos TEDSs. Para além de um estudo sobre os laboratórios remotos, é efetuada uma descrição da norma IEEE 1451.0, com particular atenção para a sua arquitetura e para a estrutura dos diferentes TEDSs. Com o objetivo de enquadrar a aplicação desenvolvida, efetua-se ainda uma breve apresentação de um protótipo de um laboratório remoto reconfigurável, cuja reconfiguração é apoiada por esta aplicação. Por fim, é descrita a verificação da aplicação Web, de forma a tirar conclusões sobre o seu contributo para a simplificação dessa reconfiguração.