994 resultados para Machine-readable Library Cataloguing


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se describe la evolución del proyecto MIAR (Matriu d'Informació per l'Avaluació de Revistes), un sistema originalmente diseñado para cuantificar la indización en bases de datos de revistas de humanidades y ciencias sociales. Sin embargo, a la vista del panorama de recursos de evaluación actualmente disponibles en España, los autores plantean la transformación de MIAR hacia un portal colaborativo en el que todos los interesados puedan difundir las principales características de las revistas en las que participan directa o indirectamente. Se estudia una transformación del proyecto contemplando el uso de redes sociales, sistemas de votación y de sugerencia, y la aplicación de tecnologías como open linked data que permiten una mayor difusión y socialización de los datos recogidos para cada publicación. De esta manera los datos podrían ser mejor aprovechados por los tres colectivos más directamente interesados: evaluadores, editores y autores/lectores.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante los últimos cinco años hemos visto cómo las bibliotecas universitarias y también las de investigación han aumentado el número de revistas electrónicas en su fondo bibliográfico, ya sea como complemento a las impresas o bien para reemplazarlas. Por su naturaleza, las publicaciones electrónicas representan retos para los sistemas existentes: tanto las editoriales como las bibliotecas se ven condicionadas por los procedimientos y procesos que reinaban en el entorno del papel impreso. Por ejemplo, las primeras siguen editando títulos según el patrón tradicional de recopilaciones de artículos, y las bibliotecas se esfuerzan para adaptar sus presupuestos y operaciones para la integración de suscripciones electrónicas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se presentan los principales tipos de productos para el acceso a la información científica junto con sus rasgos diferenciales en cuanto a los contenidos analizados, la técnica utilizada (asignación y recolección de metadatos, indización o búsqueda federada) y los resultados ofrecidos. Los productos considerados son los siguientes: bases de datos bibliográficas, portales de revistas, repositorios, motores de búsqueda académicos, recolectores, metabuscadores académicos y metabuscadores de biblioteca.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Open data refers to publishing data on the web in machine-readable formats for public access. Using open data, innovative applications can be developed to facilitate people‟s lives. In this thesis, based on the open data cases (discussed in the literature review), Open Data Lappeenranta is suggested, which publishes open data related to opening hours of shops and stores in Lappeenranta City. To prove the possibility of creating Open Data Lappeenranta, the implementation of an open data system is presented in this thesis, which publishes specific data related to shops and stores (including their opening hours) on the web in standard format (JSON). The published open data is used to develop web and mobile applications to demonstrate the benefits of open data in practice. Also, the open data system provides manual and automatic interfaces which make it possible for shops and stores to maintain their own data in the system. Finally in this thesis, the completed version of Open Data Lappeenranta is proposed, which publishes open data related to other fields and businesses in Lappeenranta beyond only stores‟ data.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Poster at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we describe an interdisciplinary project in which visualization techniques were developed for and applied to scholarly work from literary studies. The aim was to bring Christof Schöch's electronic edition of Bérardier de Bataut's Essai sur le récit (1776) to the web. This edition is based on the Text Encoding Initiative's XML-based encoding scheme (TEI P5, subset TEI-Lite). This now de facto standard applies to machine-readable texts used chiefly in the humanities and social sciences. The intention of this edition is to make the edited text freely available on the web, to allow for alternative text views (here original and modern/corrected text), to ensure reader-friendly annotation and navigation, to permit on-line collaboration in encoding and annotation as well as user comments, all in an open source, generically usable, lightweight package. These aims were attained by relying on a GPL-based, public domain CMS (Drupal) and combining it with XSL-Stylesheets and Java Script.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El Virus de la Inmunodeficiencia Humana (VIH) y el Síndrome de Inmunodeficiencia Adquirida (SIDA) han tenido a lo largo de los años un comportamiento epidemiológico que muestra la tendencia al aumento, de tal forma que ha llegado a considerarse como un problema de salud pública a nivel mundial. Sin embargo los tratamientos antiretrovirales han permitido que las personas con esta infección tengan una tasa de supervivencia mayor; pero ligado a esto, se han presentado efectos secundarios tales como problemas con la memoria y el funcionamiento cognitivo de estas personas. Además se ha encontrado que las personas con VIH/SIDA tienen algunas alteraciones en su área afectiva y generalmente ven afectada su calidad de vida. Este es un estudio exploratorio descriptivo que tuvo por objeto describir la ansiedad, depresión y percepción de calidad de vida en 35 pacientes con VIH/SIDA con deterioro cognitivo leve, seleccionados por conveniencia. Se aplicaron tres cuestionarios, el BDI-II para evaluar la sintomatología depresiva; el BAI para evaluar la sintomatología ansiosa y el MOS-SF30 para evaluar la calidad de vida. Además, se realizó una entrevista semiestructurada para profundizar en la evaluación de estas tres variables. Dentro de los resultados se evidenció que todos los paciente presentan algún nivel de ansiedad y de depresión, evalúan su calidad de vida en un punto medio; ni óptima ni baja. Se discuten estos y otros resultados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los déficit neurológicos en el virus de inmunodeficiencia humana VIH, específicamente las alteraciones en el funcionamiento cognitivo, han estado presentes desde el inicio de su propagación y han sido una de las principales manifestaciones a lo largo de todas las etapas del virus. No obstante, gracias a los avances de la terapia antirretroviral se ha dado un aumento de la expectativa de vida de los pacientes, dándose de la misma manera un incremento en los déficits anteriormente mencionados. El objetivo del presente estudio es describir el perfil neuropsicológico de los pacientes con VIH y establecer si existen relaciones entre las funciones que se encuentren deterioradas, el tiempo de diagnóstico y la terapia antiretroviral. Para esto se llevo a cabo un estudio descriptivo de tipo exploratorio con el fin de medir las características de las funciones neuropsicológicas en un grupo de 24 pacientes pertenecientes al programa especial B24 del Hospital Universitario Mayor y Hospital de Barrios Unidos MÉDERI en Bogotá, Colombia. Para esto, se utilizó un protocolo de pruebas neuropsicológicas: Mini Mental StateExamination (MMSE), WAIS-III (sub-pruebas dígitos, letras y números, aritmética y semejanzas), Curva de aprendizaje auditivo verbal de Rey (RAVLT), WMS-III (sub-pruebas de recobro de historias y Localización), TMT A y B, Set Test de Isaacs, Figura Compleja de Rey y Test de Stroop. Dentro de los resultados se encontró que la medida de edad fue de 50 con un total de 19 hombres y 5 mujeres. Las funciones con mayor predominio de deterioro fueron la atención sostenida y alternante, la memoria declarativa, las funciones ejecutivas (específicamente en el control inhibitorio) y la velocidad de procesamiento, los pacientes presentan un rango de deterioro cognitivo leve (GDS 3). Se concluyó que el perfil de deterioro es mixto y que es necesario ampliar la muestra para obtener resultados más precisos en cuanto a las diferencias de acuerdo al tiempo de diagnóstico y la terapia antiretroviral.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Software representations of scenes, i.e. the modelling of objects in space, are used in many application domains. Current modelling and scene description standards focus on visualisation dimensions, and are intrinsically limited by their dependence upon their semantic interpretation and contextual application by humans. In this paper we propose the need for an open, extensible and semantically rich modelling language, which facilitates a machine-readable semantic structure. We critically review existing standards and techniques, and highlight a need for a semantically focussed scene description language. Based on this defined need we propose a preliminary solution, based on hypergraph theory, and reflect on application domains.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

With the advent of mass digitization projects, such as the Google Book Search, a peculiar shift has occurred in the way that copyright works are dealt with. Contrary to what has so far been the case, works are turned into machine-readable data to be automatically processed for various purposes without the expression of works being displayed to the public. In the Google Book Settlement Agreement, this new kind of usage is referred to as ‘non-display uses’ of digital works. The legitimacy of these uses has not yet been tested by Courts and does not comfortably fit in the current copyright doctrine, plainly because the works are not used as works but as something else, namely as data. Since non-display uses may prove to be a very lucrative market in the near future, with the potential to affect the way people use copyright works, we examine non-display uses under the prism of copyright principles to determine the boundaries of their legitimacy. Through this examination, we provide a categorization of the activities carried out under the heading of ‘non-display uses’, we examine their lawfulness under the current copyright doctrine and approach the phenomenon from the spectrum of data protection law that could apply, by analogy, to the use of copyright works as processable data.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Once you have generated a 3D model of a protein, how do you know whether it bears any resemblance to the actual structure? To determine the usefulness of 3D models of proteins, they must be assessed in terms of their quality by methods that predict their similarity to the native structure. The ModFOLD4 server is the latest version of our leading independent server for the estimation of both the global and local (per-residue) quality of 3D protein models. The server produces both machine readable and graphical output, providing users with intuitive visual reports on the quality of predicted protein tertiary structures. The ModFOLD4 server is freely available to all at: http://www.reading.ac.uk/bioinf/ModFOLD/.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The FunFOLD2 server is a new independent server that integrates our novel protein–ligand binding site and quality assessment protocols for the prediction of protein function (FN) from sequence via structure. Our guiding principles were, first, to provide a simple unified resource to make our function prediction software easily accessible to all via a simple web interface and, second, to produce integrated output for predictions that can be easily interpreted. The server provides a clean web interface so that results can be viewed on a single page and interpreted by non-experts at a glance. The output for the prediction is an image of the top predicted tertiary structure annotated to indicate putative ligand-binding site residues. The results page also includes a list of the most likely binding site residues and the types of predicted ligands and their frequencies in similar structures. The protein–ligand interactions can also be interactively visualized in 3D using the Jmol plug-in. The raw machine readable data are provided for developers, which comply with the Critical Assessment of Techniques for Protein Structure Prediction data standards for FN predictions. The FunFOLD2 webserver is freely available to all at the following web site: http://www.reading.ac.uk/bioinf/FunFOLD/FunFOLD_form_2_0.html.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Word Sense Disambiguation è un problema informatico appartenente al campo di studi del Natural Language Processing, che consiste nel determinare il senso di una parola a seconda del contesto in cui essa viene utilizzata. Se un processo del genere può apparire banale per un essere umano, può risultare d'altra parte straordinariamente complicato se si cerca di codificarlo in una serie di istruzioni esguibili da una macchina. Il primo e principale problema necessario da affrontare per farlo è quello della conoscenza: per operare una disambiguazione sui termini di un testo, un computer deve poter attingere da un lessico che sia il più possibile coerente con quello di un essere umano. Sebbene esistano altri modi di agire in questo caso, quello di creare una fonte di conoscenza machine-readable è certamente il metodo che permette di affrontare il problema in maniera più diretta. Nel corso di questa tesi si cercherà, come prima cosa, di spiegare in cosa consiste la Word Sense Disambiguation, tramite una descrizione breve ma il più possibile dettagliata del problema. Nel capitolo 1 esso viene presentato partendo da alcuni cenni storici, per poi passare alla descrizione dei componenti fondamentali da tenere in considerazione durante il lavoro. Verranno illustrati concetti ripresi in seguito, che spaziano dalla normalizzazione del testo in input fino al riassunto dei metodi di classificazione comunemente usati in questo campo. Il capitolo 2 è invece dedicato alla descrizione di BabelNet, una risorsa lessico-semantica multilingua di recente costruzione nata all'Università La Sapienza di Roma. Verranno innanzitutto descritte le due fonti da cui BabelNet attinge la propria conoscenza, WordNet e Wikipedia. In seguito saranno illustrati i passi della sua creazione, dal mapping tra le due risorse base fino alla definizione di tutte le relazioni che legano gli insiemi di termini all'interno del lessico. Infine viene proposta una serie di esperimenti che mira a mettere BabelNet su un banco di prova, prima per verificare la consistenza del suo metodo di costruzione, poi per confrontarla, in termini di prestazioni, con altri sistemi allo stato dell'arte sottoponendola a diversi task estrapolati dai SemEval, eventi internazionali dedicati alla valutazione dei problemi WSD, che definiscono di fatto gli standard di questo campo. Nel capitolo finale vengono sviluppate alcune considerazioni sulla disambiguazione, introdotte da un elenco dei principali campi applicativi del problema. Vengono in questa sede delineati i possibili sviluppi futuri della ricerca, ma anche i problemi noti e le strade recentemente intraprese per cercare di portare le prestazioni della Word Sense Disambiguation oltre i limiti finora definiti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo progetto di tesi è lo sviluppo di un sistema distribuito di acquisizione e visualizzazione interattiva di dati. Tale sistema è utilizzato al CERN (Organizzazione Europea per la Ricerca Nucleare) al fine di raccogliere i dati relativi al funzionamento dell'LHC (Large Hadron Collider, infrastruttura ove avvengono la maggior parte degli esperimenti condotti al CERN) e renderli disponibili al pubblico in tempo reale tramite una dashboard web user-friendly. L'infrastruttura sviluppata è basata su di un prototipo progettato ed implementato al CERN nel 2013. Questo prototipo è nato perché, dato che negli ultimi anni il CERN è diventato sempre più popolare presso il grande pubblico, si è sentita la necessità di rendere disponibili in tempo reale, ad un numero sempre maggiore di utenti esterni allo staff tecnico-scientifico, i dati relativi agli esperimenti effettuati e all'andamento dell'LHC. Le problematiche da affrontare per realizzare ciò riguardano sia i produttori dei dati, ovvero i dispositivi dell'LHC, sia i consumatori degli stessi, ovvero i client che vogliono accedere ai dati. Da un lato, i dispositivi di cui vogliamo esporre i dati sono sistemi critici che non devono essere sovraccaricati di richieste, che risiedono in una rete protetta ad accesso limitato ed utilizzano protocolli di comunicazione e formati dati eterogenei. Dall'altro lato, è necessario che l'accesso ai dati da parte degli utenti possa avvenire tramite un'interfaccia web (o dashboard web) ricca, interattiva, ma contemporaneamente semplice e leggera, fruibile anche da dispositivi mobili. Il sistema da noi sviluppato apporta miglioramenti significativi rispetto alle soluzioni precedentemente proposte per affrontare i problemi suddetti. In particolare presenta un'interfaccia utente costituita da diversi widget configurabili, riuitilizzabili che permettono di esportare i dati sia presentati graficamente sia in formato "machine readable". Un'alta novità introdotta è l'architettura dell'infrastruttura da noi sviluppata. Essa, dato che è basata su Hazelcast, è un'infrastruttura distribuita modulare e scalabile orizzontalmente. È infatti possibile inserire o rimuovere agenti per interfacciarsi con i dispositivi dell'LHC e web server per interfacciarsi con gli utenti in modo del tutto trasparente al sistema. Oltre a queste nuove funzionalità e possbilità, il nostro sistema, come si può leggere nella trattazione, fornisce molteplici spunti per interessanti sviluppi futuri.