924 resultados para Information Retrieval, Document Databases, Digital Libraries
Resumo:
La mejora de las capacidades de búsqueda y de las interfaces de los opacs sigue siendo uno de los principales desafíos para las bibliotecas, especialmente en lo que respecta al acceso por materias. Las interfaces visuales pueden facilitar la recuperación. El objetivo del presente trabajo es explorar si la combinación de técnicas de análisis de co-términos y de redes sociales resulta ser una metodología válida para la generación de mapas temáticos de la colección. La principal conclusión es que el método es válido, y que los mapas obtenidos podrían servir como interfaz visual para el acceso por materias. También es útil para detectar problemas en los criterios de indización y contribuir a la mejora de la calidad de la descripción temática del conjunto documental
Resumo:
Se aborda la construcción de repositorios institucionales open source con Software Greenstone. Se realiza un recorrido teórico y otro modélico desarrollando en él una aplicación práctica. El primer recorrido, que constituye el marco teórico, comprende una descripción, de: la filosofía open access (acceso abierto) y open source (código abierto) para la creación de repositorios institucionales. También abarca en líneas generales las temáticas relacionadas al protocolo OAI, el marco legal en lo que hace a la propiedad intelectual, las licencias y una aproximación a los metadatos. En el mismo recorrido se abordan aspectos teóricos de los repositorios institucionales: acepciones, beneficios, tipos, componentes intervinientes, herramientas open source para la creación de repositorios, descripción de las herramientas y finalmente, la descripción ampliada del Software Greenstone; elegido para el desarrollo modélico del repositorio institucional colocado en un demostrativo digital. El segundo recorrido, correspondiente al desarrollo modélico, incluye por un lado el modelo en sí del repositorio con el Software Greenstone; detallándose aquí uno a uno los componentes que lo conforman. Es el insumo teórico-práctico para el diseño -paso a paso- del repositorio institucional. Por otro lado, se incluye el resultado de la modelización, es decir el repositorio creado, el cual es exportado en entorno web a un soporte digital para su visibilización. El diseño del repositorio, paso a paso, constituye el núcleo sustantivo de aportes de este trabajo de tesina
Resumo:
Este trabajo descriptivo exploratorio se propone analizar la arquitectura de información (AI) de sitios Web de bibliotecas de la Universidad Nacional de La Plata (UNLP), Argentina. Se analizaron 17 bibliotecas y se aplicó una grilla para recabar 10 aspectos relevantes. Los resultados fueron: 1. Ubicación del sitio Web de la biblioteca: 9 sitios incluidos en la página principal de la facultad. 2. Etiquetado de contenidos: terminología simple, sin jergas; no hay homogeneidad entre las bibliotecas. 3. Capacidad de búsqueda: 62 por ciento positiva, 38 por ciento negativa. 4. Sistema de búsqueda: simple 43 por ciento, compleja 10 por ciento, con ayudas 10 por ciento, ninguno 38 por ciento. 5. Sistemas de navegación: globales 5 por ciento, jerárquicos 79 por ciento, locales 5 por ciento, ninguno 11 por ciento. 6. Herramientas de navegación: barras 16 por ciento, frames o marcos 30 por ciento, índices 2 por ciento, mapas de sitio 7 por ciento, menús horizontales 9 por ciento, menús verticales 35 por ciento. 7. Sindicación de contenidos RSS: 3 sitios. 8. Otros servicios: chat 7 por ciento, descarga de documentos 16 por ciento, envío de formularios 14 por ciento, instructivos 21 por ciento, links a otras páginas 23 por ciento, tutoriales 5 por ciento, otros 14 por ciento. 9. Accesibilidad Web: 1 sitio. 10. Otras observaciones: ninguna. Se concluye que el desarrollo de los sitios es dispar y se recomienda considerar pautas de AI como parte de la cooperación en la red de bibliotecas de la UNLP
Resumo:
La mejora de las capacidades de búsqueda y de las interfaces de los opacs sigue siendo uno de los principales desafíos para las bibliotecas, especialmente en lo que respecta al acceso por materias. Las interfaces visuales pueden facilitar la recuperación. El objetivo del presente trabajo es explorar si la combinación de técnicas de análisis de co-términos y de redes sociales resulta ser una metodología válida para la generación de mapas temáticos de la colección. La principal conclusión es que el método es válido, y que los mapas obtenidos podrían servir como interfaz visual para el acceso por materias. También es útil para detectar problemas en los criterios de indización y contribuir a la mejora de la calidad de la descripción temática del conjunto documental
Resumo:
Este trabajo descriptivo exploratorio se propone analizar la arquitectura de información (AI) de sitios Web de bibliotecas de la Universidad Nacional de La Plata (UNLP), Argentina. Se analizaron 17 bibliotecas y se aplicó una grilla para recabar 10 aspectos relevantes. Los resultados fueron: 1. Ubicación del sitio Web de la biblioteca: 9 sitios incluidos en la página principal de la facultad. 2. Etiquetado de contenidos: terminología simple, sin jergas; no hay homogeneidad entre las bibliotecas. 3. Capacidad de búsqueda: 62 por ciento positiva, 38 por ciento negativa. 4. Sistema de búsqueda: simple 43 por ciento, compleja 10 por ciento, con ayudas 10 por ciento, ninguno 38 por ciento. 5. Sistemas de navegación: globales 5 por ciento, jerárquicos 79 por ciento, locales 5 por ciento, ninguno 11 por ciento. 6. Herramientas de navegación: barras 16 por ciento, frames o marcos 30 por ciento, índices 2 por ciento, mapas de sitio 7 por ciento, menús horizontales 9 por ciento, menús verticales 35 por ciento. 7. Sindicación de contenidos RSS: 3 sitios. 8. Otros servicios: chat 7 por ciento, descarga de documentos 16 por ciento, envío de formularios 14 por ciento, instructivos 21 por ciento, links a otras páginas 23 por ciento, tutoriales 5 por ciento, otros 14 por ciento. 9. Accesibilidad Web: 1 sitio. 10. Otras observaciones: ninguna. Se concluye que el desarrollo de los sitios es dispar y se recomienda considerar pautas de AI como parte de la cooperación en la red de bibliotecas de la UNLP
Resumo:
La mejora de las capacidades de búsqueda y de las interfaces de los opacs sigue siendo uno de los principales desafíos para las bibliotecas, especialmente en lo que respecta al acceso por materias. Las interfaces visuales pueden facilitar la recuperación. El objetivo del presente trabajo es explorar si la combinación de técnicas de análisis de co-términos y de redes sociales resulta ser una metodología válida para la generación de mapas temáticos de la colección. La principal conclusión es que el método es válido, y que los mapas obtenidos podrían servir como interfaz visual para el acceso por materias. También es útil para detectar problemas en los criterios de indización y contribuir a la mejora de la calidad de la descripción temática del conjunto documental
Resumo:
Today's digital libraries (DLs) archive vast amounts of information in the form of text, videos, images, data measurements, etc. User access to DL content can rely on similarity between metadata elements, or similarity between the data itself (content-based similarity). We consider the problem of exploratory search in large DLs of time-oriented data. We propose a novel approach for overview-first exploration of data collections based on user-selected metadata properties. In a 2D layout representing entities of the selected property are laid out based on their similarity with respect to the underlying data content. The display is enhanced by compact summarizations of underlying data elements, and forms the basis for exploratory navigation of users in the data space. The approach is proposed as an interface for visual exploration, leading the user to discover interesting relationships between data items relying on content-based similarity between data items and their respective metadata labels. We apply the method on real data sets from the earth observation community, showing its applicability and usefulness.
Resumo:
Increasing amounts of data is collected in most areas of research and application. The degree to which this data can be accessed, analyzed, and retrieved, is a decisive in obtaining progress in fields such as scientific research or industrial production. We present a novel methodology supporting content-based retrieval and exploratory search in repositories of multivariate research data. In particular, our methods are able to describe two-dimensional functional dependencies in research data, e.g. the relationship between ination and unemployment in economics. Our basic idea is to use feature vectors based on the goodness-of-fit of a set of regression models to describe the data mathematically. We denote this approach Regressional Features and use it for content-based search and, since our approach motivates an intuitive definition of interestingness, for exploring the most interesting data. We apply our method on considerable real-world research datasets, showing the usefulness of our approach for user-centered access to research data in a Digital Library system.
Resumo:
This study provides a comprehensive summary of and guidance for using the EPO Worldwide Patent Statistical Database (PATSTAT), one of the most widely used patent databases for researchers. We highlight the three most important issues that PATSTAT users must consider when performing patent data analyses and suggest ways to deal with those issues. Although PATSTAT is chosen in this study, the issues that we discuss are also applicable to other patent databases.
Resumo:
This paper presents the 2005 Miracle’s team approach to the Ad-Hoc Information Retrieval tasks. The goal for the experiments this year was twofold: to continue testing the effect of combination approaches on information retrieval tasks, and improving our basic processing and indexing tools, adapting them to new languages with strange encoding schemes. The starting point was a set of basic components: stemming, transforming, filtering, proper nouns extraction, paragraph extraction, and pseudo-relevance feedback. Some of these basic components were used in different combinations and order of application for document indexing and for query processing. Second-order combinations were also tested, by averaging or selective combination of the documents retrieved by different approaches for a particular query. In the multilingual track, we concentrated our work on the merging process of the results of monolingual runs to get the overall multilingual result, relying on available translations. In both cross-lingual tracks, we have used available translation resources, and in some cases we have used a combination approach.
Resumo:
ImageCLEF is a pilot experiment run at CLEF 2003 for cross language image retrieval using textual captions related to image contents. In this paper, we describe the participation of the MIRACLE research team (Multilingual Information RetrievAl at CLEF), detailing the different experiments and discussing their preliminary results.
Resumo:
Collaborative filtering recommender systems contribute to alleviating the problem of information overload that exists on the Internet as a result of the mass use of Web 2.0 applications. The use of an adequate similarity measure becomes a determining factor in the quality of the prediction and recommendation results of the recommender system, as well as in its performance. In this paper, we present a memory-based collaborative filtering similarity measure that provides extremely high-quality and balanced results; these results are complemented with a low processing time (high performance), similar to the one required to execute traditional similarity metrics. The experiments have been carried out on the MovieLens and Netflix databases, using a representative set of information retrieval quality measures.
Resumo:
Over the last few decades, the ever-increasing output of scientific publications has led to new challenges to keep up to date with the literature. In the biomedical area, this growth has introduced new requirements for professionals, e.g., physicians, who have to locate the exact papers that they need for their clinical and research work amongst a huge number of publications. Against this backdrop, novel information retrieval methods are even more necessary. While web search engines are widespread in many areas, facilitating access to all kinds of information, additional tools are required to automatically link information retrieved from these engines to specific biomedical applications. In the case of clinical environments, this also means considering aspects such as patient data security and confidentiality or structured contents, e.g., electronic health records (EHRs). In this scenario, we have developed a new tool to facilitate query building to retrieve scientific literature related to EHRs. Results: We have developed CDAPubMed, an open-source web browser extension to integrate EHR features in biomedical literature retrieval approaches. Clinical users can use CDAPubMed to: (i) load patient clinical documents, i.e., EHRs based on the Health Level 7-Clinical Document Architecture Standard (HL7-CDA), (ii) identify relevant terms for scientific literature search in these documents, i.e., Medical Subject Headings (MeSH), automatically driven by the CDAPubMed configuration, which advanced users can optimize to adapt to each specific situation, and (iii) generate and launch literature search queries to a major search engine, i.e., PubMed, to retrieve citations related to the EHR under examination. Conclusions: CDAPubMed is a platform-independent tool designed to facilitate literature searching using keywords contained in specific EHRs. CDAPubMed is visually integrated, as an extension of a widespread web browser, within the standard PubMed interface. It has been tested on a public dataset of HL7-CDA documents, returning significantly fewer citations since queries are focused on characteristics identified within the EHR. For instance, compared with more than 200,000 citations retrieved by breast neoplasm, fewer than ten citations were retrieved when ten patient features were added using CDAPubMed. This is an open source tool that can be freely used for non-profit purposes and integrated with other existing systems.
Resumo:
In the domain of eScience, investigations are increasingly collaborative. Most scientific and engineering domains benefit from building on top of the outputs of other research: By sharing information to reason over and data to incorporate in the modelling task at hand. This raises the need to provide means for preserving and sharing entire eScience workflows and processes for later reuse. It is required to define which information is to be collected, create means to preserve it and approaches to enable and validate the re-execution of a preserved process. This includes and goes beyond preserving the data used in the experiments, as the process underlying its creation and use is essential. This tutorial thus provides an introduction to the problem domain and discusses solutions for the curation of eScience processes.
Resumo:
El presente proyecto describe la instalación de audio de un estudio de grabación digital musical. La finalidad de este proyecto es puramente educativa, afianzando conceptos que se han contemplado durante la carrera. La instalación tiene carácter ficticio, por lo que no tiene implementación real. Aun así, se ha intentado desarrollar con carácter profesional. El proyecto se ha dividido en varias fases de trabajo. Primeramente, se procedió a la búsqueda de información relativa a estudios de grabación, atendiendo principalmente a sus configuraciones. Paralelamente, se buscó información sobre los principales equipos dentro de un estudio de grabación y realizando un pequeño estudio de mercado. Posteriormente, se ha procedido a la elección de la configuración del equipamiento del estudio, atendiendo a las ventajas e inconvenientes de cada tipo de configuración. La tercera fase, corresponde a la elección de los equipos. Siguiendo la cadena de audio, se ha ido analizando la necesidad de cada uno de ellos. Seguidamente, se ha realizado una comparación de diferentes equipos que componen cada bloque de elección, y finalmente la selección del más apropiado junto con su justificación. En la última fase se ha realizado la interconexión de todos los equipos atendiendo a la configuración elegida en la segunda fase. Para ello, se ha llevado a cabo la implementación de una serie de tablas escritas, donde se especifica cada tipo de conexión. El proyecto ha terminado con una presentación del presupuesto, dividido en varios aparatados, y el desarrollo de las conclusiones. En ellas, se ha analizado tanto los objetivos propuestos al principio del proyecto como una valoración personal del proyecto en general. ABSTRACT. This project describes the audio installation of a digital music recording studio. The purpose of this project is purely educational, strengthening concepts that have been laid during college. The installation is fictitious and has not been implemented in a real situation. Nevertheless, it has been developed with a professional character. This project has been divided in various phases. Firstly, I proceeded to search information related to recording studios, focusing specially on their configurations. Simultaneously, I looked for information about the main digital equipment of a recording studio and performed a brief market research. Secondly, I selected the studio equipment configuration, taking care of the advantages and disadvantages of each type of configuration. The third phase corresponds to the choice of the equipment. Following the audio chain, I analyzed the need for each of them. Then, I compared the different equipment that compose each of the choice blocks and finally opt for the most appropriate with its justification. In the last phase, I interconnected all the equipment according to the chosen configuration of the second phase. For this, I implemented a series of written tables, where I specified each connection type. The Project ends with a presentation of the budget, divided into several sections, followed by the conclusion in which I analyze both the objectives of the project and my personal valuation.