973 resultados para Interfaces de recuperación de información


Relevância:

80.00% 80.00%

Publicador:

Resumo:

La Web 2.0 ha tenido un enorme éxito gracias a la posibilidad de una interacción dinámica por parte del usuario, ya no sólo a la hora de participar en elementos colaborativos, como puedan ser los foros, sino en compartir/añadir contenido a la Web. Dos ejemplos claros de este paradigma son YouTube y Flickr. El primero hospeda la mayor parte de los vídeos que podemos encontrar en Internet, y el segundo ha creado la mayor comunidad de fotógrafos existente en la red. Ambos servicios funcionan de una forma similar, el usuario es el que aporta contenidos junto a una información asociada al mismo. Al ser comunidades internacionales, la información añadida por el usuario se realiza en diversos idiomas, por lo que la búsqueda de recursos multimedia en estos sitios es dependiente del idioma de la consulta. En este artículo, presentamos Babxel, un sistema de recuperación de información multimedia y multilingüe, nacido como proyecto de fin de carrera de Ingeniería Informática, como extensión y mejora de FlickrBabel. Babxel aprovecha la capacidad de traducción multilingüe automática para generar más resultados de búsqueda relacionado con la consulta del usuario, resultados que se obtienen de las plataformas mencionadas anteriormente.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Internet growth has provoked that information search had come to have one of the most relevant roles in the industry and to be one of the most current topics in research environments. Internet is the largest information container in history and its facility to generate new information leads to new challenges when talking about retrieving information and discern which one is more relevant than the rest. Parallel to the information growth in quantity, the way information is provided has also changed. One of these changes that has provoked more information traffic has been the emergence of social networks. We have seen how social networks can provoke more traffic than search engines themselves. We can draw conclusions that allow us to take a new approach to the information retrieval problem. Public trusts the most information coming from known contacts. In this document we will explore a possible change in classic search engines to bring them closer to the social side and adquire those social advantages.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper presents work done at Medical Minner Project on the TREC-2011 Medical Records Track. The paper proposes four models for medical information retrieval based on Lucene index approach. Our retrieval engine used an Lucen Index scheme with traditional stopping and stemming, enhanced with entity recognition software on query terms. Our aim in this first competition is to set a broader project that involves the develop of a configurable Apache Lucene-based framework that allows the rapid development of medical search facilities. Results around the track median have been achieved. In this exploratory track, we think that these results are a good beginning and encourage us for future developments.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El objeto de este artículo es conocer algunas herramientas y recursos básicos que nos puedan ayudar a resolver satisfactoriamente nuestras necesidades de información. En la primera parte de este artículo se analizan los pasos a seguir a la hora de inciar las búsquedas de información. En la segunda parte, se analizan los recursos que se ofrecen en la Biblioteca electrónica de la UPV/EHU.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

[ES] Tutorial perteneciente al curso virtual Adquisición de Habilidades en Información. NIvel I. En él se recoge los pasos a seguir para buscar y recuperar la información.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Parte de la investigación biomédica actual se encuentra centrada en el análisis de datos heterogéneos. Estos datos pueden tener distinto origen, estructura, y semántica. Gran cantidad de datos de interés para los investigadores se encuentran en bases de datos públicas, que recogen información de distintas fuentes y la ponen a disposición de la comunidad de forma gratuita. Para homogeneizar estas fuentes de datos públicas con otras de origen privado, existen diversas herramientas y técnicas que permiten automatizar los procesos de homogeneización de datos heterogéneos. El Grupo de Informática Biomédica (GIB) [1] de la Universidad Politécnica de Madrid colabora en el proyecto europeo P-medicine [2], cuya finalidad reside en el desarrollo de una infraestructura que facilite la evolución de los procedimientos médicos actuales hacia la medicina personalizada. Una de las tareas enmarcadas en el proyecto P-medicine que tiene asignado el grupo consiste en elaborar herramientas que ayuden a usuarios en el proceso de integración de datos contenidos en fuentes de información heterogéneas. Algunas de estas fuentes de información son bases de datos públicas de ámbito biomédico contenidas en la plataforma NCBI [3] (National Center for Biotechnology Information). Una de las herramientas que el grupo desarrolla para integrar fuentes de datos es Ontology Annotator. En una de sus fases, la labor del usuario consiste en recuperar información de una base de datos pública y seleccionar de forma manual los resultados relevantes. Para automatizar el proceso de búsqueda y selección de resultados relevantes, por un lado existe un gran interés en conseguir generar consultas que guíen hacia resultados lo más precisos y exactos como sea posible, por otro lado, existe un gran interés en extraer información relevante de elevadas cantidades de documentos, lo cual requiere de sistemas que analicen y ponderen los datos que caracterizan a los mismos. En el campo informático de la inteligencia artificial, dentro de la rama de la recuperación de la información, existen diversos estudios acerca de la expansión de consultas a partir de retroalimentación relevante que podrían ser de gran utilidad para dar solución a la cuestión. Estos estudios se centran en técnicas para reformular o expandir la consulta inicial utilizando como realimentación los resultados que en una primera instancia fueron relevantes para el usuario, de forma que el nuevo conjunto de resultados tenga mayor proximidad con los que el usuario realmente desea. El objetivo de este trabajo de fin de grado consiste en el estudio, implementación y experimentación de métodos que automaticen el proceso de extracción de información trascendente de documentos, utilizándola para expandir o reformular consultas. De esta forma se pretende mejorar la precisión y el ranking de los resultados asociados. Dichos métodos serán integrados en la herramienta Ontology Annotator y enfocados a la fuente de datos de PubMed [4].---ABSTRACT---Part of the current biomedical research is focused on the analysis of heterogeneous data. These data may have different origin, structure and semantics. A big quantity of interesting data is contained in public databases which gather information from different sources and make it open and free to be used by the community. In order to homogenize thise sources of public data with others which origin is private, there are some tools and techniques that allow automating the processes of integration heterogeneous data. The biomedical informatics group of the Universidad Politécnica de Madrid cooperates with the European project P-medicine which main purpose is to create an infrastructure and models to facilitate the transition from current medical practice to personalized medicine. One of the tasks of the project that the group is in charge of consists on the development of tools that will help users in the process of integrating data from diverse sources. Some of the sources are biomedical public data bases from the NCBI platform (National Center for Biotechnology Information). One of the tools in which the group is currently working on for the integration of data sources is called the Ontology Annotator. In this tool there is a phase in which the user has to retrieve information from a public data base and select the relevant data contained in it manually. For automating the process of searching and selecting data on the one hand, there is an interest in automatically generating queries that guide towards the more precise results as possible. On the other hand, there is an interest on retrieve relevant information from large quantities of documents. The solution requires systems that analyze and weigh the data allowing the localization of the relevant items. In the computer science field of the artificial intelligence, in the branch of information retrieval there are diverse studies about the query expansion from relevance feedback that could be used to solve the problem. The main purpose of this studies is to obtain a set of results that is the closer as possible to the information that the user really wants to retrieve. In order to reach this purpose different techniques are used to reformulate or expand the initial query using a feedback the results that where relevant for the user, with this method, the new set of results will have more proximity with the ones that the user really desires. The goal of this final dissertation project consists on the study, implementation and experimentation of methods that automate the process of extraction of relevant information from documents using this information to expand queries. This way, the precision and the ranking of the results associated will be improved. These methods will be integrated in the Ontology Annotator tool and will focus on the PubMed data source.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La filosofía de estos cursos es ordenar la información para sistematizarla y que esté disponible para los usuarios. El programa incluye la normalización de los procesos y los procedimientos de intercambio de la información.Para la catalogación se usan Las Reglas de Catalogación Angloamericanas, 2a ed. rev. y aunque existen paquetes computacionales para catalogar, el bibliotecólogo debe saber hacer correctamente una entrada de autor, establecer un pie de imprenta, etc., esto ningún paquete de computación lo va a realizar.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

En este último cuarto de siglo XX lo que fue apenas necesario solo hace diez años, hoy es imperioso, tratándose de la recuperación de la información. La inmensa masa de información que hoy circula en el mundo, rompe toda posibilidad humana, individual o colectiva de abarcarla, de almacenarla y lo más importante, de darla a conocer.La forma tradicional de buscar materiales para sacar información va quedando atrás, corta ante un cúmulo tan grande de bibliografía, general o especializada que hoy se publica.Las bibliotecas que no utilizan técnicas modernas para entresacar, de toda esta información la que le conviene al lector, y siguen manejando documentos con la lentitud con que se manejaron hace un siglo, están limitado el servicio, que deben ser dinámico y acorde con los tiempos que se viven, a un servicio que ya no cumple con las necesidades para las cuales fue creado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se estudió el porcentaje de recuperación, el grado de erosión y el tiempo máximo de retención de los otolitos en 13 guanayes en cautiverio. Las aves fueron alimentadas individualmente con peces enteros y frescos previamente medidos y marcados; produciendo en promedio (n=13) bolos en 55,05% de los días que duró el experimento. El 37,81% de las aves produjeron bolos con otolitos al día siguiente de haber consumido su alimento (n=2.134). En estos bolos se encontró que sólo el 14,79% de los otolitos y el 26,61 % de los cristalinos ingeridos son recuperados, variando el porcentaje de recuperación de acuerdo a la especie consumida. Se encontraron diferencias al comparar la distribución por tallas de las principales presas ingeridas con la distribución por tallas de estas especies reconstruida a partir de las longitudes o pesos de los otolitos recuperados. El 80% a 100% de los otolitos retenidos permanecen como máximo hasta tres días en el tracto digestivo del guanay, los otolitos grandes pueden permanecer hasta 9 días. La metodología que se propone permite tener una mejor aproximación de la dieta y mayor precisión al estimar el consumo de cada presa. Es posible estimar la cantidad real de alimento ingerido si se conoce el porcentaje de recuperación de los otolitos de las principales presas consumidas. Los resultados de este trabajo muestran que sin duda la información que proporcionan los bolos residuales es valiosa, pues permite conocer con gran precisión las pro­porciones en que se consumieron cada una de las presas. Sin embargo, la información sobre tallas de peces consumidos que se puede obtener a partir de los otolitos recuperados, plantea aún problemas que deben ser resueltos, en los cuales se deberá continuar investigando.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tesis (Maestría en Informática Administrativa) UANL

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tesis (Maestría en Metodología de la Ciencia) UANL

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tesis (Maestría en Ciencias de la Administración con Especialidaden Investigación de Operaciones) UANL

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tesis (Maestría en ciencias con Especialidad en Sistemas) UANL

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tesis (Maestría en Ciencias de la Administración con Especialidad en Relaciones Industriales) UANL