493 resultados para Automatized Indexing
Resumo:
Se analizan los parámetros de evaluación utilizados por RedALyC, Catálogo Latindex, SciELO, Scopus y Web of Science para incorporar revistas científicas en sus colecciones, a fin de demostrar su relación con los objetivos perseguidos por cada base y debatir acerca de la valoración que la comunidad científica está otorgándoles a estos sistemas como determinantes de "calidad científica". Los indicadores utilizados se clasifican en: 1) Calidad editorial (aspectos formales o gestión editorial); 2) Calidad de contenido (revisión por pares u originalidad) y 3) Visibilidad (prestigio de editores y editorial, endogamia, uso e impacto, accesibilidad o indización). Se revela que: a) entre un 9 y un 16 se relacionan con la calidad de contenido; b) falta especificidad en sus definiciones y en la determinación de sus pesos específicos en los sistemas, y c) coinciden con los objetivos de cada base, aunque se observa una marcada tendencia hacia los relacionados con aspectos formales y visibilidad. Se deja así en evidencia que estos sistemas persiguen sus propios objetivos y que conforman núcleo de revistas de "calidad" para su público lector. Se concluye, en consecuencia, que la presencia o ausencia de una revista en estas colecciones, no es parámetro suficiente para determinar la calidad de las revistas científicas ni de sus contenidos.
Resumo:
Se realiza un análisis exploratorio del concepto de "garantía cultural", con el objetivo de caracterizar áreas futuras de investigación en torno al mismo. En primera instancia se analiza la noción genérica de 'garantía', tal como ha sido considerada en la Organización del Conocimiento. Se reseñan diversos tipos de garantías propuestas para legitimar la inclusión de terminología en sistemas de organización del conocimiento. Se cumple un análisis crítico del concepto de "cultura" y la manera en que distintas concepciones antropológicas, sociológicas y políticas confluyen en su construcción epistemológica. Se revisa y se problematiza el tratamiento de la garantía cultural en la literatura del área. Se valora su aporte en la construcción de identidades culturales, a través de elementos de diferenciación de la interpretación y la vivencia de la realidad. En particular se desarrolla la relación entre garantía cultural y cultura local. Se pondera la inserción del factor ético a través de la garantía cultura, en el desarrollo de esquemas de clasificación y en los procesos de clasificación e indización. Entre otras conclusiones, se establece la necesidad de explorar con mayor detenimiento las alternativas metodológicas que puedan sustentarse en esta concepción integradora y democratizadora en el ámbito de la Organización del Conocimiento
Resumo:
El trabajo inicia con un análisis de las obras de ficción y su tratamiento tanto para la ubicación en el estante como para su inclusión en un OPAC, evaluándose propuestas internacionales y locales implementadas en bibliotecas públicas y populares, e incluyendo a continuación una propuesta metodológica para la descripción de contenido de las obras de ficción en catálogos en línea. También se señalan los pasos seguidos para la elaboración de un tesauro de géneros de ficción, desde el diseño de la base de datos hasta la recolección, selección y control de los términos de indización y la asignación de notaciones de CDU a cada una de las entradas. El tesauro puede consultarse en su versión impresa en el Anexo de la Tesina, o bien en formato digital accediendo al CD-ROM que acompaña al documento.
Resumo:
La mejora de las capacidades de búsqueda y de las interfaces de los opacs sigue siendo uno de los principales desafíos para las bibliotecas, especialmente en lo que respecta al acceso por materias. Las interfaces visuales pueden facilitar la recuperación. El objetivo del presente trabajo es explorar si la combinación de técnicas de análisis de co-términos y de redes sociales resulta ser una metodología válida para la generación de mapas temáticos de la colección. La principal conclusión es que el método es válido, y que los mapas obtenidos podrían servir como interfaz visual para el acceso por materias. También es útil para detectar problemas en los criterios de indización y contribuir a la mejora de la calidad de la descripción temática del conjunto documental
Resumo:
Tras liderar la investigación e indización de la información por cerca de una década, el motor de búsqueda Google se ha convertido en un sistema económico que influye nuestro mundo contemporáneo, contribuyendo grandemente a la transformación de nuestro mundo en un único globo virtual. En años recientes, Google ha comenzado a ofrecer a los usuarios globales aplicaciones o software que son usados para nuestra herencia cultural. Este software se resalta aquí en su potencial, desde un punto de vista económico, cultural y turístico. Tratamos de describir lo más importante del software de Google (como Google Maps, Google Street View, Google Earth, Google SketchUp, Google Books y Google Art Project), con el mayor y más evidente impacto en los sectores culturales y turísticos. Este ensayo muestra la digitalización y promoción de la herencia cultural italiana en Google, a través de sus programas informáticos (por ejemplo, Google Street View que ha llevado al uso de vistas tridimensionales remotas de algunos de los más importantes monumentos y sitios arqueológicos de Italia; el uso de Google SketchUp ha llevado al diseño de reconstrucción tridimensional del histórico centro de la ciudad de L'Aquila, devastada luego del terremoto de abril de 2009 y nunca reconstruida), y a través de diversos programas asociados específicos con el Ministerio Italiano de Cultura
Resumo:
Se analizan los parámetros de evaluación utilizados por RedALyC, Catálogo Latindex, SciELO, Scopus y Web of Science para incorporar revistas científicas en sus colecciones, a fin de demostrar su relación con los objetivos perseguidos por cada base y debatir acerca de la valoración que la comunidad científica está otorgándoles a estos sistemas como determinantes de "calidad científica". Los indicadores utilizados se clasifican en: 1) Calidad editorial (aspectos formales o gestión editorial); 2) Calidad de contenido (revisión por pares u originalidad) y 3) Visibilidad (prestigio de editores y editorial, endogamia, uso e impacto, accesibilidad o indización). Se revela que: a) entre un 9 y un 16 se relacionan con la calidad de contenido; b) falta especificidad en sus definiciones y en la determinación de sus pesos específicos en los sistemas, y c) coinciden con los objetivos de cada base, aunque se observa una marcada tendencia hacia los relacionados con aspectos formales y visibilidad. Se deja así en evidencia que estos sistemas persiguen sus propios objetivos y que conforman núcleo de revistas de "calidad" para su público lector. Se concluye, en consecuencia, que la presencia o ausencia de una revista en estas colecciones, no es parámetro suficiente para determinar la calidad de las revistas científicas ni de sus contenidos.
Resumo:
Se realiza un análisis exploratorio del concepto de "garantía cultural", con el objetivo de caracterizar áreas futuras de investigación en torno al mismo. En primera instancia se analiza la noción genérica de 'garantía', tal como ha sido considerada en la Organización del Conocimiento. Se reseñan diversos tipos de garantías propuestas para legitimar la inclusión de terminología en sistemas de organización del conocimiento. Se cumple un análisis crítico del concepto de "cultura" y la manera en que distintas concepciones antropológicas, sociológicas y políticas confluyen en su construcción epistemológica. Se revisa y se problematiza el tratamiento de la garantía cultural en la literatura del área. Se valora su aporte en la construcción de identidades culturales, a través de elementos de diferenciación de la interpretación y la vivencia de la realidad. En particular se desarrolla la relación entre garantía cultural y cultura local. Se pondera la inserción del factor ético a través de la garantía cultura, en el desarrollo de esquemas de clasificación y en los procesos de clasificación e indización. Entre otras conclusiones, se establece la necesidad de explorar con mayor detenimiento las alternativas metodológicas que puedan sustentarse en esta concepción integradora y democratizadora en el ámbito de la Organización del Conocimiento
Resumo:
This paper presents the 2006 Miracle team’s approaches to the Ad-Hoc and Geographical Information Retrieval tasks. A first set of runs was obtained using a set of basic components. Then, by putting together special combinations of these runs, an extended set was obtained. With respect to previous campaigns some improvements have been introduced in our system: an entity recognition prototype is integrated in our tokenization scheme, and the performance of our indexing and retrieval engine has been improved. For GeoCLEF, we tested retrieving using geo-entity and textual references separately, and then combining them with different approaches.
Resumo:
This paper presents the 2005 MIRACLE team’s approach to Cross-Language Geographical Retrieval (GeoCLEF). The main goal of the GeoCLEF participation of the MIRACLE team was to test the effect that geographical information retrieval techniques have on information retrieval. The baseline approach is based on the development of named entity recognition and geospatial information retrieval tools and on its combination with linguistic techniques to carry out indexing and retrieval tasks.
Resumo:
This paper presents the 2005 Miracle’s team approach to the Ad-Hoc Information Retrieval tasks. The goal for the experiments this year was twofold: to continue testing the effect of combination approaches on information retrieval tasks, and improving our basic processing and indexing tools, adapting them to new languages with strange encoding schemes. The starting point was a set of basic components: stemming, transforming, filtering, proper nouns extraction, paragraph extraction, and pseudo-relevance feedback. Some of these basic components were used in different combinations and order of application for document indexing and for query processing. Second-order combinations were also tested, by averaging or selective combination of the documents retrieved by different approaches for a particular query. In the multilingual track, we concentrated our work on the merging process of the results of monolingual runs to get the overall multilingual result, relying on available translations. In both cross-lingual tracks, we have used available translation resources, and in some cases we have used a combination approach.
Resumo:
The main goal of the bilingual and monolingual participation of the MIRACLE team in CLEF 2004 was to test the effect of combination approaches on information retrieval. The starting point was a set of basic components: stemming, transformation, filtering, generation of n-grams, weighting and relevance feedback. Some of these basic components were used in different combinations and order of application for document indexing and for query processing. A second order combination was also tested, mainly by averaging or selective combination of the documents retrieved by different approaches for a particular query.
Resumo:
This paper describes the first set of experiments defined by the MIRACLE (Multilingual Information RetrievAl for the CLEf campaign) research group for some of the cross language tasks defined by CLEF. These experiments combine different basic techniques, linguistic-oriented and statistic-oriented, to be applied to the indexing and retrieval processes.
Resumo:
Ontologies and taxonomies are widely used to organize concepts providing the basis for activities such as indexing, and as background knowledge for NLP tasks. As such, translation of these resources would prove useful to adapt these systems to new languages. However, we show that the nature of these resources is significantly different from the "free-text" paradigm used to train most statistical machine translation systems. In particular, we see significant differences in the linguistic nature of these resources and such resources have rich additional semantics. We demonstrate that as a result of these linguistic differences, standard SMT methods, in particular evaluation metrics, can produce poor performance. We then look to the task of leveraging these semantics for translation, which we approach in three ways: by adapting the translation system to the domain of the resource; by examining if semantics can help to predict the syntactic structure used in translation; and by evaluating if we can use existing translated taxonomies to disambiguate translations. We present some early results from these experiments, which shed light on the degree of success we may have with each approach
Resumo:
We describe the datos.bne.es library dataset. The dataset makes available the authority and bibliography catalogue from the Biblioteca Nacional de España (BNE, National Library of Spain) as Linked Data. The catalogue contains around 7 million authority and bibliographic records. The records in MARC 21 format were transformed to RDF and modelled using IFLA (International Federation of Library Associations) ontologies and other well-established vocabularies such as RDA (Resource Description and Access) or the Dublin Core Metadata Element Set. A tool named MARiMbA automatized the RDF generation process and the data linkage to DBpedia and other library linked data resources such as VIAF (Virtual International Authority File) or GND (Gemeinsame Normdatei, the authority dataset from the German National Library).
Resumo:
Nowadays, Computational Fluid Dynamics (CFD) solvers are widely used within the industry to model fluid flow phenomenons. Several fluid flow model equations have been employed in the last decades to simulate and predict forces acting, for example, on different aircraft configurations. Computational time and accuracy are strongly dependent on the fluid flow model equation and the spatial dimension of the problem considered. While simple models based on perfect flows, like panel methods or potential flow models can be very fast to solve, they usually suffer from a poor accuracy in order to simulate real flows (transonic, viscous). On the other hand, more complex models such as the full Navier- Stokes equations provide high fidelity predictions but at a much higher computational cost. Thus, a good compromise between accuracy and computational time has to be fixed for engineering applications. A discretisation technique widely used within the industry is the so-called Finite Volume approach on unstructured meshes. This technique spatially discretises the flow motion equations onto a set of elements which form a mesh, a discrete representation of the continuous domain. Using this approach, for a given flow model equation, the accuracy and computational time mainly depend on the distribution of nodes forming the mesh. Therefore, a good compromise between accuracy and computational time might be obtained by carefully defining the mesh. However, defining an optimal mesh for complex flows and geometries requires a very high level expertize in fluid mechanics and numerical analysis, and in most cases a simple guess of regions of the computational domain which might affect the most the accuracy is impossible. Thus, it is desirable to have an automatized remeshing tool, which is more flexible with unstructured meshes than its structured counterpart. However, adaptive methods currently in use still have an opened question: how to efficiently drive the adaptation ? Pioneering sensors based on flow features generally suffer from a lack of reliability, so in the last decade more effort has been made in developing numerical error-based sensors, like for instance the adjoint-based adaptation sensors. While very efficient at adapting meshes for a given functional output, the latter method is very expensive as it requires to solve a dual set of equations and computes the sensor on an embedded mesh. Therefore, it would be desirable to develop a more affordable numerical error estimation method. The current work aims at estimating the truncation error, which arises when discretising a partial differential equation. These are the higher order terms neglected in the construction of the numerical scheme. The truncation error provides very useful information as it is strongly related to the flow model equation and its discretisation. On one hand, it is a very reliable measure of the quality of the mesh, therefore very useful in order to drive a mesh adaptation procedure. On the other hand, it is strongly linked to the flow model equation, so that a careful estimation actually gives information on how well a given equation is solved, which may be useful in the context of _ -extrapolation or zonal modelling. The following work is organized as follows: Chap. 1 contains a short review of mesh adaptation techniques as well as numerical error prediction. In the first section, Sec. 1.1, the basic refinement strategies are reviewed and the main contribution to structured and unstructured mesh adaptation are presented. Sec. 1.2 introduces the definitions of errors encountered when solving Computational Fluid Dynamics problems and reviews the most common approaches to predict them. Chap. 2 is devoted to the mathematical formulation of truncation error estimation in the context of finite volume methodology, as well as a complete verification procedure. Several features are studied, such as the influence of grid non-uniformities, non-linearity, boundary conditions and non-converged numerical solutions. This verification part has been submitted and accepted for publication in the Journal of Computational Physics. Chap. 3 presents a mesh adaptation algorithm based on truncation error estimates and compares the results to a feature-based and an adjoint-based sensor (in collaboration with Jorge Ponsín, INTA). Two- and three-dimensional cases relevant for validation in the aeronautical industry are considered. This part has been submitted and accepted in the AIAA Journal. An extension to Reynolds Averaged Navier- Stokes equations is also included, where _ -estimation-based mesh adaptation and _ -extrapolation are applied to viscous wing profiles. The latter has been submitted in the Proceedings of the Institution of Mechanical Engineers, Part G: Journal of Aerospace Engineering. Keywords: mesh adaptation, numerical error prediction, finite volume Hoy en día, la Dinámica de Fluidos Computacional (CFD) es ampliamente utilizada dentro de la industria para obtener información sobre fenómenos fluidos. La Dinámica de Fluidos Computacional considera distintas modelizaciones de las ecuaciones fluidas (Potencial, Euler, Navier-Stokes, etc) para simular y predecir las fuerzas que actúan, por ejemplo, sobre una configuración de aeronave. El tiempo de cálculo y la precisión en la solución depende en gran medida de los modelos utilizados, así como de la dimensión espacial del problema considerado. Mientras que modelos simples basados en flujos perfectos, como modelos de flujos potenciales, se pueden resolver rápidamente, por lo general aducen de una baja precisión a la hora de simular flujos reales (viscosos, transónicos, etc). Por otro lado, modelos más complejos tales como el conjunto de ecuaciones de Navier-Stokes proporcionan predicciones de alta fidelidad, a expensas de un coste computacional mucho más elevado. Por lo tanto, en términos de aplicaciones de ingeniería se debe fijar un buen compromiso entre precisión y tiempo de cálculo. Una técnica de discretización ampliamente utilizada en la industria es el método de los Volúmenes Finitos en mallas no estructuradas. Esta técnica discretiza espacialmente las ecuaciones del movimiento del flujo sobre un conjunto de elementos que forman una malla, una representación discreta del dominio continuo. Utilizando este enfoque, para una ecuación de flujo dado, la precisión y el tiempo computacional dependen principalmente de la distribución de los nodos que forman la malla. Por consiguiente, un buen compromiso entre precisión y tiempo de cálculo se podría obtener definiendo cuidadosamente la malla, concentrando sus elementos en aquellas zonas donde sea estrictamente necesario. Sin embargo, la definición de una malla óptima para corrientes y geometrías complejas requiere un nivel muy alto de experiencia en la mecánica de fluidos y el análisis numérico, así como un conocimiento previo de la solución. Aspecto que en la mayoría de los casos no está disponible. Por tanto, es deseable tener una herramienta que permita adaptar los elementos de malla de forma automática, acorde a la solución fluida (remallado). Esta herramienta es generalmente más flexible en mallas no estructuradas que con su homóloga estructurada. No obstante, los métodos de adaptación actualmente en uso todavía dejan una pregunta abierta: cómo conducir de manera eficiente la adaptación. Sensores pioneros basados en las características del flujo en general, adolecen de una falta de fiabilidad, por lo que en la última década se han realizado grandes esfuerzos en el desarrollo numérico de sensores basados en el error, como por ejemplo los sensores basados en el adjunto. A pesar de ser muy eficientes en la adaptación de mallas para un determinado funcional, este último método resulta muy costoso, pues requiere resolver un doble conjunto de ecuaciones: la solución y su adjunta. Por tanto, es deseable desarrollar un método numérico de estimación de error más asequible. El presente trabajo tiene como objetivo estimar el error local de truncación, que aparece cuando se discretiza una ecuación en derivadas parciales. Estos son los términos de orden superior olvidados en la construcción del esquema numérico. El error de truncación proporciona una información muy útil sobre la solución: es una medida muy fiable de la calidad de la malla, obteniendo información que permite llevar a cabo un procedimiento de adaptación de malla. Está fuertemente relacionado al modelo matemático fluido, de modo que una estimación precisa garantiza la idoneidad de dicho modelo en un campo fluido, lo que puede ser útil en el contexto de modelado zonal. Por último, permite mejorar la precisión de la solución resolviendo un nuevo sistema donde el error local actúa como término fuente (_ -extrapolación). El presenta trabajo se organiza de la siguiente manera: Cap. 1 contiene una breve reseña de las técnicas de adaptación de malla, así como de los métodos de predicción de los errores numéricos. En la primera sección, Sec. 1.1, se examinan las estrategias básicas de refinamiento y se presenta la principal contribución a la adaptación de malla estructurada y no estructurada. Sec 1.2 introduce las definiciones de los errores encontrados en la resolución de problemas de Dinámica Computacional de Fluidos y se examinan los enfoques más comunes para predecirlos. Cap. 2 está dedicado a la formulación matemática de la estimación del error de truncación en el contexto de la metodología de Volúmenes Finitos, así como a un procedimiento de verificación completo. Se estudian varias características que influyen en su estimación: la influencia de la falta de uniformidad de la malla, el efecto de las no linealidades del modelo matemático, diferentes condiciones de contorno y soluciones numéricas no convergidas. Esta parte de verificación ha sido presentada y aceptada para su publicación en el Journal of Computational Physics. Cap. 3 presenta un algoritmo de adaptación de malla basado en la estimación del error de truncación y compara los resultados con sensores de featured-based y adjointbased (en colaboración con Jorge Ponsín del INTA). Se consideran casos en dos y tres dimensiones, relevantes para la validación en la industria aeronáutica. Este trabajo ha sido presentado y aceptado en el AIAA Journal. También se incluye una extensión de estos métodos a las ecuaciones RANS (Reynolds Average Navier- Stokes), en donde adaptación de malla basada en _ y _ -extrapolación son aplicados a perfiles con viscosidad de alas. Este último trabajo se ha presentado en los Actas de la Institución de Ingenieros Mecánicos, Parte G: Journal of Aerospace Engineering. Palabras clave: adaptación de malla, predicción del error numérico, volúmenes finitos