930 resultados para OpenFOAM, diesel, banco di flussaggio, open source


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este proyecto es continuación de proyectos de crítica genética que se llevaron a cabo, o están en marcha en la Secretaría de Investigación de la Facultad de Humanidades de la UNaM, que tienen como objeto manuscritos de la literatura provincial. La labor de este proyecto implica una red de acuerdos teóricos, críticos y metodológicos iniciales, un rastreo e identificación de documentos en la región y la tramitación de préstamos ante poseedores actuales de los manuscritos a la que se suma lo interdisciplinario con el diálogo entre la crítica genética y la ciencia de la computación. El proyecto se propone en esta primera etapa promover tres acciones: a) desarrollar un sitio virtual -institucional que facilite el acceso en línea a archivos de escritores regionales que se vienen estudiando en la UNaM. b) hacer un relevamiento de los archivos de manuscritos que en la actualidad se encuentran diseminados, invisibles a las investigaciones para, en ese gesto, recuperarlos e incentivar su estudio. c) diseñar y construir una base de datos y un repositorio digital de manuscritos, utilizando para esta tarea software Open Source. d) sentar las bases para un estudio sobre la factibilidad de implementar un proceso de Text Mining que automatice la recuperación de información relevante, categorice los documentos y los agrupe de acuerdo a características comunes. e) Afianzar lazos institucionales con otros proyectos existentes en Argentina (UNLP) y con UNNE y la UNLa con quien ya tenemos un convenio de colaboración en Minería de datos, con Francia (CRLA-Archivos), Bélgica (UCLovaina), España (Universidad de Castilla La Mancha).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Presentado en la Conferencia BIREDIAL. Bibliotecas y Repositorios Digitales: Gestión del conocimiento, acceso abierto y visibilidad latinoamericana. Bogotá, 9 al 11 de Mayo 2011.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Presentado en IV Reunión de investigación sobre embarazo no deseado y aborto inseguro. Desafíos de salud pública en América Latina y el Caribe México, D.F., octubre 18 al 20, 2011

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La herramienta de descubrimiento que ha dado lugar al llamado catálogo de próxima generación o NextGen es una interfaz ensamblada a la base de datos del catálogo en línea, que proporciona opciones similares a las de los motores de búsqueda de la World Wide Web. Entre las características más importantes se pueden mencionar: búsqueda por palabras claves del usuario, corrección de ortografía, asociación de palabras por prefijos y sufijos, gradación por relevancia, búsqueda booleana guiada, navegación facetada, ofrecimiento de ítems relacionados, servicios personalizados como MiCuenta o MiBiblioteca, opciones de diseño, características de la Web social como etiquetado o folksonomía, inclusión de reseñas, anotaciones o calificaciones por parte de los usuarios, aportes de la producción propia, creación de grupos de interés, etc. El desafío que se presenta es repensar el catálogo de modo que contribuya a descubrir la información del modo más eficiente posible, con inclusión de resúmenes, notas de contenido o vínculo al texto completo de los documentos. Existen experiencias basadas en programas comerciales como el catálogo de las bibliotecas de la North Carolina State University (Sirsi/Dynyx + interfaz Endeca) y otras con recursos open source como la de BRAC University de Bangladesh (Koha + Vufind). Se considera que esta última experiencia puede ser de interés para las bibliotecas de nuestro medio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La herramienta de descubrimiento que ha dado lugar al llamado catálogo de próxima generación o NextGen es una interfaz ensamblada a la base de datos del catálogo en línea, que proporciona opciones similares a las de los motores de búsqueda de la World Wide Web. Entre las características más importantes se pueden mencionar: búsqueda por palabras claves del usuario, corrección de ortografía, asociación de palabras por prefijos y sufijos, gradación por relevancia, búsqueda booleana guiada, navegación facetada, ofrecimiento de ítems relacionados, servicios personalizados como MiCuenta o MiBiblioteca, opciones de diseño, características de la Web social como etiquetado o folksonomía, inclusión de reseñas, anotaciones o calificaciones por parte de los usuarios, aportes de la producción propia, creación de grupos de interés, etc. El desafío que se presenta es repensar el catálogo de modo que contribuya a descubrir la información del modo más eficiente posible, con inclusión de resúmenes, notas de contenido o vínculo al texto completo de los documentos. Existen experiencias basadas en programas comerciales como el catálogo de las bibliotecas de la North Carolina State University (Sirsi/Dynyx + interfaz Endeca) y otras con recursos open source como la de BRAC University de Bangladesh (Koha + Vufind). Se considera que esta última experiencia puede ser de interés para las bibliotecas de nuestro medio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La herramienta de descubrimiento que ha dado lugar al llamado catálogo de próxima generación o NextGen es una interfaz ensamblada a la base de datos del catálogo en línea, que proporciona opciones similares a las de los motores de búsqueda de la World Wide Web. Entre las características más importantes se pueden mencionar: búsqueda por palabras claves del usuario, corrección de ortografía, asociación de palabras por prefijos y sufijos, gradación por relevancia, búsqueda booleana guiada, navegación facetada, ofrecimiento de ítems relacionados, servicios personalizados como MiCuenta o MiBiblioteca, opciones de diseño, características de la Web social como etiquetado o folksonomía, inclusión de reseñas, anotaciones o calificaciones por parte de los usuarios, aportes de la producción propia, creación de grupos de interés, etc. El desafío que se presenta es repensar el catálogo de modo que contribuya a descubrir la información del modo más eficiente posible, con inclusión de resúmenes, notas de contenido o vínculo al texto completo de los documentos. Existen experiencias basadas en programas comerciales como el catálogo de las bibliotecas de la North Carolina State University (Sirsi/Dynyx + interfaz Endeca) y otras con recursos open source como la de BRAC University de Bangladesh (Koha + Vufind). Se considera que esta última experiencia puede ser de interés para las bibliotecas de nuestro medio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The thesis represents the first part of a reference book to the Tertiary flora of Saxony. All taxa based on leaves of angiosperms and on Ginkgo are included in this compendium. After an overview about the geological state of knowledge on the Tertiary in Saxony, phytostratigraphic concepts are introduced and a historical survey on the Tertiary paleobotanical research in Saxony is given. All plant macrofossils published from Saxonian Tertiary until end of 2013 and their sites of discovery (primary data) were recorded. This data were supplemented by additional attributes and unified through project-based M.Sc. theses. Subsequently, taxa of fossil leaves were selected, their data evaluated and brought to a consistent state of research. Data sheets for 187 out of 235 examined taxa were established for a determination atlas. Macro- and micromorphological attributes are described in this atlas and information are given about the systematic, synonymy, palaeoecology and spatial and temporal distribution. The describing part is illustrated by images and instructive drawings. The documented data were surveyed and discussed related to their quality within the literature in the result part. A bibliography of the extensive palaeobotanical literature for plant fossils of Saxony completes the work. The taxon and locality related data are implemented into an open source geographical information system (GIS) in order to visualize and to manage them effectively. For the first time, the results of this thesis implemented in the GIS allow the generation of distribution maps for the taxa of leaves of Tertiary angiospermes and Ginkgo in Saxony. Furthermore it enables to query topographical, geological and paleobotanical information about the fossil sites. A determination key was developed for the fossil material that allows a rough determination of the findings in the field. The compendium will be available for free use in a printed as well as in a digital version.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

These data are provided to allow users for reproducibility of an open source tool entitled 'automated Accumulation Threshold computation and RIparian Corridor delineation (ATRIC)'

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Software evolution, and particularly its growth, has been mainly studied at the file (also sometimes referred as module) level. In this paper we propose to move from the physical towards a level that includes semantic information by using functions or methods for measuring the evolution of a software system. We point out that use of functions-based metrics has many advantages over the use of files or lines of code. We demonstrate our approach with an empirical study of two Free/Open Source projects: a community-driven project, Apache, and a company-led project, Novell Evolution. We discovered that most functions never change; when they do their number of modifications is correlated with their size, and that very few authors who modify each; finally we show that the departure of a developer from a software project slows the evolution of the functions that she authored.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

While developing new IT products, reusability of existing components is a key aspect that can considerably improve the success rate. This fact has become even more important with the rise of the open source paradigm. However, integrating different products and technologies is not always an easy task. Different communities employ different standards and tools, and most times is not clear which dependencies a particular piece of software has. This is exacerbated by the transitive nature of these dependencies, making component integration a complicated affair. To help reducing this complexity we propose a model-based repository, capable of automatically resolve the required dependencies. This repository needs to be expandable, so new constraints can be analyzed, and also have federation support, for the integration with other sources of artifacts. The solution we propose achieves these working with OSGi components and using OSGi itself.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Interlinking text documents with Linked Open Data enables the Web of Data to be used as background knowledge within document-oriented applications such as search and faceted browsing. As a step towards interconnecting the Web of Documents with the Web of Data, we developed DBpedia Spotlight, a system for automatically annotating text documents with DBpedia URIs. DBpedia Spotlight allows users to congure the annotations to their specic needs through the DBpedia Ontology and quality measures such as prominence, topical pertinence, contextual ambiguity and disambiguation condence. We compare our approach with the state of the art in disambiguation, and evaluate our results in light of three baselines and six publicly available annotation systems, demonstrating the competitiveness of our system. DBpedia Spotlight is shared as open source and deployed as a Web Service freely available for public use.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La publicación y el uso compartido de los datos geográficos obtenidos y compartidos por usuarios nóveles o neófitos (Neo Geografía) bajo estándares Geográficos (OGC, ISO TC211) suponen una barrera infranqueable: necesidad de infraestructura (hardware, software y comunicaciones). Algunas iniciativas como OpenStreetMap (OSM), ikiMap, Tinymap, TargetMap o GeoNode hacen posible que cualquier usuario de un modo voluntario pueda compartir sus datos. Cada una de ellas adolece de ciertas limitaciones que les impide cubrir el espectro de necesidades y escalar cuando el número de usuarios del sistema crece. En este documento se presenta una solución en desarrollo, basada en Open Source, que trata de solventar algunas de las limitaciones detectadas, concretamente la escalabilidad de las soluciones basadas en GeoServer y MapServer, así como otras propias de la variedad de formatos de datos que se pueden compartir.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper introduces the experience of using videoconferencing and recording as a mechanism to support courses which need to be promoted or discontinued within the framework of the European convergence process. Our objective is to make these courses accessible as live streaming during the lessons as well as recorded lectures and associated documents available to the students as soon as the lesson has finished. The technology used has been developed in our university and it is all open source. Although this is a technical project the key is the human factor involved. The people managing the virtual sessions are students of the courses being recorded. However, they lack technical knowledge, so we had to train them in audiovisuals and enhance the usability of the videoconferencing tool and platform. The validation process is being carried out in five real scenarios at our university. During the whole period we are evaluating technical and pedagogical issues of this experience for both students and teachers to guide the future development of the service. Depending on the final results, the service of lectures recording will be available as educational resource for all of the teaching staff of our university.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Interlinking text documents with Linked Open Data enables the Web of Data to be used as background knowledge within document-oriented applications such as search and faceted browsing. As a step towards interconnecting the Web of Documents with the Web of Data, we developed DBpedia Spotlight, a system for automatically annotating text documents with DBpedia URIs. DBpedia Spotlight allows users to configure the annotations to their specific needs through the DBpedia Ontology and quality measures such as prominence, topical pertinence, contextual ambiguity and disambiguation confidence. We compare our approach with the state of the art in disambiguation, and evaluate our results in light of three baselines and six publicly available annotation systems, demonstrating the competitiveness of our system. DBpedia Spotlight is shared as open source and deployed as a Web Service freely available for public use.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Desde los inicios de la codificación de vídeo digital hasta hoy, tanto la señal de video sin comprimir de entrada al codificador como la señal de salida descomprimida del decodificador, independientemente de su resolución, uso de submuestreo en los planos de diferencia de color, etc. han tenido siempre la característica común de utilizar 8 bits para representar cada una de las muestras. De la misma manera, los estándares de codificación de vídeo imponen trabajar internamente con estos 8 bits de precisión interna al realizar operaciones con las muestras cuando aún no se han transformado al dominio de la frecuencia. Sin embargo, el estándar H.264, en gran auge hoy en día, permite en algunos de sus perfiles orientados al mundo profesional codificar vídeo con más de 8 bits por muestra. Cuando se utilizan estos perfiles, las operaciones efectuadas sobre las muestras todavía sin transformar se realizan con la misma precisión que el número de bits del vídeo de entrada al codificador. Este aumento de precisión interna tiene el potencial de permitir unas predicciones más precisas, reduciendo el residuo a codificar y aumentando la eficiencia de codificación para una tasa binaria dada. El objetivo de este Proyecto Fin de Carrera es estudiar, utilizando las medidas de calidad visual objetiva PSNR (Peak Signal to Noise Ratio, relación señal ruido de pico) y SSIM (Structural Similarity, similaridad estructural), el efecto sobre la eficiencia de codificación y el rendimiento al trabajar con una cadena de codificación/descodificación H.264 de 10 bits en comparación con una cadena tradicional de 8 bits. Para ello se utiliza el codificador de código abierto x264, capaz de codificar video de 8 y 10 bits por muestra utilizando los perfiles High, High 10, High 4:2:2 y High 4:4:4 Predictive del estándar H.264. Debido a la ausencia de herramientas adecuadas para calcular las medidas PSNR y SSIM de vídeo con más de 8 bits por muestra y un tipo de submuestreo de planos de diferencia de color distinto al 4:2:0, como parte de este proyecto se desarrolla también una aplicación de análisis en lenguaje de programación C capaz de calcular dichas medidas a partir de dos archivos de vídeo sin comprimir en formato YUV o Y4M. ABSTRACT Since the beginning of digital video compression, the uncompressed video source used as input stream to the encoder and the uncompressed decoded output stream have both used 8 bits for representing each sample, independent of resolution, chroma subsampling scheme used, etc. In the same way, video coding standards force encoders to work internally with 8 bits of internal precision when working with samples before being transformed to the frequency domain. However, the H.264 standard allows coding video with more than 8 bits per sample in some of its professionally oriented profiles. When using these profiles, all work on samples still in the spatial domain is done with the same precision the input video has. This increase in internal precision has the potential of allowing more precise predictions, reducing the residual to be encoded, and thus increasing coding efficiency for a given bitrate. The goal of this Project is to study, using PSNR (Peak Signal to Noise Ratio) and SSIM (Structural Similarity) objective video quality metrics, the effects on coding efficiency and performance caused by using an H.264 10 bit coding/decoding chain compared to a traditional 8 bit chain. In order to achieve this goal the open source x264 encoder is used, which allows encoding video with 8 and 10 bits per sample using the H.264 High, High 10, High 4:2:2 and High 4:4:4 Predictive profiles. Given that no proper tools exist for computing PSNR and SSIM values of video with more than 8 bits per sample and chroma subsampling schemes other than 4:2:0, an analysis application written in the C programming language is developed as part of this Project. This application is able to compute both metrics from two uncompressed video files in the YUV or Y4M format.