1000 resultados para Computadoras electrónicas digitales


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A finales del pasado septiembre de 2005 la Comisión Europea publicó una comunicación con su estrategia sobre el patrimonio impreso y gráfico europeo y las bibliotecas digitales. Esta iniciativa, i2010: digital libraries, pretende garantizar el acceso a estos recursos mediante su digitalización y puesta en línea. Además, el programa hace un llamamiento a la preservación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde 1996 varios países han llevado a cabo estrategias para garantizar el acceso permanente a la producción digital propia: las páginas web y el resto de recursos digitales publicados en internet. Estas estrategias están orientadas a asegurar en la medida de las posibilidades tecnológicas actuales a la adecuación del ciclo documental clásico a las páginas web: la compilación, el procesamiento, la preservación y el acceso permanente a la producción digital. Las bibliotecas nacionales han sido a menudo impulsoras de estas acciones y en el caso español, la Biblioteca de Catalunya (BC) ha puesto en marcha el proyecto Padicat (Patrimonio Digital de Cataluña), dedicado al archivo de la web catalana. Este artículo presenta el proyecto Padicat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se presenta el formato de libro multimedia Daisy que permite integrar texto, sonido, imágenes y vídeo de forma sincronizada y con una navegación avanzada por el texto y el audio que lo hace altamente usable para lecturas en digital. También se presenta su componente principal DTBook xml, disposición estructurada del texto que permite generar formatos alternativos. El artículo detalla las diferencias de Daisy respecto a otros audiolibros, los dispositivos de lectura existentes y su adopción en el mercado y en la enseñanza. Si se abaratan los costes de los aparatos lectores y se soluciona la gestión de derechos digitales, tiene muchas posibilidades de convertirse en estrella para editar libros digitales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La gran mayoría de los diarios digitales facilitan el acceso a la información retrospectiva mediante servicios de hemerotecas o archivos de prensa, un producto de notable interés para bibliotecas y otros servicios de información. El objetivo de este estudio es determinar cuáles son los indicadores fundamentales para la evaluación de hemerotecas digitales y, además, señalar ejemplos de buenas prácticas en España para cada uno de ellos. Se propone una relación de veintisiete indicadores agrupados en cuatro grandes apartados (aspectos generales, contenidos, sistema de consulta, y presentación de resultados), se describe cada uno de ellos y se incluye algún ejemplo de buena aplicación. Metodológicamente, se ha partido de la revisión de la bibliografía especializada en evaluación de recursos web, bases de datos y hemerotecas digitales, así como del análisis de hemerotecas de diarios de España y Catalunya. La utilización de estos indicadores puede ser de utilidad para que bibliotecas y otros servicios de información puedan orientar a sus usuarios en la consulta retrospectiva de información de prensa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con la generalización del movimiento Open Access (acceso abierto) se han desarrollado políticas de apoyo a la publicaciónen abierto de revistas científicas, y complementariamente acciones de creación de repositorios digitales. El objetivo, eneste último caso, es posibilitar que los autores depositen sus contenidos (artículos, ponencias, tesis, etc.) para que seanaccesibles en línea por parte de toda la comunidad profesional y científica. En el caso de la bibliotecología y las ciencias afines (documentación, archivística, comunicación...) el repositorio ELIS(http://eprints.rclis.org) es un magnífico ejemplo de herramienta útil realizada por y para el colectivo bibliotecario que cree en el acceso abierto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumen: El artículo analiza los problemas de accesibilidad que actualmente presentan los artículos científicos en soporte digital. El estudio se centra en los aspectos de facilidad de uso del contenido de los documentos digitales según la forma en que se publiquen, sin entrar en el estudio de los distintos sistemas de recuperación. Se analizan los dos formatos más utilizados para la publicación de artículos científicos en soporte digital: HTML y PDF, estudiando el desempeño lector en relación a la presencia de sumarios o de tablas internas o vinculadas. El estudio se ha realizado con dos colectivos: 30 sujetos ciegos, usuarios de Jaws, contactados gracias a la mediación de la Fundación ONCE, y 30 sujetos no ciegos, profesores del Departamento de Biblioteconomía y Documentación de la Universidad de Barcelona. El estudio muestra que la localización de los datos contenidos en tablas se ve facilitada en documentos HTML por la inclusión de un sumario que vincule con la tabla, así como la inclusión de tablas completas en el cuerpo del documento HTML facilita la actividad lectora por parte de los usuarios ciegos. A nivel metodológico la presente investigación aporta dos novedades relevantes respecto a la literatura existente en los estudios de usabilidad con ciegos: estudia la usabilidad del formato PDF y es un test de usabilidad cuantitativo; este último hecho dificulta su comparación con la mayoría de artículos publicados. Abstract: This paper analyses the problems of accessibility posed by scientific articles published in digital format, focusing on the ease of use of their content with respect to the form in which they are published (irrespective of the recovery system). The two most widely used formats for the publication of scientific articles in digital format, HTML and PDF, are analysed, examining reader performance in relation to the presence of contents lists or internal or linked tables. The study involved two groups: 30 blind subjects, all JAWS users, contacted through the ONCE Foundation, and 30 sighted subjects, lecturers in the Department of Librarianship and Documentation of the University of Barcelona. The results shows the location of data in tables is easier in HTML documents through the inclusion of a contents list linked to these tables. Further, the inclusion of complete tables in the body of HTML document facilitates the reading activity of blind users. At the methodological level, this work reports two novelties with respect to the existing literature on usability by blind people: it examines the usability of the PDF format, and discusses a quantitative usability test. The latter hinders comparison with the majority of published articles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El pasado mes de junio se celebró en Pittsburgh, EE.UU., el duodécimo simposio internacional sobre tesis electrónicas: Electronic Thesis and Dissertations Conference (ETD2009). Fue organizado por Networked Digital Library of Theses and Dissertations (NDLTD). La mayoría de los ponentes explicaron las experiencias de su propia universidad. Además, hubo expertos invitados entre los cuales se pueden destacar Stevan Harnad (Univ. Southampton), Karla Hahn (Association of Research Libraries) y Deanna Marcum (Library of Congress). Estos simposios pretenden promover la adopción, creación, uso, difusión y preservación de las tesis electrónicas. De hecho, el éxito ha sido tal, que algunas universidades ya prescinden de la copia en papel para el depósito y preservación del documento. Un caso reciente es el de la University of Albany cuya nueva política, anunciada durante el simposio, consiste en que a partir de setiembre del 2009 ya no requiere el depósito de una copia impresa de las tesis aprobadas en aquella universidad.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The projects dealing with e-government are currently the principal factor in instigating the changes taking place within the public administration. This change, which is considered unstoppable, has important implications regarding the management and conservation of administrative documents generated by electronic transactions. This article analyses the methodological, legal and cultural challenges that come about when the archives paradigm is included within e-government projects and also the consequences that this may have on the archives themselves. In conclusion the author proposes a set of methodological solutions for identifying those electronic documents with evidential value, determining their life cycle, defining a preservation policy and creating a digital archive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El estudio analiza, a partir de una prueba experimental, los problemas de accesibilidad que actualmente presenta la información científica en formato digital, más concretamente los artículos científicos en soporte digital que actualmente se pueden consultar a través de los portales de acceso a las revistas electrónicas y en los repositorios abiertos ("open access") de literatura científica. El estudio se centra en los aspectos de facilidad de uso del contenido de los documentos, sin entrar en la observación de los distintos sistemas de recuperación.Se han analizado los dos formatos más utilizados para la publicación de artículos científicos en soporte digital: HTML y PDF, estudiando la variabilidad interna que representa la presencia de sumarios o de tablas de datos internas o vinculadas.Esta investigación se ha realizado a partir del trabajo experimental con dos colectivos: sujetos ciegos y sujetos no ciegos. El primer grupo se ha concretado en 30 sujetos ciegos que han colaborado de forma voluntaria y que han sido contactados gracias a la mediación de la Fundación ONCE. El segundo grupo se ha concretado en 30 profesores del Departamento de Biblioteconomía y Documentación de la Universidad de Barcelona.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recognition and identification processes for deceased persons. Determining the identity of deceased persons is a routine task performed essentially by police departments and forensic experts. This thesis highlights the processes necessary for the proper and transparent determination of the civil identities of deceased persons. The identity of a person is defined as the establishment of a link between that person ("the source") and information pertaining to the same individual ("identifiers"). Various identity forms could emerge, depending on the nature of the identifiers. There are two distinct types of identity, namely civil identity and biological identity. The paper examines four processes: identification by witnesses (the recognition process) and comparisons of fingerprints, dental data and DNA profiles (the identification processes). During the recognition process, the memory function is examined and helps to clarify circumstances that may give rise to errors. To make the process more rigorous, a body presentation procedure is proposed to investigators. Before examining the other processes, three general concepts specific to forensic science are considered with regard to the identification of a deceased person, namely, matter divisibility (Inman and Rudin), transfer (Locard) and uniqueness (Kirk). These concepts can be applied to the task at hand, although some require a slightly broader scope of application. A cross comparison of common forensic fields and the identification of deceased persons reveals certain differences, including 1 - reverse positioning of the source (i.e. the source is not sought from traces, but rather the identifiers are obtained from the source); 2 - the need for civil identity determination in addition to the individualisation stage; and 3 - a more restricted population (closed set), rather than an open one. For fingerprints, dental and DNA data, intravariability and intervariability are examined, as well as changes in these post mortem (PM) identifiers. Ante-mortem identifiers (AM) are located and AM-PM comparisons made. For DNA, it has been shown that direct identifiers (taken from a person whose civil identity has been alleged) tend to lead to determining civil identity whereas indirect identifiers (obtained from a close relative) direct towards a determination of biological identity. For each process, a Bayesian model is presented which includes sources of uncertainty deemed to be relevant. The results of the different processes combine to structure and summarise an overall outcome and a methodology. The modelling of dental data presents a specific difficulty with respect to intravariability, which in itself is not quantifiable. The concept of "validity" is, therefore, suggested as a possible solution to the problem. Validity uses various parameters that have an acknowledged impact on teeth intravariability. In cases where identifying deceased persons proves to be extremely difficult due to the limited discrimination of certain procedures, the use of a Bayesian approach is of great value in bringing a transparent and synthetic value. RESUME : Titre: Processus de reconnaissance et d'identification de personnes décédées. L'individualisation de personnes décédées est une tâche courante partagée principalement par des services de police, des odontologues et des laboratoires de génétique. L'objectif de cette recherche est de présenter des processus pour déterminer valablement, avec une incertitude maîtrisée, les identités civiles de personnes décédées. La notion d'identité est examinée en premier lieu. L'identité d'une personne est définie comme l'établissement d'un lien entre cette personne et des informations la concernant. Les informations en question sont désignées par le terme d'identifiants. Deux formes distinctes d'identité sont retenues: l'identité civile et l'identité biologique. Quatre processus principaux sont examinés: celui du témoignage et ceux impliquant les comparaisons d'empreintes digitales, de données dentaires et de profils d'ADN. Concernant le processus de reconnaissance, le mode de fonctionnement de la mémoire est examiné, démarche qui permet de désigner les paramètres pouvant conduire à des erreurs. Dans le but d'apporter un cadre rigoureux à ce processus, une procédure de présentation d'un corps est proposée à l'intention des enquêteurs. Avant d'entreprendre l'examen des autres processus, les concepts généraux propres aux domaines forensiques sont examinés sous l'angle particulier de l'identification de personnes décédées: la divisibilité de la matière (Inman et Rudin), le transfert (Locard) et l'unicité (Kirk). Il est constaté que ces concepts peuvent être appliqués, certains nécessitant toutefois un léger élargissement de leurs principes. Une comparaison croisée entre les domaines forensiques habituels et l'identification de personnes décédées montre des différences telles qu'un positionnement inversé de la source (la source n'est plus à rechercher en partant de traces, mais ce sont des identifiants qui sont recherchés en partant de la source), la nécessité de devoir déterminer une identité civile en plus de procéder à une individualisation ou encore une population d'intérêt limitée plutôt qu'ouverte. Pour les empreintes digitales, les dents et l'ADN, l'intra puis l'inter-variabilité sont examinées, de même que leurs modifications post-mortem (PM), la localisation des identifiants ante-mortem (AM) et les comparaisons AM-PM. Pour l'ADN, il est démontré que les identifiants directs (provenant de la personne dont l'identité civile est supposée) tendent à déterminer une identité civile alors que les identifiants indirects (provenant d'un proche parent) tendent à déterminer une identité biologique. Puis une synthèse des résultats provenant des différents processus est réalisée grâce à des modélisations bayesiennes. Pour chaque processus, une modélisation est présentée, modélisation intégrant les paramètres reconnus comme pertinents. À ce stade, une difficulté apparaît: celle de quantifier l'intra-variabilité dentaire pour laquelle il n'existe pas de règle précise. La solution préconisée est celle d'intégrer un concept de validité qui intègre divers paramètres ayant un impact connu sur l'intra-variabilité. La possibilité de formuler une valeur de synthèse par l'approche bayesienne s'avère d'une aide précieuse dans des cas très difficiles pour lesquels chacun des processus est limité en termes de potentiel discriminant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hace un par de años poca gente conocía las licencias Creative Commons, pero actualmente este término empieza a ser asociado a un estándar de licencias para obras digitales libres en la red, de la misma manera que las licencias del proyecto GNU (GPL, LGPL)2 se asocian a un estándar para el software libre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Frente a los discursos que anuncian el final de la lectura y la muerte del lector, hay razones para pensar que la lectura va a ser también en la sociedad de la información uno de los instrumentos fundamentales para comunicarnos, pensar, aprender y atribuir sentido a las experiencias propias y ajenas. Sin embargo, hay también pocas dudas de que en este nuevo escenario, y de la mano sobre todo de las tecnologías digitales de la información y la comunicación y los textos electrónicos, se están produciendo cambios importantes en la definición del texto, del autor, del lector, de los modos de leer y de las prácticas de lectura. El concepto mismo de alfabetismo, de lo que significa estar alfabetizado en la cultura escrita, está en proceso de cambio y transformación. Por una parte, el concepto de alfabetismo se expande y, al lado de la alfabetización relativa a la cultura letrada, empiezan a tomar cuerpo otros alfabetismos relacionados con la cultura tecnológica y demás elementos característicos de la sociedad de la información. Por otra parte, junto con esta expansión o ensanchamiento del concepto, se produce una transformación de lo que significa y exige el hecho de estar alfabetizado en la cultura letrada. Internet y los textos electrónicos modifican los elementos básicos que intervienen en los procesos de lectura comprensiva. Ahora bien, la emergencia de nuevos alfabetismos, así como los conocimientos y habilidades que plantea la exigencia del alfabetismo en los textos electrónicos, comporta inexorablemente el riesgo de sus correspondientes analfabetismos. Este riesgo es tanto mayor cuanto que la realidad sobre la que se proyectan estas necesidades de alfabetización sigue estando marcada por graves carencias en el dominio y las prácticas de la lectura entre amplios sectores de la población.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Por medio de técnicas de tratamiento de imágenes digitales se realiza un estudio de los efectos producidos por una inundación ocurrida a finales del año 1982 en el valle del río Segre, en Catalunya, a partir de la información multiespectral captada por el sensor TM del satélite LANDSAT-4. Utilizando un programa de clasificación no supervisada basado en la distancia euclídea, se diferencian cuatro tipos de suelo o de cubiertas en el rea de estudio (3.8 x 2.3 km). Se efecta un análisis cuantitativo de la calidad de los resultados, usando como referencia la información obtenida en un estudio de campo. Este análisis muestra un alto grado de correspondencia entre el mapa de campo (verdad terreno) y la cartografía realizada a partir de los datos multiespectrales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo del artículo se dirige a describir la transformación de las bibliotecas escolares en CREA (Centros de Recursos para la Enseñanza y Aprendizaje), como modo de cumplir una función eficaz en la Educación para la Sociedad del Conocimiento. El estudio se realiza en el caso español, por lo que se aborda el desarrollo legislativo para comprender la situación actual de las bibliotecas escolares en España, como un estado del arte, para presentar luego el modelo teórico, la definición y aspectos organizativos del CREA. El gran reto es la conversión de la biblioteca escolar en una biblioteca digital educativa, por lo que el artículo analiza las disfunciones de la biblioteca escolar en los nuevos entornos tecnológicos, los problemas que se plantean en la transformación, los elementos sobre los que descansará la transformación, para finalmente presentar una propuesta de los instrumentos actualmente existentes y eficaces para la gestión de contenidos digitales educativos y la organización del conocimiento en la biblioteca digital educativa que será el CREA.