978 resultados para digital didactic resources
Resumo:
The concept of digital sustainability is mentioned in research on digital preservation as well as on openness topics. Both streams of literature point out the necessary discussion how to create, use, and regulate digital resources in order to maximize their value for our society today and in the future. This paper therefore reviews current work on digital sustainability, presents a list of six charac-teristics how to define digitally sustainable goods, and draws the link to aspects of e-government.
Resumo:
The Sustainable Development Goals (SDGs) present the new global agenda by the United Nations for the next 15 years from 2016 to 2030. In this research paper we examine how digital resources may contribute to the achievement of the SDGs. Based on a broad literature review we argue functional digital sustainability supports the SDGs while discrete digital sustainability is required to create and progress knowledge necessary to advance the SDGs. First we explain the perspectives of functional and discrete sustainability; secondly we map the two perspectives onto the 17 SDGs with examples incorporating both perspectives of digital sustainability. We conclude that digital sustainability should encompass both perspectives in order to exploit the full potential of information systems in regard to sustainability transformations.
Resumo:
A three-level satellite to ground monitoring scheme for conservation easement monitoring has been implemented in which high-resolution imagery serves as an intermediate step for inspecting high priority sites. A digital vertical aerial camera system was developed to fulfill the need for an economical source of imagery for this intermediate step. A method for attaching the camera system to small aircraft was designed, and the camera system was calibrated and tested. To ensure that the images obtained were of suitable quality for use in Level 2 inspections, rectified imagery was required to provide positional accuracy of 5 meters or less to be comparable to current commercially available high-resolution satellite imagery. Focal length calibration was performed to discover the infinity focal length at two lens settings (24mm and 35mm) with a precision of O.1mm. Known focal length is required for creation of navigation points representing locations to be photographed (waypoints). Photographing an object of known size at distances on a test range allowed estimates of focal lengths of 25.lmm and 35.4mm for the 24mm and 35mm lens settings, respectively. Constants required for distortion removal procedures were obtained using analytical plumb-line calibration procedures for both lens settings, with mild distortion at the 24mm setting and virtually no distortion found at the 35mm setting. The system was designed to operate in a series of stages: mission planning, mission execution, and post-mission processing. During mission planning, waypoints were created using custom tools in geographic information system (GIs) software. During mission execution, the camera is connected to a laptop computer with a global positioning system (GPS) receiver attached. Customized mobile GIs software accepts position information from the GPS receiver, provides information for navigation, and automatically triggers the camera upon reaching the desired location. Post-mission processing (rectification) of imagery for removal of lens distortion effects, correction of imagery for horizontal displacement due to terrain variations (relief displacement), and relating the images to ground coordinates were performed with no more than a second-order polynomial warping function. Accuracy testing was performed to verify the positional accuracy capabilities of the system in an ideal-case scenario as well as a real-world case. Using many welldistributed and highly accurate control points on flat terrain, the rectified images yielded median positional accuracy of 0.3 meters. Imagery captured over commercial forestland with varying terrain in eastern Maine, rectified to digital orthophoto quadrangles, yielded median positional accuracies of 2.3 meters with accuracies of 3.1 meters or better in 75 percent of measurements made. These accuracies were well within performance requirements. The images from the digital camera system are of high quality, displaying significant detail at common flying heights. At common flying heights the ground resolution of the camera system ranges between 0.07 meters and 0.67 meters per pixel, satisfying the requirement that imagery be of comparable resolution to current highresolution satellite imagery. Due to the high resolution of the imagery, the positional accuracy attainable, and the convenience with which it is operated, the digital aerial camera system developed is a potentially cost-effective solution for use in the intermediate step of a satellite to ground conservation easement monitoring scheme.
Resumo:
With the increasing expectation of information searchers for all information to be available online, digital projects are growing in number and importance. These projects allow libraries to become producers, if not of content, then of new accessibility options for their patrons. One librarian’s experience in the development and coordination of a digital project in an academic setting is presented, in order to demonstrate potential best practices for similar projects. Selection, coordination, standards, outsourcing, and funding of projects are all discussed. It is possible relatively quickly and inexpensively to produce a useful, quality digital project.
Resumo:
http://lib.dr.iastate.edu/libaccess_workshops/1000/thumbnail.jpg
Resumo:
El interés por preservar y difundir digitalmente los materiales de autores destacados de la cultura de un país es un buen motivo de reunión de investigadores humanistas y Bibliotecas universitarias. A partir del ejemplo de gestación del proyecto Archivo ARCAS de fuentes primarias de autores destacados, se muestra la riqueza de interacciones posibles en un escenario marcado por la sinergia que produce el desarrollo de proyectos conjuntos. Se exponen los antecedentes y se presentan los actores intervinientes. Se detallan las principales decisiones que la FaHCE (UNLP) / IdIHCS (UNLP-CONICET) y su Biblioteca han debido tomar teniendo en cuenta su organización, la disponibilidad de recursos humanos y la base tecnológica existente para que el proyecto pueda prosperar. Luego, a un nivel más técnico, se consignan las principales características del prototipo generado y de su primera fase de implementación. Finalmente, se concluye enunciando los desafíos a futuro que el proyecto demandará, considerando la construcción de una plataforma integrada de fuentes primarias que contemple las necesidades de grupos de investigación con perfiles heterogéneos
Resumo:
En el presente trabajo se intentará desarrollar un análisis en torno a la potencialidad de incluir en la formación de futuros docentes e investigadores de historia lo que podemos denominar educación con medios y educación en medios. Esto, por un lado, consistiría en la introducción didáctica de tecnologías de información-comunicación -entendiendo por ello la importancia vital para nuestro oficio de apropiarse de herramientas que posibiliten el trabajo con fuentes de diversa índole y en diferentes soportes- y, por otro lado, la realización en el espacio del aula de una historización que problematice y contextualice los espacios de producción y circulación de dichas tecnologías en el sistema capitalista posterior a la crisis económica mundial de la década del 70. En una primera instancia, se hará una revisión de la génesis de esta fase para luego reflexionar respecto de casos concretos dentro del ámbito universitario local que proponen construcciones colaborativas de contenidos, con empleo de edición de imagen y sonido digital, vinculación dentro de redes sociales, socialización de conocimiento. Se postula la posibilidad de que estas prácticas supongan elementos que obturen los fundamentos restrictivos del capitalismo cognitivo
Resumo:
En el presente trabajo se intentará desarrollar un análisis en torno a la potencialidad de incluir en la formación de futuros docentes e investigadores de historia lo que podemos denominar educación con medios y educación en medios. Esto, por un lado, consistiría en la introducción didáctica de tecnologías de información-comunicación -entendiendo por ello la importancia vital para nuestro oficio de apropiarse de herramientas que posibiliten el trabajo con fuentes de diversa índole y en diferentes soportes- y, por otro lado, la realización en el espacio del aula de una historización que problematice y contextualice los espacios de producción y circulación de dichas tecnologías en el sistema capitalista posterior a la crisis económica mundial de la década del 70. En una primera instancia, se hará una revisión de la génesis de esta fase para luego reflexionar respecto de casos concretos dentro del ámbito universitario local que proponen construcciones colaborativas de contenidos, con empleo de edición de imagen y sonido digital, vinculación dentro de redes sociales, socialización de conocimiento. Se postula la posibilidad de que estas prácticas supongan elementos que obturen los fundamentos restrictivos del capitalismo cognitivo
Resumo:
El interés por preservar y difundir digitalmente los materiales de autores destacados de la cultura de un país es un buen motivo de reunión de investigadores humanistas y Bibliotecas universitarias. A partir del ejemplo de gestación del proyecto Archivo ARCAS de fuentes primarias de autores destacados, se muestra la riqueza de interacciones posibles en un escenario marcado por la sinergia que produce el desarrollo de proyectos conjuntos. Se exponen los antecedentes y se presentan los actores intervinientes. Se detallan las principales decisiones que la FaHCE (UNLP) / IdIHCS (UNLP-CONICET) y su Biblioteca han debido tomar teniendo en cuenta su organización, la disponibilidad de recursos humanos y la base tecnológica existente para que el proyecto pueda prosperar. Luego, a un nivel más técnico, se consignan las principales características del prototipo generado y de su primera fase de implementación. Finalmente, se concluye enunciando los desafíos a futuro que el proyecto demandará, considerando la construcción de una plataforma integrada de fuentes primarias que contemple las necesidades de grupos de investigación con perfiles heterogéneos
Resumo:
En el presente trabajo se intentará desarrollar un análisis en torno a la potencialidad de incluir en la formación de futuros docentes e investigadores de historia lo que podemos denominar educación con medios y educación en medios. Esto, por un lado, consistiría en la introducción didáctica de tecnologías de información-comunicación -entendiendo por ello la importancia vital para nuestro oficio de apropiarse de herramientas que posibiliten el trabajo con fuentes de diversa índole y en diferentes soportes- y, por otro lado, la realización en el espacio del aula de una historización que problematice y contextualice los espacios de producción y circulación de dichas tecnologías en el sistema capitalista posterior a la crisis económica mundial de la década del 70. En una primera instancia, se hará una revisión de la génesis de esta fase para luego reflexionar respecto de casos concretos dentro del ámbito universitario local que proponen construcciones colaborativas de contenidos, con empleo de edición de imagen y sonido digital, vinculación dentro de redes sociales, socialización de conocimiento. Se postula la posibilidad de que estas prácticas supongan elementos que obturen los fundamentos restrictivos del capitalismo cognitivo
Resumo:
El interés por preservar y difundir digitalmente los materiales de autores destacados de la cultura de un país es un buen motivo de reunión de investigadores humanistas y Bibliotecas universitarias. A partir del ejemplo de gestación del proyecto Archivo ARCAS de fuentes primarias de autores destacados, se muestra la riqueza de interacciones posibles en un escenario marcado por la sinergia que produce el desarrollo de proyectos conjuntos. Se exponen los antecedentes y se presentan los actores intervinientes. Se detallan las principales decisiones que la FaHCE (UNLP) / IdIHCS (UNLP-CONICET) y su Biblioteca han debido tomar teniendo en cuenta su organización, la disponibilidad de recursos humanos y la base tecnológica existente para que el proyecto pueda prosperar. Luego, a un nivel más técnico, se consignan las principales características del prototipo generado y de su primera fase de implementación. Finalmente, se concluye enunciando los desafíos a futuro que el proyecto demandará, considerando la construcción de una plataforma integrada de fuentes primarias que contemple las necesidades de grupos de investigación con perfiles heterogéneos
Resumo:
Technological and environmental problems related to ore processing are a serious limitation for sustainable development of mineral resources, particularly for countries / companies rich in ores, but with little access to sophisticated technology, e.g. in Latin America. Digital image analysis (DIA) can provide a simple, unexpensive and broadly applicable methodology to assess these problems, but this methodology has to be carefully defined, to produce reproducible and relevant information.
Resumo:
Abstract The creation of atlases, or digital models where information from different subjects can be combined, is a field of increasing interest in biomedical imaging. When a single image does not contain enough information to appropriately describe the organism under study, it is then necessary to acquire images of several individuals, each of them containing complementary data with respect to the rest of the components in the cohort. This approach allows creating digital prototypes, ranging from anatomical atlases of human patients and organs, obtained for instance from Magnetic Resonance Imaging, to gene expression cartographies of embryo development, typically achieved from Light Microscopy. Within such context, in this PhD Thesis we propose, develop and validate new dedicated image processing methodologies that, based on image registration techniques, bring information from multiple individuals into alignment within a single digital atlas model. We also elaborate a dedicated software visualization platform to explore the resulting wealth of multi-dimensional data and novel analysis algo-rithms to automatically mine the generated resource in search of bio¬logical insights. In particular, this work focuses on gene expression data from developing zebrafish embryos imaged at the cellular resolution level with Two-Photon Laser Scanning Microscopy. Disposing of quantitative measurements relating multiple gene expressions to cell position and their evolution in time is a fundamental prerequisite to understand embryogenesis multi-scale processes. However, the number of gene expressions that can be simultaneously stained in one acquisition is limited due to optical and labeling constraints. These limitations motivate the implementation of atlasing strategies that can recreate a virtual gene expression multiplex. The developed computational tools have been tested in two different scenarios. The first one is the early zebrafish embryogenesis where the resulting atlas constitutes a link between the phenotype and the genotype at the cellular level. The second one is the late zebrafish brain where the resulting atlas allows studies relating gene expression to brain regionalization and neurogenesis. The proposed computational frameworks have been adapted to the requirements of both scenarios, such as the integration of partial views of the embryo into a whole embryo model with cellular resolution or the registration of anatom¬ical traits with deformable transformation models non-dependent on any specific labeling. The software implementation of the atlas generation tool (Match-IT) and the visualization platform (Atlas-IT) together with the gene expression atlas resources developed in this Thesis are to be made freely available to the scientific community. Lastly, a novel proof-of-concept experiment integrates for the first time 3D gene expression atlas resources with cell lineages extracted from live embryos, opening up the door to correlate genetic and cellular spatio-temporal dynamics. La creación de atlas, o modelos digitales, donde la información de distintos sujetos puede ser combinada, es un campo de creciente interés en imagen biomédica. Cuando una sola imagen no contiene suficientes datos como para describir apropiadamente el organismo objeto de estudio, se hace necesario adquirir imágenes de varios individuos, cada una de las cuales contiene información complementaria respecto al resto de componentes del grupo. De este modo, es posible crear prototipos digitales, que pueden ir desde atlas anatómicos de órganos y pacientes humanos, adquiridos por ejemplo mediante Resonancia Magnética, hasta cartografías de la expresión genética del desarrollo de embrionario, típicamente adquiridas mediante Microscopía Optica. Dentro de este contexto, en esta Tesis Doctoral se introducen, desarrollan y validan nuevos métodos de procesado de imagen que, basándose en técnicas de registro de imagen, son capaces de alinear imágenes y datos provenientes de múltiples individuos en un solo atlas digital. Además, se ha elaborado una plataforma de visualization específicamente diseñada para explorar la gran cantidad de datos, caracterizados por su multi-dimensionalidad, que resulta de estos métodos. Asimismo, se han propuesto novedosos algoritmos de análisis y minería de datos que permiten inspeccionar automáticamente los atlas generados en busca de conclusiones biológicas significativas. En particular, este trabajo se centra en datos de expresión genética del desarrollo embrionario del pez cebra, adquiridos mediante Microscopía dos fotones con resolución celular. Disponer de medidas cuantitativas que relacionen estas expresiones genéticas con las posiciones celulares y su evolución en el tiempo es un prerrequisito fundamental para comprender los procesos multi-escala característicos de la morfogénesis. Sin embargo, el número de expresiones genéticos que pueden ser simultáneamente etiquetados en una sola adquisición es reducido debido a limitaciones tanto ópticas como del etiquetado. Estas limitaciones requieren la implementación de estrategias de creación de atlas que puedan recrear un multiplexado virtual de expresiones genéticas. Las herramientas computacionales desarrolladas han sido validadas en dos escenarios distintos. El primer escenario es el desarrollo embrionario temprano del pez cebra, donde el atlas resultante permite constituir un vínculo, a nivel celular, entre el fenotipo y el genotipo de este organismo modelo. El segundo escenario corresponde a estadios tardíos del desarrollo del cerebro del pez cebra, donde el atlas resultante permite relacionar expresiones genéticas con la regionalización del cerebro y la formación de neuronas. La plataforma computacional desarrollada ha sido adaptada a los requisitos y retos planteados en ambos escenarios, como la integración, a resolución celular, de vistas parciales dentro de un modelo consistente en un embrión completo, o el alineamiento entre estructuras de referencia anatómica equivalentes, logrado mediante el uso de modelos de transformación deformables que no requieren ningún marcador específico. Está previsto poner a disposición de la comunidad científica tanto la herramienta de generación de atlas (Match-IT), como su plataforma de visualización (Atlas-IT), así como las bases de datos de expresión genética creadas a partir de estas herramientas. Por último, dentro de la presente Tesis Doctoral, se ha incluido una prueba conceptual innovadora que permite integrar los mencionados atlas de expresión genética tridimensionales dentro del linaje celular extraído de una adquisición in vivo de un embrión. Esta prueba conceptual abre la puerta a la posibilidad de correlar, por primera vez, las dinámicas espacio-temporales de genes y células.
Resumo:
New digital artifacts are emerging in data-intensive science. For example, scientific workflows are executable descriptions of scientific procedures that define the sequence of computational steps in an automated data analysis, supporting reproducible research and the sharing and replication of best-practice and know-how through reuse. Workflows are specified at design time and interpreted through their execution in a variety of situations, environments, and domains. Hence it is essential to preserve both their static and dynamic aspects, along with the research context in which they are used. To achieve this, we propose the use of multidimensional digital objects (Research Objects) that aggregate the resources used and/or produced in scientific investigations, including workflow models, provenance of their executions, and links to the relevant associated resources, along with the provision of technological support for their preservation and efficient retrieval and reuse. In this direction, we specified a software architecture for the design and implementation of a Research Object preservation system, and realized this architecture with a set of services and clients, drawing together practices in digital libraries, preservation systems, workflow management, social networking and Semantic Web technologies. In this paper, we describe the backbone system of this realization, a digital library system built on top of dLibra.
Resumo:
El Hogar Digital Accesible (HDA) de la ETSIST nace con el propósito de acercar las nuevas Tecnologías de la Información a las personas que precisan de necesidades concretas de accesibilidad y usabilidad, dotándoles de herramientas que les permitan aumentar su calidad de vida, confort, seguridad y autonomía. El entorno del HDA consta de elementos de control para puertas, persianas, iluminación, agua o gas, sensores de temperatura, incendios, gas, sistemas de climatización, sistemas de entretenimiento y sistemas de seguridad tales como detectores de presencia y alarmas. Todo ello apoyado sobre una arquitectura de red que proporciona una pasarela residencial y un acceso a banda ancha. El objetivo principal de este PFG ha sido el desarrollo de un sistema de autenticación para el Hogar Digital Accesible de bajo coste. La idea de integrar un sistema de autenticación en el HDA, surge de la necesidad de proteger de accesos no deseados determinados servicios disponibles dentro de un ámbito privado. Algunos de estos servicios pueden ser tales como el acceso a la lectura de los mensajes disponibles en el contestador automático, el uso de equipos multimedia, la desconexión de alarmas de seguridad o simplemente la configuración de ambientes según el usuario que esté autenticado (intensidad de luz, temperatura de la sala, etc.). En el desarrollo han primado los principios de accesibilidad, usabilidad y seguridad necesarios para la creación de un entorno no invasivo, que permitiera acreditar la identidad del usuario frente al sistema HDA. Se ha planteado como posible solución, un sistema basado en el reconocimiento de un trazo realizado por el usuario. Este trazo se usará como clave de cara a validar a los usuarios. El usuario deberá repetir el trazado que registró en el sistema para autenticarse. Durante la ejecución del presente PFG, se justificará la elección de este mecanismo de autenticación frente a otras alternativas disponibles en el mercado. Para probar la aplicación, se ha podido contar con dos periféricos de distintas gamas, el uDraw creado para la PS3 que se compone de una tableta digitalizadora y un lápiz que permite recoger los trazos realizados por el usuario de forma inalámbrica y la tableta digitalizadora Bamboo de Wacom. La herramienta desarrollada permite a su vez, la posibilidad de ser usada por otro tipo de dispositivos como es el caso del reloj con acelerómetro de 3 ejes de Texas Instruments Chronos eZ430 capaz de trasladar los movimientos del usuario al puntero de un ratón. El PFG se encuentra dividido en tres grandes bloques de flujo de trabajo. El primero se centra en el análisis del sistema y las tecnologías que lo componen, incluyendo los distintos algoritmos disponibles para realizar la autenticación basada en reconocimiento de patrones aplicados a imágenes que mejor se adaptan a las necesidades del usuario. En el segundo bloque se recoge una versión de prueba basada en el análisis y el diseño UML realizado previamente, sobre la que se efectuaron pruebas de concepto y se comprobó la viabilidad del proyecto. El último bloque incluye la verificación y validación del sistema mediante pruebas que certifican que se han alcanzado los niveles de calidad necesarios para la consecución de los objetivos planteados, generando finalmente la documentación necesaria. Como resultado del trabajo realizado, se ha obtenido un sistema que plantea una arquitectura fácilmente ampliable lograda a través del uso de técnicas como la introspección, que permiten separar la lógica de la capa de negocio del código que la implementa, pudiendo de forma simple e intuitiva sustituir código mediante ficheros de configuración, lo que hace que el sistema sea flexible y escalable. Tras la realización del PFG, se puede concluir que el producto final obtenido ha respondido de forma satisfactoria alcanzando los niveles de calidad requeridos, siendo capaz de proporcionar un sistema de autenticación alternativo a los convencionales, manteniendo unas cotas de seguridad elevadas y haciendo de la accesibilidad y el precio sus características más reseñables. ABSTRACT. Accessible Digital Home (HDA) of the ETSIST was created with the aim of bringing the latest information and communications technologies closer to the people who has special needs of accessibility and usability increasing their quality of life, comfort, security and autonomy. The HDA environment has different control elements for doors, blinds, lighting, water or gas, temperature sensors, fire protection systems, gas flashover, air conditioning systems, entertainments systems and security systems such as intruders detectors and alarms. Everything supported by an architecture net which provides a broadband residential services gateway. The main goal of this PFG was the development of a low-cost authentication system for the Accessible Digital Home. The idea of integrating an authentication system on the HDA, stems from the need to safeguard certain private key network resources from unauthorized access. Some of said resources are the access to the answering machine messages, the use of multimedia devices, the alarms deactivation or the parameter settings for each environment as programmed by the authenticated user (light intensity, room temperature, etc.). During the development priority was given to concepts like accessibility, usability and security. All of them necessary to create a non invasive environment that allows the users to certify their identity. A system based on stroke pattern recognition, was considered as a possible solution. This stroke is used as a key to validate users. The user must repeat the stroke that was saved on the system to validate access. The selection of this authentication mechanism among the others available options will be justified during this PFG. Two peripherals with different ranges were used to test the application. One of them was uDraw design for the PS3. It is wireless and is formed by a pen and a drawing tablet that allow us to register the different strokes drawn by the user. The other one was the Wacom Bamboo tablet, that supports the same functionality but with better accuracy. The developed tool allows another kind of peripherals like the 3-axes accelerometer digital wristwatch Texas Instruments Chronos eZ430 capable of transfering user movements to the mouse cursor. The PFG is divided by three big blocks that represent different workflows. The first block is focused on the system analysis and the technologies related to it, including algorithms for image pattern recognition that fits the user's needs. The second block describes how the beta version was developed based on the UML analysis and design previously done. It was tested and the viability of the project was verified. The last block contains the system verification and validation. These processes certify that the requirements have been fulfilled as well as the quality levels needed to reach the planned goals. Finally all the documentation has been produced. As a result of the work, an expandable system has been created, due to the introspection that provides the opportunity to separate the business logic from the code that implements it. With this technique, the code could be replaced throughout configuration files which makes the system flexible and highly scalable. Once the PFG has finished, it must therefore be concluded that the final product has been a success and high levels of quality have been achieved. This authentication tool gives us a low-cost alternative to the conventional ones. The new authentication system remains security levels reasonably high giving particular emphasis to the accessibility and the price.