981 resultados para Open Web Lecture
Resumo:
The reason for this study is to propose a new quantitative approach on how to assess the quality of Open Access University Institutional Repositories. The results of this new approach are tested in the Spanish University Repositories. The assessment method is based in a binary codification of a proposal of features that objectively describes the repositories. The purposes of this method are assessing the quality and an almost automatically system for updating the data of the characteristics. First of all a database was created with the 38 Spanish institutional repositories. The variables of analysis are presented and explained either if they are coming from bibliography or are a set of new variables. Among the characteristics analyzed are the features of the software, the services of the repository, the features of the information system, the Internet visibility and the licenses of use. Results from Spanish universities ARE provided as a practical example of the assessment and for having a picture of the state of the development of the open access movement in Spain.
Resumo:
The purpose of this paper is to describe the collaboration between librarians and scholars, from a virtual university, in order to facilitate collaborative learning on how to manage information resources. The personal information behaviour of e-learning students when managing information resources for academic, professional and daily life purposes was studied from 24 semi-structured face-to-face interviews. The results of the content analysis of the interview' transcriptions, highlighted that in the workplace and daily life contexts, competent information behaviour is always linked to a proactive attitude, that is to say, that participants seek for information without some extrinsic reward or avoiding punishment. In the academic context, it was observed a low level of information literacy and it seems to be related with a prevalent uninvolved attitude.
Resumo:
Els objectius d'aquest projecte són la millora del rendiment de la plataforma Educaweb.com utilitzant un frontal equipat amb Varnish HTTP Cache, un programari lliure que permet emmagatzemar les pàgines a una memòria cau i evitar el seu processament repetitiu quan no és necessari.
Resumo:
This project is about the development of a web that uses the tools offered by the Geographic Information Systems based in open source in order to monitoring and detect legionella clusters in Barcelona. This web also produces thematic maps for the study of epidemiologic diseases and has been made with the colaboration of the Barcelona public health agency.
Resumo:
A gestão de infra-estruturas é um processo de coordenação, avaliação sistemática e manutenção efectiva das infra-estruturas relacionadas com os serviços básicos. A gestão eficaz de infra-estruturas exige que a disposição dos equipamentos no meio urbano seja conhecida, bem como sua relação com o uso do solo. Sendo a gestão de infra-estruturas uma questão de natureza espacial, é natural pensar na utilização de um Sistema de Informação Geográfica como ferramenta com potencial de grande utilidade, pois permite a georreferenciação de dados espaciais e sua interligação com atributos alfanuméricos, para além da realização de análises complexas e a possibilidade de simular diversos cenários de modo a propiciar uma tomada de decisão eficaz. O elevado custo das licenças e a especificidade de utilização a nível técnico, tornam-se obstáculos na criação e manutenção de dados geográficos. Contudo os recentes desenvolvimentos em tecnologias da Internet têm contribuído para o acesso, publicação, exploração e distribuição da Informação Geográfica. A utilização de SIG distribuídos na Internet (WebGIS), nomeadamente na vertente livre, pode ser uma solução adequada visto que coloca funcionalidades de SIG ao alcance de utilizadores, através de um simples browser, sem necessidade de investimentos em relação a software ou mesmo em formação técnica especializada. Assim, com este projecto pretende-se a criação de um sistema de Informação geográfico na Internet, utilizando softwares livres, que disponibiliza toda a informação geográfica e alfanumérica das infra-estruturas construídas e sob a responsabilidade do Ministério das Infra-estruturas e Economia Marítima, permitindo a visualização e a realização de pesquisas e operações de análise.
Resumo:
O propósito da Web Semântica é conseguir uma Web de dados totalmente ligada, isto é, numa perspetiva Linked Open Data. A Web Semântica deve garantir (estabelecendo padrões tecnológicos, vocabulários, linguagens lógicas, etc.) que os conteúdos publicados na Websejam inteligíveis quer por agentes humanos, quer por agentes máquina. Esta dissertação tem como objetivo responder à um problema delimitado, propondo uma solução no quadro da Web Semântica e suas tecnologias. Partindo-se de uma lista de termos em linguagem natural utilizados no Website da ANACOM (Autoridade Nacional de Comunicações), propomos uma organização de acordo com metodologias de construção de ontologias e vocabulários. Inspirámo-nos em duas metodologias, o Ontology Development 101 e o Process and Methodology for Core Vocabularies. O vocabulário controlado resultante, tem como base tecnológica o modelo de organização de conhecimento, recomendado pelo W3C (World Wide Web Consortium), o SKOS (Simple Knowledge Organization System). Trata-sede uma tecnologia standard da W3C desde 2009, utilizada na criação de tesauros,esquemas de classificação, taxonomias, glossários e outros tipos de vocabulários controlados. Como resultado da nossa intervenção, conseguimos organizar e codificar em SKOS, cerca de cinco centenas de termos identificados no Website da ANACOM. Para além da proposta do vocabulário controlado, passámos em revista às tecnologias e teorias que sustentam a temática da Web Semântica.
Resumo:
Esta memória monográfica é um trabalho de fim do curso Engenharia de Sistemas e Informática, grau de Licenciatura, e tem como tema “Tecnologias Livres de Desenvolvimento Web” e como sub tema “Desenvolvimento Web em Cabo Verde”. O trabalho encontra-se estruturado em 7 capítulos e fala basicamente do desenvolvimento Web em cabo Verde, dando ênfase às tecnologias livres de desenvolvimento de aplicações Web. Aborda-se a Internet, o seu conceito, a sua história e surgimento, e aproveita para se abordar a Internet em Cabo Verde, seu aparecimento, evolução e estado actual. Fala-se também de softwares livres, o movimento Open Source, seu conceito e surgimento, referenciando como o movimento contribuiu para o surgimento, sobrevivência e evolução da Web. Neste contexto fala-se das principais tecnologias Web Open Source que existem, mostrando quais as melhores e mais usadas em todo o mundo. Igualmente fala-se de alguns dos principais desenvolvedores de aplicações baseado em Web em Cabo Verde, apresentando seus projectos e tecnologias que utilizam no desenvolvimento dessas aplicações. Por fim é apresentado um estudo de caso realizado pelo autor, onde 140 Web Sites de domínio .cv foram estudados sobre o ponto de vista de tecnologias que utilizam, e suas localização geográficas, passando por uma análise por área geográfica desses Web Sites.
Resumo:
L’existència d’una xarxa mundial de comunicacions ubiqua i barata que cada vegada més permet obtenir documents de manera fàcil i gratuïta requerirà una transformació de les pràctiques de la formació de col·leccions a les biblioteques universitàries. Això estarà impulsat per una sèrie d’avenços específics, que inclouen la digitalització de continguts; el desenvolupament de repositoris d’impresos; el desenvolupament de lectors de llibres electrònics i de l’edició mitjançant la impressió sota demanda; el creixement de l’accés obert; els reptes per establir estructures d’edició acadèmica; i el creixement de noves formes d’activitats acadèmiques basades en l’obertura i la productivitat social. Si les biblioteques universitàries volen tenir èxit, hauran de desmuntar les col·leccions impreses patrimonials; passar de la selecció de llibres ítem a ítem a la compra sota demanda i a les subscripcions; gestionar la transició cap a revistes d’accés obert; centrar-se en conservar ítems únics; i desenvolupar nous mecanismes per finançar una infraestructura nacional.
Resumo:
Con la llegada de la web 2.0, ha sido posible para todos los usuarios participar y colaborar en la construcción del conocimiento, además de servir al dominio público gracias al intercambio libre y legal de los contenidos y a su reutilización. Además los recursos educativos abiertos, son un concepto reciente en lo que respecta a la organización del mundo de intercambio de variedad de materiales y herramientas educacionales, e instituciones como la UNESCO están interesadas en el desarrollo de estos, para ser utilizados en una escala tan amplia y global como sea posible. Sin embargo los REA están teniendo algunas dificultades para alcanzar su eficacia, ya que hay algunas diferencias cruciales en la organización y en la interacción de estas redes abiertas. Este artículo intenta realizar un análisis del intercambio libre y legal de los contenidos y su reutilización utilizadas como apoyo para el aprendizaje en diferentes espacios en línea, aprovechando las posibilidades tecnológicas que permiten conformar nuevas estructuras de socialización-colaboración en línea.
Resumo:
Ante el gran incremento de información en el web, cada vez son más las empresas o instituciones que optan por implementar un sistema de gestión de contenidos, tanto en sus intranets como en la información que presentan a sus clientes o usuarios.
Resumo:
Introduction. The DRIVER I project drew up a detailed report of European repositories based on data gathered in a survey in which Spain's participation was very low. This created a highly distorted image of the implementation of repositories in Spain. This study aims to analyse the current state of Spanish open-access institutional repositories and to describe their characteristics. Method. The data were gathered through a Web survey. The questionnaire was based on that used by DRIVER I: coverage; technical infrastructure and technical issues; institutional policies; services created; and stimulators and inhibitors for establishing, filling and maintaining their digital institutional repositories. Analysis. Data were tabulated and analysed systematically according responses obtained from the questionnaire and grouped by coverage. Results. Responses were obtained from 38 of the 104 institutions contacted, which had 29 institutional repositories. This represents 78.3% of the Spanish repositories according to the BuscaRepositorios directory. Spanish repositories contained mainly full-text materials (journal articles and doctoral theses) together with metadata. The software most used was DSpace, followed by EPrints. The metadata standard most used was Dublin Core. Spanish repositories offered more usage statistics and fewer author-oriented services than the European average. The priorities for the future development of the repositories are the need for clear policies on access to scientific production based on public funding and the need for quality control indicators. Conclusions.This is the first detailed study of Spanish institutional repositories. The key stimulants for establishing, filling and maintaining were, in order of importance, the increase of visibility and citation, the interest of decision-makers, simplicity of use and search services. On the other hand the main inhibitors identified were the absence of policies, the lack of integration with other national and international systems and the lack of awareness efforts among academia.
Resumo:
Aquest document és una guia de recomanacions per crear contingut accessible amb el programa OpenOffice Writer 3.
Resumo:
PURPOSE: Pharmacovigilance methods have advanced greatly during the last decades, making post-market drug assessment an essential drug evaluation component. These methods mainly rely on the use of spontaneous reporting systems and health information databases to collect expertise from huge amounts of real-world reports. The EU-ADR Web Platform was built to further facilitate accessing, monitoring and exploring these data, enabling an in-depth analysis of adverse drug reactions risks.METHODS: The EU-ADR Web Platform exploits the wealth of data collected within a large-scale European initiative, the EU-ADR project. Millions of electronic health records, provided by national health agencies, are mined for specific drug events, which are correlated with literature, protein and pathway data, resulting in a rich drug-event dataset. Next, advanced distributed computing methods are tailored to coordinate the execution of data-mining and statistical analysis tasks. This permits obtaining a ranked drug-event list, removing spurious entries and highlighting relationships with high risk potential.RESULTS: The EU-ADR Web Platform is an open workspace for the integrated analysis of pharmacovigilance datasets. Using this software, researchers can access a variety of tools provided by distinct partners in a single centralized environment. Besides performing standalone drug-event assessments, they can also control the pipeline for an improved batch analysis of custom datasets. Drug-event pairs can be substantiated and statistically analysed within the platform's innovative working environment.CONCLUSIONS: A pioneering workspace that helps in explaining the biological path of adverse drug reactions was developed within the EU-ADR project consortium. This tool, targeted at the pharmacovigilance community, is available online at https://bioinformatics.ua.pt/euadr/. Copyright © 2012 John Wiley & Sons, Ltd.
Resumo:
Our work is focused on alleviating the workload for designers of adaptive courses on the complexity task of authoring adaptive learning designs adjusted to specific user characteristics and the user context. We propose an adaptation platform that consists in a set of intelligent agents where each agent carries out an independent adaptation task. The agents apply machine learning techniques to support the user modelling for the adaptation process
Resumo:
The M-Coffee server is a web server that makes it possible to compute multiple sequence alignments (MSAs) by running several MSA methods and combining their output into one single model. This allows the user to simultaneously run all his methods of choice without having to arbitrarily choose one of them. The MSA is delivered along with a local estimation of its consistency with the individual MSAs it was derived from. The computation of the consensus multiple alignment is carried out using a special mode of the T-Coffee package [Notredame, Higgins and Heringa (T-Coffee: a novel method for fast and accurate multiple sequence alignment. J. Mol. Biol. 2000; 302: 205-217); Wallace, O'Sullivan, Higgins and Notredame (M-Coffee: combining multiple sequence alignment methods with T-Coffee. Nucleic Acids Res. 2006; 34: 1692-1699)] Given a set of sequences (DNA or proteins) in FASTA format, M-Coffee delivers a multiple alignment in the most common formats. M-Coffee is a freeware open source package distributed under a GPL license and it is available either as a standalone package or as a web service from www.tcoffee.org.