167 resultados para Repositórios
Resumo:
O azulejo é um elemento notavelmente caracterizador da arquitectura portuguesa atravessando uma parte importante da nossa produção arquitectónica e estando naturalmente contaminado pela produção artística de cada época. É o século XVIII o período em que se veicula o azulejo em Portugal e onde nos surgem os principais repositórios de imaginários. Suporte privilegiado de pintura e arte decorativa total, apresentou‑se sempre como uma resposta simultaneamente estética e pratica às necessidades de cada tempo. Uma das questões indiscutíveis é a atmosfera que o azulejo barroco impõe, reinventando e recriando um espaço, por vezes difícil de entrever hoje, aos nossos olhos. São actualmente inúmeras as questões que se colocam ao estudo e respectiva análise de interpretação da azulejaria tanto neste período como em outros. Procurámos traçar neste texto – numa visão panorâmica e alargada – a historiografia mais recente do azulejo barroco, incluindo os estudos, e os novos contributos que têm feito da Azulejaria Portuguesa deste período um lugar de inquietações e objecto de investigação.
Resumo:
PhD Thesis in Bioengineering
Resumo:
Este poster apresenta o novo projeto OpenAIRE2020 que desenvolve a infraestrutura Open Access para a investigação na Europa – OpenAIRE (www.openaire.eu). Esta infraestrutura de informação e dados científicos resulta de dois projetos realizados entre 2009 e 2014 – OpenAIRE e OpenAIREplus – que será agora continuada pela iniciativa OpenAIRE2020. O OpenAIRE2020 baseia-se numa rede de repositórios de publicações e dados científicos e resulta num sistema de informação que apoiará a monitorização dos resultados da investigação no âmbito do novo programa quadro da Comissão Europeia (CE) Horizonte 2020.(...)
Resumo:
O Validador RCAAP é uma ferramenta desenvolvida no âmbito do projeto RCAAP – Repositório Científico de Acesso Aberto de Portugal com o objetivo de aferir o grau de conformidade de um repositório ou revista com as diretrizes definidas no campo de ação do projeto. Apesar da aplicação de normas padronizadas, como o Dublin Corei e o OAI-PMHii, as representações locais comprometem, muitas vezes, a qualidade dos metadados e a interoperabilidade técnica. No âmbito do projeto RCAAP utilizam-se as diretrizes DRIVER como o padrão de interoperabilidade dos repositórios portugueses. Para além de assegurarem a necessária uniformização entre os repositórios e revistas integrantes do RCAAP, garantem e facilitam a integração e a interoperabilidade. Esta apresentação pretende expor as características e objetivos do Validador RCAAP e destacar os desenvolvimentos da segunda versão desta ferramenta, que oferece aos gestores de repositórios e revistas um serviço capaz de promover a qualidade e harmonia dos metadados, permitindo a interoperabilidade à escala nacional ou internacional.
Resumo:
O presente artigo tem como objetivo apresentar o resultado de uma pesquisa bibliográfica sobre a preservação digital. São analisadas as questões mais relevantes no estudo das práticas atuais relacionadas com a preservação dos documentos em formato digital. Dados foram coletados na literatura produzida por especialistas experientes na área, os quais proporcionam ampla lista de argumentos que mostram a emergência e importância das atividades de preservação relacionadas aos objetos digitais.
Resumo:
O acesso à informação científica tem sido um grande desafio para países em desenvolvimento como o Brasil. Com a crise dos periódicos, surgida em função dos altos custos na manutenção das assinaturas das revistas científicas, o acesso à informação científica ficou bastante limitado. Embora essa crise tenha começado em meados dos anos 80, ainda hoje não existe nenhuma solução definitiva. Com as tecnologias da informação e da comunicação, surge a iniciativa de arquivos abertos (Open Archvies Initiative), a qual define um modelo de interoperabilidade entre bibliotecas e repositórios digitais, possibilitando alternativas para a comunicação científica. Ao mesmo tempo, consolida-se o movimento em favor do acesso livre à informação científica em todo o mundo, pelos grandes editores ou publishers, por meio de propostas de ações que possam viabilizar essa iniciativa. Essas são as bases da proposta de um novo modelo para intensificar e consolidar o registro e a disseminação da produção científica brasileira, assim como do acesso à informação científica. Com as experiências obtidas na implantação da Biblioteca Digital Brasileira de Teses e Dissertações (BDTD), o Instituto Brasileiro de Informação em Ciência e Tecnologia (Ibict) detém, hoje, a competência técnica para consolidar e implantar essa proposta.
Resumo:
O objetivo do estudo foi apresentar a utilização da filosofia de arquivos abertos, aliada aos instrumentos de gestão da qualidade, PDCA e 5S, como um dos pilares para a gestão da segurança e saúde no trabalho (SST). O método de pesquisa se constituiu no levantamento bibliográfico, juntamente com uma sessão de entrevistas com 23 profissionais ligados à gestão da SST, que permitiu o delineamento do grau de acesso e a percepção destes sobre a informação científica. A análise qualitativa e quantitativa dos questionários apontou a iniciativa de arquivos abertos, por meio da utilização de repositórios digitais de informações, como um instrumento de apoio à gestão da segurança e saúde no trabalho, bem como identificou a necessidade do desenvolvimento de políticas de incentivo à geração e compartilhamento do capital intelectual entre a comunidade em questão encorajando a construção de um repositório digital na área de SST, visando sobretudo à preservação da integridade física e mental do trabalhador. Constatou-se que a carência de informações disponíveis na área em questão ainda é uma barreira para a gestão do conhecimento organizacional, no sentido de promover o desenvolvimento do trabalho seguro e saudável nas organizações.
Resumo:
Com a evolução da tecnologia da informação e a disseminação de documentos digitais na Web, faz-se necessário criar meios que forneçam um mecanismo de organização de tais documentos, facilitando sua busca e recuperação. Em bibliotecas digitais ou repositórios de obras eletrônicas, por exemplo, existe a necessidade de uma ferramenta que possa classificar automaticamente os documentos, visto que o processo de classificação (categorização) é feito de forma manual. Esta ferramenta será de grande importância no apoio à catalogação. Este artigo apresenta o desenvolvimento de uma ferramenta que tem como objetivo principal classificar automaticamente documentos digitais em categorias preestabelecidas, nas quais cada documento pertencerá a uma ou mais categorias de acordo com seu conteúdo, tornando assim mais eficaz e rápida a classificação. Na elaboração da ferramenta foram utilizadas técnicas e algoritmos de mineração de textos, sendo definidas no estudo de caso algumas categorias e termos relacionados, tais como informática, direito e física, para validar a ferramenta.
Resumo:
O tema deste ensaio nos conduz, de imediato, à reflexão sobre a problemática museológica em quatro direções, a saber: - patrimônio musealizado: aqueles que foram lembrados ou o universo dos esquecidos. - responsabilidade profissional: a formação e a convivência interdisciplinar. - processo museológico: a salvaguarda e a comunicação dos objetos, coleções e acervo. - novas tecnologias: os museus e a resistência ou convivência com a imagem virtual. É possível afirmar que estes temas têm figurado na pauta das nossas discussões, nas últimas décadas, de forma contundente e os profissionais de museu não podem desconhecer as múltiplas abordagens que eles permitem ou as implicações sociais e políticas que sempre estão presentes em nosso cotidiano de trabalho. Sabemos que os museus existem no mundo inteiro há muitos séculos e, apesar de assumirem múltiplas faces, é possível identificar pontos de encontro e semelhanças entre os diferentes processos museológicos. Apesar dos preconceitos existentes que vinculam essas instituições com as coisas “velhas” e “sem vida”, há também um grande questionamento sobre o papel real que podem desempenhar no âmbito das sociedades onde estão inseridas. Os museus chegaram até este século como os grandes repositórios de coleções ecléticas, como centros de saber e, evidentemente, como locais privilegiados e sacralizados.
Resumo:
Desde o aparecimento da Internet, têm surgido inúmeras oportunidades para os autores de artigos científicos disponibilizarem de forma livre e gratuita a sua produção intelectual. Tal produção poderá estar disponível nas mais diversas formas e inserida nos mais variados ambientes institucionais (Repositórios, Bases de Dados, entre outros). Tal constituiu uma verdadeira revolução informativa que, depois, ultrapassou em larga medida os meios limitados do mundo académico, tornando-se num fenómeno global. Consideramos que a disponibilização e o acesso à documentação da União Europeia constitui uma das faces visíveis dessa revolução. A nível da Informação, sempre houve uma necessidade dos dirigentes europeus em adotar uma Política de Informação adequada. Desde a necessidade de transmitir informação ao público e aos jornalistas nos primeiros tempos da Comunidade até à criação do Portal da União Europeia, vai um longo processo de amadurecimento do projeto europeu. A política de transparência que hoje se verifica e que se revela, acima de tudo, nas ligações proporcionadas pelo Portal é o resultado de um longo caminho de integração europeia. Assim, esta investigação consiste na identificação e na análise da documentação em acesso livre produzida pela União Europeia. O seu objetivo prioritário é tentar determinar até que ponto a documentação europeia consegue estar disponível e acessível a todos aqueles que a pretendam utilizar. Para tal, foram analisadas as mais diversas fontes institucionais, assim como as várias Bases de Dados e os vários sítios Web onde se pode aceder gratuitamente à Informação da União Europeia. As conclusões a que chegámos, assim como as considerações finais apresentadas no final deste trabalho de investigação levam-nos a perceber as políticas de acesso à documentação europeia e até que ponto elas servem de suporte à boa governação e à democracia.
Resumo:
A capacidade de inovação é essencial à sobrevivência de empresas criativas de software. Assim, a criação e disseminação do conhecimento encontram cada vez mais espaço no planejamento e na estratégia de gestão dessas organizações. Este estudo, de natureza exploratória, efetuou entrevistas semi-estruturadas com profissionais gestores e técnicos da indústria criativa de software, tendo por objetivo analisar as técnicas e métodos presentes no processo de geração e disseminação do conhecimento, bem como as ferramentas de tecnologia da informação voltadas a essa finalidade. Os principais resultados mostram que há uma preocupação constante nessas organizações com a geração do conhecimento. As técnicas e métodos mais largamente empregados na criação e disseminação de conhecimento foram: brainstorming, reuniões presenciais, reuniões virtuais, treinamentos oficiais presenciais, treinamentos informais, cursos em universidades, compartilhamento de experiências, discussões e aplicativo de gestão de projetos de desenvolvimento de software. Já em relação às ferramentas utilizadas, somam-se: internet, intranet, aplicativos específicos, redes internas, repositórios de dados, diretórios específicos no banco de dados e sistemas de telefonia baseados na internet.
Resumo:
Nas aplicações do mundo real, os dados mudam com o passar do tempo. Devido à característica dinâmica das aplicações, o esquema conceitual também pode mudar para se adaptar às mudanças que freqüentemente ocorrem na realidade. Para representar esta evolução, uma nova versão do esquema é definida e os dados armazenados são adaptados à nova versão. Entretanto, existem aplicações que precisam acessar também o esquema sob os diversos aspectos de suas mudanças, requerendo o uso de versionamento de esquemas. Durante a evolução do esquema, o versionamento preserva todas as versões deste esquema e seus dados associados, possibilitando a recuperação dos dados através da versão com a qual foram definidos. Ultimamente muitas pesquisas têm sido realizadas envolvendo as áreas de versionamento de esquemas e bancos de dados temporais. Estes bancos de dados provêm suporte ao versionamento de esquemas, pois permitem armazenar e recuperar todos os estados dos dados, registrando sua evolução ao longo do tempo. Apesar de muitos esforços, ainda não existem SGBDs temporais comercialmente disponíveis. A utilização de um modelo de dados temporal para a especificação de uma aplicação não implica, necessariamente, na utilização de um SGBD específico para o modelo. Bancos de dados convencionais podem ser utilizados desde que exista um mapeamento adequado entre o modelo temporal e o SGBD utilizado. Este trabalho apresenta uma abordagem para a implementação de um banco de dados temporal permitindo o versionamento de esquemas, usando um banco de dados relacional, tendo como base o modelo temporal TRM (Temporal Relational Model). Como forma de ilustrar apresenta-se um exemplo de implementação utilizando o SGBD DB2. O principal objetivo é avaliar diferentes técnicas de implementar e gerenciar o versionamento de esquemas em bancos de dados temporais. Para atingir esse objetivo, um protótipo foi desenvolvido para automatizar os mapeamentos do TRM para o DB2 e gerenciar o versionamento de esquemas e dados. Duas experiências de implementação foram realizadas utilizando formas diferentes de armazenar os dados - um repositório e vários repositórios - com o objetivo de comparar os resultados obtidos, considerando um determinado volume de dados e alterações. Um estudo de caso também é apresentado para validar as implementações realizadas.
Resumo:
A classificação é uma das tarefas da Mineração de Dados. Esta consiste na aplicação de algoritmos específicos para produzir uma enumeração particular de padrões. Já a classificação é o processo de gerar uma descrição, ou um modelo, para cada classe a partir de um conjunto de exemplos dados. Os métodos adequados e mais utilizados para induzir estes modelos, ou classificadores, são as árvores de decisão e as regras de classificação. As regras e árvores de decisão são populares, principalmente, por sua simplicidade, flexibilidade e interpretabilidade. Entretanto, como a maioria dos algoritmos de indução particionam recursivamente os dados, o processamento pode tornar-se demorado, e a árvore construída pode ser muito grande e complexa, propensa ao overfitting dos dados, que ocorre quando o modelo aprende detalhadamente ao invés de generalizar. Os conjuntos de dados reais para aplicação em Mineração de Dados são, atualmente, muito grandes, e envolvem vários milhares de registros, sendo necessária, também, uma forma de generalizar estes dados. Este trabalho apresenta um novo modelo de indução de classificadores, em que o principal diferencial do algoritmo proposto é a única passada pelo conjunto de treinamento durante o processo de indução, bem como a sua inspiração proveniente de um Sistema Multiagente. Foi desenvolvido um protótipo, o Midas, que foi validado e avaliado com dados de repositórios. O protótipo também foi aplicado em bases de dados reais, com o objetivo de generalizar as mesmas. Inicialmente, foi estudado e revisado o tema de Descoberta de Conhecimento em Bases de Dados, com ênfase nas técnicas e métodos de Mineração de Dados. Neste trabalho, também são apresentadas, com detalhes, as árvores e regras de decisão, com suas técnicas e algoritmos mais conhecidos. Finalizando, o algoritmo proposto e o protótipo desenvolvido são apresentados, bem como os resultados provenientes da validação e aplicação do mesmo.
Resumo:
O fornecimento de facilidades de QoS em redes de computadores tem por objetivo introduzir níveis das garantias que são ausentes, por exemplo, no paradigma de melhor-esforço das redes IP. Diferentes arquiteturas de QoS possuem padrões diferentes para os serviços fornecidos, que conduzem a um cenário em que a QoS prevista não possa ser sempre fornecida corretamente pela arquitetura utilizada. Neste contexto, uma monitoração da QoS é necessária para verificar a QoS observada e para compará-la com a QoS esperada/ contratada. Em uma rede que utilize gerenciamento baseado em políticas, a QoS esperada é definido pelas políticas que regem o comportamento da rede. O Internet Engineering Task Force (IETF) tem padronizado vários elementos para um sistema de gerenciamento de redes baseado em políticas (PBNM), no qual políticas são definidas utilizando-se linguagem de alto nível, armazenadas em repositórios para políticas, aplicadas com o auxilio de Policy Decision Points (PDPs) e mantidas por Enforcement Points (PEPs). Pela definição do IETF, uma vez que uma política é aplicada com sucesso, o sistema de PBNM não mais checará o comportamento desta, e a QoS definida é assumida com a fornecida pela rede. De fato, isso nem sempre é verdade. A arquitetura da qual provém a QoS pode apresentar-se instável ou mediante problemas, logo a QoS esperada não seria atingida. Para verificar a degradação na QoS em ambientes de gerenciamento reais, atualmente, o administrador da rede monitora a rede e determina a QoS fornecida. Tal QoS é, por sua vez, manualmente comparada com a QoS definida pelas políticas de rede. Finalmente, se diferenças são encontradas, o administrador procede com medidas que levem a arquitetura a um estado consistente Nos dias de hoje, as definições e aplicações de políticas e monitoração de QoS são tarefas executadas separadamente pelas soluções disponíveis. Além disso, como demonstrado anteriormente, a verificação da QoS fornecida contra a QoS definida pelas políticas da rede é deixada a cargo do administrador da rede. Nesse contexto, a automação da monitoração das políticas de QoS e a integração entre as tarefas citadas são necessárias do ponto de vista do administrador da rede. Nesta dissertação, é proposta uma definição (e um sistema) para a monitoração de QoS em que as definições de políticas são dados de entrada utilizados para checar a QoS observada. No momento em que uma degradação na QoS é detectada, o sistema de monitoração notifica um gerente com suporte a SNMP utilizando mensagens do tipo InformRequest. A arquitetura do sistema é dividida internamente em monitores de QoS e controladores de monitores de QoS. Cada controlador de monitor de QoS controla vários monitores de QoS, os quais coletam dados da rede. Tais dados são comparados com as políticas traduzidas pelo controlador, e, caso sejam detectadas degradações, o controlador de monitor de QoS notifica o gerente. A comunicação entre controlador de monitores de QoS e monitores de QoS também é baseada em SNMP. O principal objetivo do trabalho é fornecer uma solução que integre monitoração de QoS e PBNM em um único ambiente de gerenciamento.
Resumo:
Com a disseminação do uso de Ambientes de Aprendizagem na Web, muitos autores de conteúdo instrucional dedicam seu tempo e se esforçam para desenvolver material de qualidade. Para facilitar o reuso desses materiais, os mesmos estão sendo desenvolvidos como objetos de aprendizagem e são armazenados em repositórios na Web, de onde podem ser pesquisados e recuperados para reuso. Essa pesquisa e recuperação são baseadas nas características dos objetos, ou seja, em seus metadados. Dessa forma, é necessário que os Objetos de Aprendizagem possuam valores de metadados consistentes para que a pesquisa e recuperação sejam eficientes. O desenvolvimento de material instrucional de boa qualidade consome grande quantidade de recursos. A descrição completa destes materiais, ou seja, dos objetos de aprendizagem, não é uma atividade estimulante para os autores que informam apenas um mínimo de metadados. Esta falta de metadados torna muito difícil a recuperação e o reuso dos OA. O objetivo desse trabalho é definir técnicas que recuperem a maior quantidade possível de metadados a partir dos Objetos e Aprendizagem, com a mínima intervenção do usuário, resultando em uma indexação e recuperação eficientes dos Objetos de Aprendizagem Essas técnicas são definidas com base na estrutura e funcionamento do AdaptWeb, que é um ambiente de aprendizagem que disponibiliza material instrucional de forma estruturada e organizada. Assim, é possível fazer uso das informações disponíveis nesse ambiente para recuperar os metadados automaticamente. As técnicas transformam o conteúdo do AdaptWeb em objetos de aprendizagem, sendo capazes de recuperar uma quantidade considerável de metadados. Assim, têm-se Objetos de Aprendizagem devidamente catalogados e armazenados em um repositório, prontos para serem reusados.