32 resultados para Reutilização de metadados
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Dentre as principais áreas que constituem a Ciência da Computação, uma das que mais influenciam o mundo atual é a Engenharia de Software, envolvida nos aspectos tecnológicos e gerenciais do processo de desenvolvimento de software. Software tornou-se a base de sustentação de inúmeras organizações dos mais diversos ramos de atuação espalhados pelo planeta, consistindo de um elemento estratégico na diferenciação de produtos e serviços atuais. Atualmente, o software está embutido em sistemas relacionados a infindável lista de diferentes ciências e tecnologias. A Tecnologia de Processo de Software surgiu em meados da década de 1980 e representou um importante passo em direção à melhoria da qualidade de software através de mecanismos que proporcionam o gerenciamento automatizado do desenvolvimento de software. Diversas teorias, conceitos, formalismos, metodologias e ferramentas surgiram nesse contexto, enfatizando a descrição formal do modelo de processo de software, para que possa ser automatizado por um ambiente integrado de desenvolvimento de software. Os modelos de processos de software descrevem o conhecimento de uma organização e, portanto, modelos que descrevem experiências bem sucedidas devem ser continuamente disseminados para reutilização em diferentes projetos. Apesar da importância desse tópico, atualmente apenas uma pequena porção do conhecimento produzido durante o desenvolvimento de software é mantido para ser reutilizado em novos projetos. Embora, à primeira vista, o desafio de descrever modelos reutilizáveis para processos de software pareça ser equivalente ao problema tratado pela tradicional área de reutilização de produtos software, isso é apenas parcialmente verdade, visto que os processos envolvem elementos relacionados com aspectos sociais, organizacionais, tecnológicos e ambientais. A crescente complexidade da atual modelagem de processos vem influenciando a investigação de tecnologias de reutilização que sejam viáveis nesse campo específico. A investigação conduzida nesse trabalho culminou na especificação de um meta-modelo que tem como objetivo principal aumentar o nível de automação fornecido na reutilização de processos, apoiando a modelagem de processos abstratos que possam ser reutilizados em diferentes contextos. O meta-modelo proposto por esse trabalho - denominado APSEE-Reuse - fornece uma série de construtores sintáticos que permitem que os diferentes aspectos desse contexto sejam descritos segundo múltiplas perspectivas, complementares entre si, contribuindo para diminuir a complexidade do modelo geral. A solução proposta destaca-se por fornecer um formalismo para modelagem de processos, o qual é integrado à uma infraestrutura de automação de processos de software, permitindo que a reutilização esteja intimamente relacionada com as outras etapas do ciclo de vida de processos. Os diferentes componentes envolvidos na definição do modelo APSEE-Reuse proposto foram especificados algebricamente, constituindo uma base semântica de alto 15 nível de abstração que deu origem a um conjunto de protótipos implementados no ambiente PROSOFT-Java. O texto ainda discute os experimentos realizados com o meta-modelo proposto na especificação de diferentes estudos de casos desenvolvidos a partir de exemplos retirados na literatura especializada, e de processos que fornecem soluções em contextos e necessidades específicas de projetos desenvolvidos no PPGC-UFRGS. Finalmente, são apresentadas considerações acerca dos trabalhos relacionados, os elementos críticos que influenciam a aplicabilidade do modelo e as atividades adicionais vislumbradas a partir do trabalho proposto.
Resumo:
Em linhas gerais, este trabalho aborda os temas de armazenamento de grandes volumes de imagens no formato DICOM, e a recuperação das mesmas com base em informações associadas a estas imagens (metadados independentes do conteúdo), informações obtidas na fase da interpretação das imagens (metadados descritivos de conteúdo), ou usando informações visuais que foram anotadas nas imagens ou extraídas das mesmas, por médicos especialistas em imagens médicas (metadados dependentes do conteúdo). Este trabalho foi desenvolvido com o propósito de elaborar uma modelagem conceitual que permita a descrição dos dados relevantes de imagens no formato DICOM, de maneira a facilitar a recuperação das mesmas posteriormente. As classes pertencentes ao modelo conceitual, decorrentes dessa modelagem, viabilizam a documentação de imagens médicas estáticas no formato DICOM. Visando o armazenamento de um grande volume de imagens médicas por um longo período de tempo, e considerando o desenvolvimento de uma solução economicamente viável para as instituições que provêm diagnóstico médico por imagens, o modelo propõe o armazenamento das imagens em um ambiente separado do banco de dados. Portanto, este trabalho apresenta uma solução que gerencia a localização das imagens em mídias on-line, near-line e off-line. Este gerenciamento mantém o banco de dados atualizado quanto à localização atual das imagens, mantém as imagens armazenadas e distribuídas em mídias conforme a disponibilidade dos recursos físicos de armazenamento, e auxilia na recuperação das imagens. Este modelo serviu como base para a implementação de um sistema protótipo que possibilita a descrição e a recuperação de imagens DICOM. Os resultados obtidos através da implementação do sistema protótipo, em termos de armazenamento, recuperação e gerenciamento da localização das imagens nos diferentes ambientes (online, near-line e off-line), são apresentados e discutidos.
Resumo:
O objetivo da pesquisa atém-se primeiramente em elaborar um protocolo que permita analisar, por meio de um conjunto de indicadores, o processo de reutilização de software no desenvolvimento de sistemas de informação modelando objetos de negócios. O protocolo concebido compõe-se de um modelo analítico e de grades de análise, a serem empregadas na classificação e tabulação dos dados obtidos empiricamente. Com vistas à validação inicial do protocolo de análise, realiza-se um estudo de caso. A investigação ocorre num dos primeiros e, no momento, maior projeto de fornecimento de elementos de software reutilizáveis destinados a negócios, o IBM SANFRANCISCO, bem como no primeiro projeto desenvolvido no Brasil com base no por ele disponibilizado, o sistema Apontamento Universal de Horas (TIME SHEET System). Quanto à aplicabilidade do protocolo na prática, este se mostra abrangente e adequado à compreensão do processo. Quanto aos resultados do estudo de caso, a análise dos dados revela uma situação em que as expectativas (dos pesquisadores) de reutilização de elementos de software orientadas a negócio eram superiores ao observado. Houve, entretanto, reutilização de elementos de baixo nível, que forneceram a infra-estrutura necessária para o desenvolvimento do projeto. Os resultados contextualizados diante das expectativas de reutilização (dos desenvolvedores) são positivos, na medida em que houve benefícios metodológicos e tecnológicos decorrentes da parceria realizada. Por outro lado, constatam-se alguns aspectos restritivos para o desenvolvedor de aplicativos, em virtude de escolhas arbitrárias realizadas pelo provedor de elementos reutilizáveis.
Resumo:
Este trabalho apresenta um modelo de metadados para descrever e recuperar imagens médicas na Web. As classes pertencentes ao modelo viabilizam a descrição de imagens de várias especialidades médicas, incluindo suas propriedades, seus componentes e as relações existentes entre elas. Uma das propriedades que o modelo incorpora é a classificação internacional de doenças, versão 10 (CID-10). O modelo de metadados proposto, inspirado em classes, favorece a especialização e sua implementação na arquitetura de metadados RDF. O modelo serviu de base para a implementação de um protótipo denominado de Sistema MedISeek (Medical Image Seek) que permite a usuários autorizados: descrever, armazenar e recuperar imagens na Web. Além disto, é sugerida uma estrutura persistente apropriada de banco de dados para armazenamento e recuperação dos metadados propostos.
Resumo:
Nowadays, the popularity of the Web encourages the development of Hypermedia Systems dedicated to e-learning. Nevertheless, most of the available Web teaching systems apply the traditional paper-based learning resources presented as HTML pages making no use of the new capabilities provided by the Web. There is a challenge to develop educative systems that adapt the educative content to the style of learning, context and background of each student. Another research issue is the capacity to interoperate on the Web reusing learning objects. This work presents an approach to address these two issues by using the technologies of the Semantic Web. The approach presented here models the knowledge of the educative content and the learner’s profile with ontologies whose vocabularies are a refinement of those defined on standards situated on the Web as reference points to provide semantics. Ontologies enable the representation of metadata concerning simple learning objects and the rules that define the way that they can feasibly be assembled to configure more complex ones. These complex learning objects could be created dynamically according to the learners’ profile by intelligent agents that use the ontologies as the source of their beliefs. Interoperability issues were addressed by using an application profile of the IEEE LOM- Learning Object Metadata standard.
Resumo:
Com a disseminação do uso de Ambientes de Aprendizagem na Web, muitos autores de conteúdo instrucional dedicam seu tempo e se esforçam para desenvolver material de qualidade. Para facilitar o reuso desses materiais, os mesmos estão sendo desenvolvidos como objetos de aprendizagem e são armazenados em repositórios na Web, de onde podem ser pesquisados e recuperados para reuso. Essa pesquisa e recuperação são baseadas nas características dos objetos, ou seja, em seus metadados. Dessa forma, é necessário que os Objetos de Aprendizagem possuam valores de metadados consistentes para que a pesquisa e recuperação sejam eficientes. O desenvolvimento de material instrucional de boa qualidade consome grande quantidade de recursos. A descrição completa destes materiais, ou seja, dos objetos de aprendizagem, não é uma atividade estimulante para os autores que informam apenas um mínimo de metadados. Esta falta de metadados torna muito difícil a recuperação e o reuso dos OA. O objetivo desse trabalho é definir técnicas que recuperem a maior quantidade possível de metadados a partir dos Objetos e Aprendizagem, com a mínima intervenção do usuário, resultando em uma indexação e recuperação eficientes dos Objetos de Aprendizagem Essas técnicas são definidas com base na estrutura e funcionamento do AdaptWeb, que é um ambiente de aprendizagem que disponibiliza material instrucional de forma estruturada e organizada. Assim, é possível fazer uso das informações disponíveis nesse ambiente para recuperar os metadados automaticamente. As técnicas transformam o conteúdo do AdaptWeb em objetos de aprendizagem, sendo capazes de recuperar uma quantidade considerável de metadados. Assim, têm-se Objetos de Aprendizagem devidamente catalogados e armazenados em um repositório, prontos para serem reusados.
Resumo:
O modelo de objetos apresenta-se como um modelo promissor para o desenvolvimento de software tolerante a falhas em virtude de características inerentes ao próprio modelo de objetos, tais como abstração de dados, encapsulamento, herança e reutilização de objetos (componentes). O uso de técnicas orientadas a objetos facilita o controle da complexidade do sistema porque promove uma melhor estruturação de seus componentes e também permite que componentes já validados sejam reutilizados [LIS96]. Técnicas básicas para tolerância a falhas em software baseiam-se na diversidade de projeto e de implementação de componentes considerados críticos. Os componentes diversitários são gerenciados através de alguma técnica que tenha por objetivo assegurar o fornecimento do serviço solicitado, como, por exemplo, a conhecida técnica de blocos de recuperação. Reflexão Computacional é a capacidade que um sistema tem de fazer computações para se auto analisar. Ela é obtida quando o programa pára sua execução por um período de tempo para fazer computações sobre si próprio; analisa seu estado, se o processamento está correto, se pode prosseguir com a execução e atingir o objetivo satisfatoriamente; se não precisa mudar de estratégia ou algoritmo de execução, fazendo, ainda, processamentos necessários para o sucesso da execução. Um sistema de programação distribuída consiste basicamente em vários aplicativos executados em diferentes computadores, os quais realizam troca de mensagens para solucionar um problema comum. A comunicação entre os computadores é realizada através da rede que os interliga. As Redes que controlam sistemas críticos são normalmente de pequena escala pois redes de grandes dimensões podem apresentar atrasos e baixa confiabilidade. Portanto, a abordagem aqui proposta consiste em utilizar, em um ambiente distribuído, uma arquitetura reflexiva aliada a técnicas do domínio da tolerância a falhas para promover a separação entre as atividades de controle, salvamento, recuperação, distribuição e validação de componentes e as funcionalidades executadas pelo próprio componente, a fim de que falhas não venham a prejudicar a disponibilidade, confiabilidade e clareza de determinadas computações. A proposta apóia-se num estudo de caso, implementado na linguagem de programação Java, com seus protocolos de reflexão computacional e de comunicação.
Resumo:
O volume de escória de aço inoxidável produzida a partir do forno elétrico a arco é elevado, e trazendo este fato para dentro do desenvolvimento sustentável, surge a necessidade de estudar a sua reciclagem e reutilização como instrumento de fundamental importância para o controle e minimização dos problemas ambientais, e deste modo resolver o seu problema de armazenagem. O objetivo deste trabalho foi analisar a mobilidade de cromo presente na composição da escória de aço inoxidável, quando esta é utilizada como matéria-prima para a confecção de material cerâmico, afim de avaliar o risco de contaminação ambiental que estes novos materiais podem causar durante o seu ciclo de vida. Houve a necessidade do estudo, principalmente, porque a escória apresenta cromo em sua composição, e em função disto envolve toda a problemática ambiental que resíduos de cromo provocam. As ferramentas utilizadas para este estudo foram os ensaios de lixiviação e solubilização baseados nas Normas Brasileiras para material granular, NBR 10005 e NBR 10006, respectivamente, e ensaio baseado na Norma Holandesa para material monolítico, NEN 7345, para corpos cerâmicos com percentuais de escória de 10%, 20% e 30% em peso. Os parâmetros utilizados para avaliação do comportamento deste material foram as diferentes granulometrias da amostra e diferentes soluções acidificantes. As diferentes granulometrias foram obtidas através de quebra aleatória ou cortes em local pré-determinado. Este parâmetro de avaliação foi aplicado nos ensaios baseados nas Normas Brasileiras As diferentes soluções acidificantes, ácido nítrico ou ácido acético, foram utilizadas como parâmetro de avaliação no ensaio baseado na Norma Holandesa. A periculosidade do resíduo foi determinada através da análise química dos extratos resultantes dos ensaios e posterior comparação com a concentração máxima dos componentes estabelecida na NBR 10004. Os resultados mostraram que a escória de aço inoxidável é resíduo não-inerte; o cromo presente na escória está na forma trivalente, podendo ser parcialmente oxidado a cromo hexavalente durante o processamento cerâmico; a granulometria, e conseqüente área superficial, é fator determinante para os ensaios de lixiviação e solubilização; e os dois ácidos utilizados apresentam grandes diferenças na extração dos constituintes, o que indica que os resultados são diferentes conforme a norma de lixiviação utilizada para a avaliação da mobilidade dos constituintes do resíduo.
Resumo:
O desenvolvimento e manutenção de software fazem parte de um processo intrinsecamente difícil e que consome tempo e custos, principalmente quando o sistema consiste de milhares de linhas de código. Por isso, sistemas de visualização de software objetivam prover mecanismos para construir representações visuais de informações sobre programas e sistemas, através das quais o programador pode analisar e compreender características de sua estrutura e funcionamento em um maior nível de abstração do que o código fonte. Assim, ferramentas visuais de software que suportam as tarefas de desenvolvimento, depuração, manutenção e reutilização tornam-se mais necessárias pelo fato de ajudarem a reduzir a complexidade inerente do processo de compreensão. Esse trabalho tem como objetivo principal o desenvolvimento de um visualizador que exiba as informações existentes nos programas de forma mais rápida e legível, evitando que o programador/analista tenha que percorrer as linhas de código. O texto inicialmente situa a área de visualização de informações, abordando a área de visualização de software, uma vez que a visualização de software é assim chamada por tratar da visualização de informações que são extraídas de programas. Em seguida, é apresentado um estudo de caso baseado no desenvolvimento dos sistemas da empresa Benfare Informática, no qual caracteriza-se a necessidade de ferramentas que auxiliem a compreensão de programas, com o objetivo de otimizar as operações de manutenção e desenvolvimento de programas. O restante do trabalho trata do sistema VisProgress que foi um protótipo desenvolvido como ferramenta de apoio para a equipe de desenvolvimento da empresa e como forma de avaliar o uso de técnicas de visualização em tal situação. A ferramenta desenvolvida é um visualizador de informações que percorre programas escritos em Progress, ferramenta de desenvolvimento utilizada pela empresa, e extrai as informações encontradas nos programas. A visualização é dividida em três partes. A primeira permite a visualização de informações textuais extraídas diretamente do código fonte dos programas que compõem os sistemas, a segunda faz a visualização de um grafo que representa a chamada de programas, e a terceira e última faz a visualização também de um grafo, porém representando o compartilhamento de variáveis entre os programas. A obtenção dos grafos foi construída em Delphi, porém a visualização gráfica é feita através da ferramenta Dotty, ferramenta específica para visualização de grafos. Após a descrição do protótipo implementado, são apresentados os resultados obtidos com a avaliação da ferramenta feita nas empresas Benfare Informática e Dzset Soluções e Sistemas para Computação.
Resumo:
O Resource Description Framework (RDF) é uma infra-estrutura, que possibilita a codificação, troca e reuso de metadata estruturado. Metadata é dados sobre dados. O termo refere a qualquer dado usado para ajudar a identificação, descrição e localização de recursos eletrônicos na rede. O RDF permite adicionar declarações, sinônimos e palavras que não estão presentes nos recursos, mas que são pertinentes a eles. Uma declaração RDF pode ser desenhada usando diagramas de arcos e nodos, onde os nodos representam os recursos e os arcos representam as propriedades nomeadas. O modelo básico consiste em recursos, propriedades e objetos. Todas as coisas sendo descritas pelas declarações RDF são chamadas de recursos. Um recurso pode ser uma página da Web inteira ou um elemento específico HTML ou XML dentro de um documento fonte. Uma propriedade é um aspecto específico, característica, atributo, ou relação usada para descrever um recurso. O objeto pode ser um outro recurso ou um literal. Estas três partes, juntas, formam uma declaração RDF. O resultado do parser para recursos com metadata RDF, é um conjunto de declarações referentes aquele recurso. A declaração destas propriedades e a semântica correspondente delas estão definidas no contexto do RDF como um RDF schema. Um esquema não só define as propriedades do recurso (por exemplo, título, autor, assunto, tamanho, cor, etc.), mas também pode definir os tipos de recursos sendo descritos (livros, páginas Web, pessoas, companhias, etc.). O RDF schema, provê um sistema básico de tipos necessários para descrever tais elementos e definir as classes de recursos. Assim, os recursos constituindo este sistema de tipos se tornam parte do modelo RDF de qualquer descrição que os usa. A geração de modelos RDF pode ser conseguida através de algoritmos implementados com linguagens de programação tradicionais e podem ser embutidos em páginas HTML, documentos XML e até mesmo em imagens. Com relação a modelos em imagens, servidores Web específicos são usados para simular dois recursos sobre o mesmo URI, servindo ora a imagem ora a descrição RDF. Uma alternativa para armazenar e manipular grande quantidade de declarações RDF é usar a tecnologia de banco de dados relacional. Abordagens para armazenar declarações RDF em banco de dados relacional foram propostas, mas todas elas mantêm modelos diversos de diferentes fontes. Critérios de avaliação como tempo de carga, proliferação de tabelas, espaço, dados mantidos e custo de instruções SQL foram definidos. Duas abordagens apresentaram resultados satisfatórios. Com uma nova abordagem proposta por este trabalho se obteve melhores resultados principalmente no aspecto de consultas. A nova proposta provê mecanismos para que o usuário faça seu próprio modelo relacional e crie suas consultas. O conhecimento necessário pelo usuário se limita em parte aos modelos mantidos e ao esquema RDF.
Resumo:
A reciclagem de resíduos na forma de materiais e componentes de construção civil tem sido uma alternativa bem sucedida em diversos casos, beneficiando a sociedade de várias maneiras, como pela economia de uso de matérias primas extraídas da natureza, pela redução do consumo de energia na produção de materiais e pela diminuição da poluição ambiental. Neste trabalho se estuda a viabilidade de reciclagem de um resíduo industrial sólido, gerado na operação de corte das peças de contrafortes de calçados1, cuja quantidade de geração de resíduos na Região do Vale dos Sinos - RS é estimada em 80 ton/mês, o que eqüivale a um volume mensal de 550m3 de resíduos. Até hoje o resíduo tem como destino final o descarte em aterros apropriados, devido ao alto custo necessário para a reutilização do material no processo industrial. A proposta para o uso do resíduo neste trabalho é sua adição em matriz de gesso, gerando um novo compósito para posterior uso na produção de materiais e componentes de construção civil. A realização do trabalho permitiu verificar que a adição do resíduo em matriz de gesso é possível, em teores de até 25% (massa de resíduo moído em relação à massa de gesso da matriz), não exigindo tecnologia sofisticada para moldagem. Os resultados de ensaios realizados para caracterização do compósito indicam que o resíduo adicionado tem comportamento semelhante ao de uma fibra, incrementando de forma muito significativa a resistência ao impacto e à flexão e o comportamento pós-fissuração. A adição dos resíduos aumentou a tenacidade da matriz , evitando rupturas bruscas e proporcionando uma deformação plástica considerável. O compósito gerado é resistente ao manuseio, sendo adequado para uso na construção civil.
Resumo:
Tolerância a falhas é um dos aspectos mais importantes a serem considerados no desenvolvimento de aplicações, especialmente com a participação cada vez maior de sistemas computacionais em áreas vitais da atividade humana. Dentro deste cenário, um dos fatores a serem considerados na persecução deste objetivo é o gerenciamento de atomicidade. Esta propriedade, por sua vez, apresenta duas vertentes principais: o controle de concorrência e a recuperação de estados. Considerando-se a tolerância a falhas e, particularmente, a atomicidade como requisitos com alto grau de recorrência em aplicações, verifica-se a importância de sua reutilização de forma simples e transparente e do estudo de meios de prover tal capacidade. O presente trabalho procurou pesquisar e aplicar meios de produzir soluções reutilizáveis para implementação de programas tolerantes a falhas, mais especificamente de técnicas de controle de atomicidade, utilizando vários paradigmas computacionais. Neste intuito, foram pesquisados mecanismos de introdução de atomicidade em aplicações e suas respectivas demandas, para então extrair critérios de análise dos paradigmas a serem utilizados na implementações das soluções. Buscou-se suporte nestes paradigmas às demandas previamente pesquisadas nos mecanismos de gerenciamento de atomicidade e procurou-se chegar a soluções reutilizáveis mantendo simplicidade de uso, possibilidade de alteração dinâmica, transparência, adaptabilidade e velocidade de desenvolvimento. Devido à existência de uma grande diversidade de situações que requerem diferentes implementações de atomicidade, alguns cenários típicos foram selecionados para aplicação e avaliação das técnicas aqui sugeridas, procurando abranger o maior número possível de possibilidades. Desta maneira, este trabalho comparou situações opostas quanto à concorrência pelos dados, implementando cenários onde ocorrem tanto acesso cooperativo quanto competitivo aos dados. Dentro de cada um dos cenários estudados, buscaram-se situações propícias ao emprego das características dos paradigmas e analisou-se o resultado de sua aplicação quanto aos critérios definidos anteriormente. Várias soluções foram analisadas e comparadas. Além dos mecanismos de gerenciamento de atomicidade, também foram estudados vários paradigmas que pudessem ser empregados na implementação de soluções com alto grau de reutilização e adaptabilidade. As análises e sugestões posteriores às implementações serviram como substrato para conclusões e sugestões sobre a melhor maneira de empregar tais soluções nos cenários atômicos estudados. Com isso, foi possível relacionar características e capacidades de cada paradigma com a melhor situação de demanda de atomicidade na qual os mesmos são aplicáveis, moldando uma linha de soluções que favoreçam sua reutilização. Um dos objetivos mais importantes do trabalho foi, entretanto, observar o funcionamento conjunto destes paradigmas, estudando como os mesmos podem atuar de forma simbiótica e de que forma os conceitos de um paradigma podem complementar os de outro.
Resumo:
Este trabalho apresenta um modelo genérico para o desenvolvimento de sistemas de gestão empresarial. O modelo foi criado com base na experiência profissional do autor do trabalho e revisão bibliográfica sobre a utilização de padrões de análise. O modelo proposto prioriza aspectos de simplicidade e flexibilidade no desenvolvimento de sistemas de informação. Sua utilização visa facilitar a reutilização de componentes, diminuir o tempo para o desenvolvimento de aplicativos e propiciar a criação de sistemas flexíveis que rapidamente possam se adaptar a novas necessidades dos processos de negócios. Os modelos estão descritos no corpo do trabalho e estendem a utilização dos padrões originais de onde os mesmos se originam, descrevendo os relacionamentos entre os modelos apresentados, suas classes e atributos. Exemplos da utilização prática dos modelos são apresentados em situações de negócios e conclusões sobre o potencial de utilização dos mesmos são discutidos ao final do trabalho.