999 resultados para Descoberta de conhecimento em bases de dados
Resumo:
Dissertação de mestrado integrado em Engenharia e Gestão de Sistemas de Informação
Resumo:
Dissertação de mestrado integrado em Engenharia e Gestão de Sistemas de Informação
Resumo:
Apresenta o processo desenvolvido pela Companhia de Informática do Paraná (Celepar) na conversão de uma base de dados bibliográfica de recuperação de informações em MicroISIS, para disponibilização por meio da Internet. Relata quais os passos seguidos nesta conversão, desde a decisão pela utilização de banco de dados não relacional, até sua recuperação por intermédio de páginas web. Mostra como foi o processo de conversão do arquivo mestre do MicroISIS para um arquivo seqüencial, possibilitando assim o acesso a este em ambiente mainframe. Apresenta ainda a estrutura do módulo de pesquisa, especialmente com relação às facilidades do sistema.
Resumo:
O artigo aborda os programas de pesquisa do Centro de Estudos Informétricos de Copenhague. Descrevendo a informetria como subcampo da bibliometria, discute uma nova abordagem para a área, qual seja, a combinação de teorias e metodologias avançadas de recuperação da informação com o estudo científico dos fluxos da informação. O Centro objetiva aplicar métodos bibliométricos não somente em estudos cienciométricos e em avaliações da pesquisa científica e tecnológica, mas também na análise de suas relações sociais, econômicas etc., ampliando as análises bibliométricas tradicionais para abranger as comunidades não acadêmicas nas quais a informação é produzida, comunicada e usada. A autora também convoca os profissionais de biblioteconomia e ciência da informação para enfrentarem o desafio dessa nova área de estudos quantitativos, aprendendo a explorar as bases de dados também como um instrumento para desenvolver atividades de análise, enfatizando as possibilidades que esses profissionais têm para elevar o nível de suas posições hierárquicas, assim como para explorar as técnicas informétricas no gerenciamento de políticas e de tomadas de decisão.
Resumo:
Avalia os resultados da capacitação de usuários em buscas informatizadas, por meio do Curso de Acesso às Bases em cd-rom Medline e Lilacs, modalidade do Programa Educativo da Biblioteca/CIR da Faculdade de Saúde Publica da USP, oferecido a docentes e alunos da pós-graduação em saúde pública. O universo de estudo foi constituído de 92 participantes entre 1993 e 1995. Os resultados mostraram que, após a participação no Curso, 65,2% deles conseguiram autonomia no uso das bases de dados, 15,2% solicitaram buscas intermediadas pelo bibliotecário, bem como 19,6% não realizaram forma alguma de busca nas bases da Biblioteca. A intermediação dos bibliotecários foi solicitada por motivos como: pouca familiaridade com as bases, dificuldade em lidar com tecnologia, confiança na busca realizada pelo bibliotecário e falta de tempo para buscas. O egresso do curso que não realizou busca informatizada alegou não ter tido necessidade de fazê-lo no período estudado.
Resumo:
O trabalho tem como objetivo examinar o uso da linguagem controlada ou da linguagem natural , no planejamento da estratégia de busca em um ambiente de bases de dados em CD-ROM ou em linha. São revisados os estudos que abordam o uso das linguagens controlada e natural nas estratégias de busca, suas vantagens e desvantagens, proporcionando uma perspectiva sobre a complexidade para a busca da informação bibliográfica e referencial, incluindo a seleção de termos para as estratégias e a função do vocabulário controlado ou da linguagem natural nesse contexto.
Resumo:
O conjunto de informações usadas por administradores para a tomada de decisão tem sido chamado de "informação para negócios" e inclui informações mercadológicas, financeiras, estatísticas, jurídicas, sobre empresas e produtos e outras informações fatuais e analíticas sobre tendências nos cenários político-social, econômico e financeiro nos quais operam organizações empresariais. Este artigo categoriza e descreve algumas das principais bases de dados estrangeiras sobre informação para negócios, mostrando o universo de informações que elas disponibilizam em forma eletrônica. Para fins de discussão, as bases foram agrupadas em 10 categorias: (1) notícias em geral; (2) informações sobre empresas e setores industriais; (3) diretórios de empresas; (4) informações sobre produtos; (5) informações biográficas; (6) informações financeiras; (7) informações para investimento; (8) pesquisas de mercado; (9) informações jurídicas e (10) informações estatísticas. Agrupadas dessa forma para fins didáticos, na prática essas categorias se sobrepõem, e muitas bases de dados se enquadram em mais de uma categoria desta classificação. O artigo revê também algumas das principais empresas produtoras e distribuidoras de bases de dados sobre informação para negócios e as tendências da indústria de informação eletrônica.
Resumo:
A comunicação científica é um processo inerente ao fazer científico, sendo sua importância reconhecida pelos cientistas que, através dos tempos, estabeleceram diversos canais de comunicação. O objetivo deste trabalho é analisar os critérios de editoração e difusão da produção científica na área de geociências publicada em periódicos nacionais e sua visibilidade por meio da indexação em bases de dados. Foram analisados 27 títulos utilizando critérios de editoração, difusão e visibilidade. Conclui-se que os periódicos apresentam qualidade editorial e de conteúdo, mas poucos são indexados em bases de dados. Sugere-se que sejam desenvolvidas bases de dados nacionais para que a produção brasileira tenha maior visibilidade científica.
Resumo:
In spite of the availability of large databases of chromatographic data on several standardized systems, one major task in systematic toxicological analysis remains, namely how to handle the experimental data and retrieve data from the large available databases in a meaningful and productive way. To achieve this purpose, our group proposed an Internet-based tool using previously published STA databases, which interlaboratorial reproducibility tests have already evaluated. The developed software has the capability to calculate corrected chromatographic parameters, after the input of data obtained with standard mixtures of calibrators, and search the databases, currently incorporating TLC, color reactions, GC and HPLC data. At the end of the process, a list with candidate substances and their similarity indexes is presented.
Resumo:
O presente trabalho teve como objetivo avaliar o método para delimitação da bacia de contribuição à montante de um ponto selecionado sobre o hidrografia e a obtenção das respectivas características morfométricas, a partir de bases de dados estruturadas topologicamente. Para tanto, utilizou-se o aplicativo Hidrodata 2.0, desenvolvido para o ArcINFO workstation, comparando os seus resultados com os do processo convencional. Os resultados comprovaram que o tempo de processamento demandado para delimitação de bacias e extração de suas características morfométricas a partir de uma base de dados estruturada topologicamente se manteve baixo e constante. Concluiu-se que o método apresentado poderá ser aplicado em qualquer bacia hidrográfica, independentemente do seu tamanho, mesmo com o uso de computadores de configuração mais modesta.
Resumo:
Como é possível que a partir da negação do racional (isto é, do colapso na representação do conhecimento, dado pela presença de informações contraditórias) se possa obter conhecimento adicional? Esse problema, além de seu interesse intrínseco, adquire uma relevância adicional quando o encontramos na representação do conhecimento em bases de dados e raciocínio automático, por exemplo. Nesse caso, diversas tentativas de tratamento têm sido propostas, como as lógicas não-monotônicas, as lógicas que tentam formalizar a ideia do raciocínio por falha (default). Tais tentativas de solução, porém, são falhas e incompletas; proponho que uma solução possível seria formular uma lógica do irracional, que oferecesse um modelo para o raciocínio permitindo não só suportar contradições, como conseguir obter conhecimento, a partir de tais situações. A intuição subjacente à formulação de tal lógica são as lógicas paraconsistentes de da Costa, mas com uma teoria da dedução diferente e uma semântica completamente distinta (à qual me refiro como "semântica de traduções possíveis"). Tal proposta, como pretendo argumentar, fornece um enfoque para a questão que é ao mesmo tempo completamente satisfatório, aplicável do ponto de vista prático e aceitável do ponto de vista filosófico.
Resumo:
Extração de dados é o processo utilizado para obter e estruturar informações disponibilizaadas em documentos semi-estruturados (ex.: páginas da Web). A importâmncia da extrtação de dados vem do fato que, uma vez extraídos, os dados podem ser armazenados e manipulados em uma forma estruturada. Dentre as abordagens existentes para extração de dados, existe a abordagem de extração baseada em ontologias. Nesta abordagem, ontologias são preciamente criadas para descrever um domínio de interesse, gerando um modelo conceitual enriquecido com informações necessárias para extração de dados das fontes semi-estruturadas. A ontologia é utilizada como guia ara um programa (¨parser¨) que executa a extração de dados dos documentos ou páginas fornecidos como enetrada. Oprocesso de criação da ontologia não é uma tarefa trtivial e requer um cuidado trabalho ee análise dos documentos ou páginas fontes dos dados. Este trabalho é feito manualmente por usuários especialistas no domínio de interesse da ontologia. Entretanto, em algumas situações os dados que se desejam extrair estão modelados em bancos de dados relacionais. Neste caso, o modelo realcional do banco de dados por ser utilizado para constrtução do modelo conceitual na ontologia. As instâncias dos dados armazenados neste mesmo banco podem ajudar a gerar as informações sobre conteúdo e formato dos dados a serem extraídos. Estas informações sobre conteúdo e formato de dados, na ontologia, são representadas por expressões regulares e estão inseridas nos chamados "data frames". O objetivo deste trabalho é apresentar um método para criação semi-automática de ontologias de extração a partir das informações em um banco de dados já existente. O processo é baseado na engenharia reversa do modelo relacional para o modelo conceitual da ontologia combinada com a análise das instâncias dos dados para geração das expressões regulares nos "data frames".
Resumo:
Este trabalho faz avaliação de ferramentas que utilizam técnica de Descoberta de Conhecimento em Texto (agrupamento ou “clustering”). As duas ferramentas são: Eurekha e Umap. O Eurekha é baseado na hipótese de agrupamento, que afirma que documentos similares e relevantes ao mesmo assunto tendem a permanecer em um mesmo grupo. O Umap, por sua vez, é baseado na árvore do conhecimento. A mesma coleção de documentos submetida às ferramentas foi lida por um especialista humano, que agrupou textos similares, a fim de que seus resultados fossem comparados aos das ferramentas. Com isso, pretende-se responder a seguinte questão: a recuperação automática é equivalente à recuperação humana? A coleção de teste é composta por matérias do jornal Folha de São Paulo, cujo tema central é a Amazônia. Com os resultados, pretende-se verificar a validade das ferramentas, os conhecimentos obtidos sobre a região e o tratamento que o jornal dá em relação à mesma.
Resumo:
A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.