53 resultados para Mineração e beneficiamento de urânio
Resumo:
Esta tese apresenta uma abordagem baseada em conceitos para realizar descoberta de conhecimento em textos (KDT). A proposta é identificar características de alto nível em textos na forma de conceitos, para depois realizar a mineração de padrões sobre estes conceitos. Ao invés de aplicar técnicas de mineração sobre palavras ou dados estruturados extraídos de textos, a abordagem explora conceitos identificados nos textos. A idéia é analisar o conhecimento codificado em textos num nível acima das palavras, ou seja, não analisando somente os termos e expressões presentes nos textos, mas seu significado em relação aos fenômenos da realidade (pessoas, objetos, entidades, eventos e situações do mundo real). Conceitos identificam melhor o conteúdo dos textos e servem melhor que palavras para representar os fenômenos. Assim, os conceitos agem como recursos meta-lingüísticos para análise de textos e descoberta de conhecimento. Por exemplo, no caso de textos de psiquiatria, os conceitos permitiram investigar características importantes dos pacientes, tais como sintomas, sinais e comportamentos. Isto permite explorar o conhecimento disponível em textos num nível mais próximo da realidade, minimizando o problema do vocabulário e facilitando o processo de aquisição de conhecimento. O principal objetivo desta tese é demonstrar a adequação de uma abordagem baseada em conceitos para descobrir conhecimento em textos e confirmar a hipótese de que este tipo de abordagem tem vantagens sobre abordagens baseadas em palavras. Para tanto, foram definidas estratégias para identificação dos conceitos nos textos e para mineração de padrões sobre estes conceitos. Diferentes métodos foram avaliados para estes dois processos. Ferramentas automatizadas foram empregadas para aplicar a abordagem proposta em estudos de casos. Diferentes experimentos foram realizados para demonstrar que a abordagem é viável e apresenta vantagens sobre os métodos baseados em palavras. Avaliações objetivas e subjetivas foram conduzidas para confirmar que o conhecimento descoberto era de qualidade. Também foi investigada a possibilidade de se realizar descobertas proativas, quando não se tem hipóteses iniciais. Os casos estudados apontam as várias aplicações práticas desta abordagem. Pode-se concluir que a principal aplicação da abordagem é permitir análises qualitativa e quantitativa de coleções textuais. Conceitos podem ser identificados nos textos e suas distribuições e relações podem ser analisadas para um melhor entendimento do conteúdo presente nos textos e, conseqüentemente, um melhor entendimento do conhecimento do domínio.
Resumo:
Esta tese apresenta contribuições ao processo de Descoberta de Conhecimento em Bases de Dados (DCBD). DCBD pode ser entendido como um conjunto de técnicas automatizadas – ou semi-automatizadas – otimizadas para extrair conhecimento a partir de grandes bases de dados. Assim, o já, de longa data, praticado processo de descoberta de conhecimento passa a contar com aprimoramentos que o tornam mais fácil de ser realizado. A partir dessa visão, bem conhecidos algoritmos de Estatística e de Aprendizado de Máquina passam a funcionar com desempenho aceitável sobre bases de dados cada vez maiores. Da mesma forma, tarefas como coleta, limpeza e transformação de dados e seleção de atributos, parâmetros e modelos recebem um suporte que facilita cada vez mais a sua execução. A contribuição principal desta tese consiste na aplicação dessa visão para a otimização da descoberta de conhecimento a partir de dados não-classificados. Adicionalmente, são apresentadas algumas contribuições sobre o Modelo Neural Combinatório (MNC), um sistema híbrido neurossimbólico para classificação que elegemos como foco de trabalho. Quanto à principal contribuição, percebeu-se que a descoberta de conhecimento a partir de dados não-classificados, em geral, é dividida em dois subprocessos: identificação de agrupamentos (aprendizado não-supervisionado) seguida de classificação (aprendizado supervisionado). Esses subprocessos correspondem às tarefas de rotulagem dos itens de dados e obtenção das correlações entre os atributos da entrada e os rótulos. Não encontramos outra razão para que haja essa separação que as limitações inerentes aos algoritmos específicos. Uma dessas limitações, por exemplo, é a necessidade de iteração de muitos deles buscando a convergência para um determinado modelo. Isto obriga a que o algoritmo realize várias leituras da base de dados, o que, para Mineração de Dados, é proibitivo. A partir dos avanços em DCBD, particularmente com o desenvolvimento de algoritmos de aprendizado que realizam sua tarefa em apenas uma leitura dos dados, fica evidente a possibilidade de se reduzir o número de acessos na realização do processo completo. Nossa contribuição, nesse caso, se materializa na proposta de uma estrutura de trabalho para integração dos dois paradigmas e a implementação de um protótipo dessa estrutura utilizando-se os algoritmos de aprendizado ART1, para identificação de agrupamentos, e MNC, para a tarefa de classificação. É também apresentada uma aplicação no mapeamento de áreas homogêneas de plantio de trigo no Brasil, de 1975 a 1999. Com relação às contribuições sobre o MNC são apresentados: (a) uma variante do algoritmo de treinamento que permite uma redução significativa do tamanho do modelo após o aprendizado; (b) um estudo sobre a redução da complexidade do modelo com o uso de máquinas de comitê; (c) uma técnica, usando o método do envoltório, para poda controlada do modelo final e (d) uma abordagem para tratamento de inconsistências e perda de conhecimento que podem ocorrer na construção do modelo.
Resumo:
O dimensionamento de pilares em mineração de carvão, no Brasil, sempre foi considerado conservativo em relação às metodologias e características das camadas que estava sendo lavrada. Torna-se necessário reverter o status-quo existente nesse tema para que a atividade de mineração em carvão se torne mais lucrativa e segura ao mesmo tempo. Problemas geomecânicos, que causaram acidentes fatais, diminuição das reservas de carvão, alto custo de extração e baixa recuperação na lavra são decorrentes ao baixo conhecimento do comportamento geomecânico do maciço rochoso e das metodologias de modelamento geomecânicos. Esse trabalho propõe uma nova técnologia de mapeamento geomecânico e caracterização geomecânica para determinar parâmetros geomecânicos das rochas que formam o sistema piso-pilarteto de uma camada de carvão. O dimensionamento de pilares, então, deve ser baseado nessas informações que alimentam um modelo geomecânico que utiliza métodos numéricos para solucionálos. Dentro do processo de aquisição de informações geomecânicas são propostos novos métodos de mapeamento geomecânico por janela amostral e o cálculo dos índices espaçamento médio e freqüência de descontinuidades. Baseado nas características quantitativas das descontinuidades é proposto o cálculo do RQD* (Rock Quality Designation teórico) para a camada de carvão com base na função de distribuição que se ajusta ao histograma de distribuição do espaçamento de descontinuidades. Esse procedimento refletiu melhor a qualidade do maciço rochoso, baseado no índice RMR (Rock Mass Rating). Considerando-se a qualidade do maciço rochoso e utilizando critérios de rupturas empíricos, foram estimados os parâmetros geomecânicos das rochas que alimentaram os modelos geomecânicos.(Continua)_ Foram gerados modelos numéricos para simular situações reais encontradas na camada Bonito em Santa Catarina e propor um novo paradigma para dimensionamento de pilares, baseado em simulação numérica, considerando todo o entorno do pilar, compreendendo o sistema piso-pilarteto. Os resultados desses modelos são comparados com o monitoramento das deformações dos pilares para confrontar as simulações numéricas com o comportamento geomecânico do maciço insitu. Os resultados apresentaram grande qualidade e concordância com o comportamento dos pilares apresentados no monitoramento das deformações, provando que a metodologia proposta aqui pode ser utilizada em futuros projetos de dimensionamento de pilares.
Resumo:
A Descoberta de Conhecimento em Banco de Dados (DCBD) é uma nova área de pesquisa que envolve o processo de extração de conhecimento útil implícito em grandes bases de dados. Existem várias metodologias para a realização de um processo de DCBD cuja essência consiste basicamente nas fases de entendimento do domínio do problema, pré-processamento, mineração de dados e pós-processamento. Na literatura sobre o assunto existem muitos trabalhos a respeito de mineração de dados, porém pouco se encontra sobre o processo de pré-processamento. Assim, o objetivo deste trabalho consiste no estudo do pré-processamento, já que é a fase que consome a maior parte do tempo e esforço de todo o processo de DCBD pois envolve operações de entendimento, seleção, limpeza e transformação de dados. Muitas vezes, essas operações precisam ser repetidas de modo a aprimorar a qualidade dos dados e, conseqüentemente, melhorar também a acurácia e eficiência do processo de mineração. A estrutura do trabalho abrange cinco capítulos. Inicialmente, apresenta-se a introdução e motivação para trabalho, juntamente com os objetivos e a metodologia utilizada. No segundo capítulo são abordadas metodologias para o processo de DCBD destacando-se CRISP-DM e a proposta por Fayyad, Piatetsky-Shapiro e Smyth. No terceiro capítulo são apresentadas as sub-fases da fase de pré-processamento contemplando-se entendimento, seleção, limpeza e transformação de dados, bem como os principais métodos e técnicas relacionados às mesmas. Já no quarto capítulo são descritos os experimentos realizados sobre uma base de dados real. Finalmente, no quinto capítulo são apresentadas as considerações finais sobre pré-processamento no processo de DCBD, apontando as dificuldades encontradas na prática, contribuições do presente trabalho e pretensões da continuidade do mesmo. Considera-se como principais contribuições deste trabalho a apresentação de métodos e técnicas de pré-processamento existentes, a comprovação da importância da interatividade com o especialista do domínio ao longo de todo o processo de DCBD, mas principalmente nas tomadas de decisões da fase de pré-processamento, bem como as sugestões de como realizar um pré-processamento sobre uma base de dados real.
Resumo:
A classificação é uma das tarefas da Mineração de Dados. Esta consiste na aplicação de algoritmos específicos para produzir uma enumeração particular de padrões. Já a classificação é o processo de gerar uma descrição, ou um modelo, para cada classe a partir de um conjunto de exemplos dados. Os métodos adequados e mais utilizados para induzir estes modelos, ou classificadores, são as árvores de decisão e as regras de classificação. As regras e árvores de decisão são populares, principalmente, por sua simplicidade, flexibilidade e interpretabilidade. Entretanto, como a maioria dos algoritmos de indução particionam recursivamente os dados, o processamento pode tornar-se demorado, e a árvore construída pode ser muito grande e complexa, propensa ao overfitting dos dados, que ocorre quando o modelo aprende detalhadamente ao invés de generalizar. Os conjuntos de dados reais para aplicação em Mineração de Dados são, atualmente, muito grandes, e envolvem vários milhares de registros, sendo necessária, também, uma forma de generalizar estes dados. Este trabalho apresenta um novo modelo de indução de classificadores, em que o principal diferencial do algoritmo proposto é a única passada pelo conjunto de treinamento durante o processo de indução, bem como a sua inspiração proveniente de um Sistema Multiagente. Foi desenvolvido um protótipo, o Midas, que foi validado e avaliado com dados de repositórios. O protótipo também foi aplicado em bases de dados reais, com o objetivo de generalizar as mesmas. Inicialmente, foi estudado e revisado o tema de Descoberta de Conhecimento em Bases de Dados, com ênfase nas técnicas e métodos de Mineração de Dados. Neste trabalho, também são apresentadas, com detalhes, as árvores e regras de decisão, com suas técnicas e algoritmos mais conhecidos. Finalizando, o algoritmo proposto e o protótipo desenvolvido são apresentados, bem como os resultados provenientes da validação e aplicação do mesmo.
Resumo:
o estado de Santa Catarina é responsável por 50% da produção nacional de carvão. A produção de carvão nas carboníferas da região de Criciúma - SC ocorre por meio de mineração subterrânea, utilizando o método de câmaras e pilares. Os sistemas de suportes de teto em mina subterrânea de carvão têm apresentado notáveis mudanças no seu desenvolvimento ao longo da história. Para tanto, atualmente existe uma ampla gama de tipos de suportes ou mecanismos de sustentação. O teto das minas de carvão é composto de rochas sedimentares as quais variam em espessura e em extensão lateral. Além disso, essas rochas apresentam resistência variada e características estruturais distintas. Contudo, o padrão de sustentação geralmente é o mesmo, independente da qualidade do maciço. Esse estudo buscou verificar se o padrão de suporte de teto atualmente empregado na Mina Barro Branco, apresenta-se adequado às distintas condições geológicas e geomecânicas do maciço rochoso que compõe o teto imediato da mina. Para este fim, o teto imediato foi avaliado ao longo de várias seções da mina e as informações foram usadas para classificar o maciço em zonas de acordo com o sistema Coal Mine Roof Rating (CMRR) proposto pelo U.S. Bureauof Minesem 1994. Diferentes índices de CMRRforam identificados e então considerados para definir a largura máxima nos cruzamentos, o comprimentoe a capacidadede carregamento dos parafusos de teto. Estatísticas da mina revelam que caimentos de teto acorreram quando as dimensões e o padrão de suporte empregado estão aquém do mínimo recomendado pelo CMRR. Esta metodologiaprovou ser adequada, minimizando os riscosde ruptura de teto e predizendoo tipo de suporte mais apropriadoa ser empregado às várias zonas dentro do depósito. Estes resultados preliminares devem ser validados em diferentes locais da mina e ajustes secundários devem ser implementados no método principalmente devido ao uso de explosivos no desmonte das rochas.
Resumo:
O conhecimento da vegetação em regiões de ocorrências minerais de cobre e ouro torna-se de grande importância para o desenvolvimento de tecnologias limpas na reabilitação de áreas degradadas pela mineração (fitorremediação) e na bioprospecção mineral no Estado. Buscou-se verificar a relação entre a organização espacial e fitossociológica das unidades e subunidades de vegetação na mina Volta Grande, Lavras do Sul, RS e a presença de cobre nas mineralizações. Com base em Ecologia de Paisagem, realizou-se investigações fitossociológicas, avaliação do conteúdo de cobre em raízes e folhas de Axonopus affinis, Eugenia uniflora, Heterothalamus alienus, Saccharum angustifolium, Schizachyrium microstachyum e Schinus lentiscifolius e o zoneamento da vegetação com sobreposição ao mapa de estruturas mineralizadas conhecidas. De acordo com os resultados obtidos, sugere-se que a distribuição das unidades e subunidades de vegetação (unidade de vegetação Eugenia uniflora – Scutia buxifolia, com subunidades Eugenia uniflora – Cupania vernalis e Eugenia uniflora – Allophylus edulis; unidade de vegetação Schinus lentiscifolius – Heterothalamus alienus; unidade de vegetação Eryngium horridum – Saccharum angustifolium, com subunidade Eryngium horridum – Piptochaetium montevidense e unidade de vegetação Axonopus affinis – Paspalum pumilum) pode estar relacionada à posição geomorfológica, à declividade, à umidade do solo e ao manejo para o uso do gado A unidade de vegetação Schinus lentiscifolius – Heterothalamus alienus parece estar relacionada às ocorrências de mineralizações (filões) de cobre e ouro, sendo necessária uma comparação com outras áreas mineralizadas e não-mineralizadas no Estado para utilizar esse dado em prospecção mineral. A espécie Axonopus affinis possui em suas raízes um conteúdo de cobre muito maior do que o considerado normal em plantas, sendo indicada para estudos mais detalhados quanto a sua aplicabilidade na reabilitação de áreas degradadas pela mineração no Rio Grande do Sul.
Resumo:
Este trabalho apresenta um estudo de caso de mineração de dados no varejo. O negócio em questão é a comercialização de móveis e materiais de construção. A mineração foi realizada sobre informações geradas das transações de vendas por um período de 8 meses. Informações cadastrais de clientes também foram usadas e cruzadas com informações de venda, visando obter resultados que possam ser convertidos em ações que, por conseqüência, gerem lucro para a empresa. Toda a modelagem, preparação e transformação dos dados, foi feita visando facilitar a aplicação das técnicas de mineração que as ferramentas de mineração de dados proporcionam para a descoberta de conhecimento. O processo foi detalhado para uma melhor compreensão dos resultados obtidos. A metodologia CRISP usada no trabalho também é discutida, levando-se em conta as dificuldades e facilidades que se apresentaram durante as fases do processo de obtenção dos resultados. Também são analisados os pontos positivos e negativos das ferramentas de mineração utilizadas, o IBM Intelligent Miner e o WEKA - Waikato Environment for Knowledge Analysis, bem como de todos os outros softwares necessários para a realização do trabalho. Ao final, os resultados obtidos são apresentados e discutidos, sendo também apresentada a opinião dos proprietários da empresa sobre tais resultados e qual valor cada um deles poderá agregar ao negócio.
Resumo:
o objetivo do presente trabalho foi desenvolver um material adsorvente alternativo de íons sulfato a partir de um resíduo industrial abundante e renovável. Apesar da baixa toxicidade, concentrações elevadas destes íons inviabilizam o reciclo, o reuso e o descarte de efluentes. Para tanto, foi utilizado o resíduo do processamento de camarão que, após etapas de desmineralização, desproteinização e desacetilação, forneceu materiais quitinosos em forma de flakes com diferentes graus de desacetilação (GD), tendo sido selecionada a quitina com GD da ordem de 25% como sólido adsorvente. Os estudos de adsorção de íons sulfàto, realizados em frascos agitados com soluções sintéticas, mostraram valores de remoção da ordem de 92%, correspondente a uma capacidade de adsorção de 3,2 mEq.g-l. Estes resultados foram obtidos com o emprego de uma razão sólido/SO/- de 8,5 mg.mg-I, tempo de contato de 15 minutos e um pH de equilíbrio de 4,3 :t 0,3. Além da adsorção de íons sulfato, os resultados revelaram que quiti.na adsorve também íons molibdato (82% em 15 minutos e 92% em 60 minutos) sem qualquer interferência na adsorção de íons sulfato, fato considerado relevante no tratamento de efluentes de mineração de cobre e molibdênio. A adsorção dos íons sulfàto por quiti.na ocorre através do mecanismo de fisissorção por atração eletrostática, seguindo um modelo cinético de pseudo-segunda ordem, onde as etapas de transferência de massa dos íons não foram limitantes. A reversibilidade da adsorção, uma das características de processos que envolvem interações eletrostáticas, foi confirmada através de estudos de dessorção utilizando soluções de NaOH e permitiram verificar a possibilidade de regeneração do adsorvente. A cinética de adsorção em coluna de percolação, para uma granulometria de sólido e pH inicial do meio inferiores, foi maior do que a obtida no sistema de frascos agitados. Por outro lado, a capacidade de adsorção obtida a partir da curva de saturação em coluna de percolação foi praticamente a mesma obtida no sistema de :fIascosagitados. Nos estudos com efluentes industriais, o desempenho da quitina foi praticamente similar ao obtido com efluentes sintéticos, tendo sido atingidos elevados percentuais de adsorção. Estes resultados confirmam o potencial deste bioadsorvente para o tratamento de efluentes contendo altas concentrações de íons sulfato. Finalmente, são discutidas as considerações gerais do processo no contexto geral do tratamento de efluentes líquidos contendo compostos inorgânicos.
Resumo:
O trabalho de safra no beneficiamento do fumo, em Santa Cruz do Sul, no Rio Grande do Sul, se articula significativamente com as discussões contemporâneas sobre precarização do trabalho e sobre tempo. Este trabalho sazonal traz a marca da precarização desde seus primórdios, indicando que práticas precarizantes já existem há muito tempo, embora sua discussão seja atual. A progressiva redução do número de postos de trabalho, a redução do período da safra, a automação do processo do trabalho desenvolvida pelas empresas e o aumento de exigência para a admissão de safristas, em relação à escolaridade, indicam a instabilidade e exclusão social que perpassam estes trabalhadores e que não ocorrem sem reflexos em seu processo de subjetivação. A partir de uma pesquisa com safristas do sexo feminino, sindicalizadas, de diferentes funções e empresas, procedemos, neste trabalho, a uma análise de como os safristas vivenciam este trabalho de poucos meses, com repetição e interrupção previsível, quais os elementos de precarização que estão presentes nas condições de trabalho, bem como os efeitos que produzem na subjetivação destes trabalhadores. Para realizar a pesquisa e a análise dos dados, utilizamos o aporte teórico da Psicologia, Sociologia, Psicodinâmica do Trabalho e Filosofia, em uma metodologia qualitativa em que o tratamento dos dados baseou-se na análise de conteúdo. Os resultados indicam que os safristas se subjetivam pela negativa do emprego pleno, efetivo, sendo perpassados pela lógica da desfiliação mesmo em período de safra, tendo inscrição social nesta condição de espera, à margem do modelo imposto pelo capital.
Resumo:
As árvores de decisão são um meio eficiente para produzir classificadores a partir de bases de dados, sendo largamente utilizadas devido à sua eficiência em relação ao tempo de processamento e por fornecer um meio intuitivo de analisar os resultados obtidos, apresentando uma forma de representação simbólica simples e normalmente compreensível, o que facilita a análise do problema em questão. Este trabalho tem, por finalidade, apresentar um estudo sobre o processo de descoberta de conhecimento em um banco de dados relacionado à área da saúde, contemplando todas as etapas do processo, com destaque à de mineração de dados, dentro da qual são aplicados classificadores baseados em árvores de decisão. Neste estudo, o conhecimento é obtido mediante a construção de árvores de decisão a partir de dados relacionados a um problema real: o controle e a análise das Autorizações de Internações Hospitalares (AIHs) emitidas pelos hospitais da cidade de Pelotas, conveniados ao Sistema Único de Saúde (SUS). Buscou-se encontrar conhecimentos que auxiliassem a Secretaria Municipal da Saúde de Pelotas (SMSP) na análise das AIHs, realizada manualmente, detectando situações que fogem aos padrões permitidos pelo SUS. Finalmente, os conhecimentos obtidos são avaliados e validados, possibilitando verificar a aplicabilidade das árvores no domínio em questão.
Resumo:
O dimensionamento de pilares em minas de carvão é fortemente influenciado pelas condições geomecânicas do depósito mineral e pelo método de lavra utilizado. No desmonte de rochas com utilização de explosivos, os danos provocados podem ser significativos e influenciar diretamente no dimensionamento e segurança dos pilares. Essa dissertação tem como meta estudar os danos nos pilares provocados pelo desmonte com explosivos em camadas de carvão tendo como hipótese de estudo que os danos no pilares diminuem em profundidade no interior do pilar, devendo ocorrer aumento na integridade da rocha desde as bordas até o núcleo do pilar. A validade da hipótese de estudo foi vericada em testemunhos de rocha obtidos por sondagem horizontal, nos quais foram feitos ensaios de resistência (carga pontual, tração (brasileiro), compressão uniaxial), ensaios de medição de velocidade ultrasônica e de velocidade de partícula (medição de vibração), além da descrição detalhada dos pedaços de testemunhos com a técnica de avaliação da integridade do maciço denominada . RQD Com a única excessão do ensaio de carga pontual, as outras técnicas utilizadas forneceram resultados úteis e indispensáveis aos cálculos que se fizeram a partir dos parâmetros obtidos com o RQD e vibração (as duas técnicas consideradas fundamentais na dissertação). Nessa dissertação, ficou comprovada a hipótese de estudo e o dano no pilar foi dividido em zonas de rocha com índices de fraturamento decrescente no sentido do núcleo do pilar: uma primeira zona com fragmentação intensa por compressão e duas outras, seguintes, fraturadas por cisalhamento, efeito das ondas sísmicas da detonação do explosivo. Os resultados obtidos nessa dissertação mostraram que os danos no pilar podem ser bem avaliados, que existem zonas distintas de fragmentação, as quais podem ser incorporadas no dimensionamento de pilares. As técnicas utilizadas ( RQD e vibração) foram eficientes na determinação dos danos provocados pelo explosivo, sendo, no entanto, necessário a introdução de modificações na padronização dos ensaios para melhor adaptá-los às condições de amostragem de campo.
Resumo:
A grande disponibilidade de informações oferece um amplo potencial comercial. Contudo, o enorme volume e diversidade de oportunidades gera um problema: limitações comerciais criadas pela seleção e a manipulação manual dessa informação. O tratamento das grandes bases de dados não estruturadas e/ou semi-estruturadas (BDNE/SE), como as trazidas pela Internet, é uma fonte de conhecimento rica e confiável, permitindo a análise de mercados. O tratamento e a estruturação dessa informação permitirá seu melhor gerenciamento, a realização de consultas e a tomada de decisões, criando diferenciais competitivos de mercado. Pesquisas em Recuperação de Informação (RI), as quais culminaram nesta tese, investem na melhoria da posição competitiva de pequenas e médias empresas, hoje inseridas, pelo comércio eletrônico, em um mercado globalizado, dinâmico e competitivo. O objetivo deste trabalho é o desenvolvimento de uma Metodologia de Extração de Informações para o Tratamento e Manipulação de Informações de Comércio Eletrônico. Chamaremos essa metodologia de EI-MNBC, ou seja, Extração de Informações em Múltiplos Níveis Baseada em Conhecimento. Os usuários da EIMNBC podem rapidamente obter as informações desejadas, frente ao tempo de pesquisa e leitura manual dos dados, ou ao uso de ferramentas automáticas inadequadas. Os problemas de volume, diversidade de formatos de armazenamento, diferentes necessidades de pesquisa das informações, entre outros, serão solucionados. A metodologia EI-MNBC utiliza conhecimentos de RI, combinando tecnologias de Recuperação de Documentos, Extração de Informações e Mineração de Dados em uma abordagem híbrida para o tratamento de BDNE/SE. Propõe-se uma nova forma de integração (múltiplos níveis) e configuração (sistema baseado em conhecimento - SBC) de processos de extração de informações, tratando de forma mais eficaz e eficiente as BDNE/SE usadas em comércio eletrônico. Esse tratamento viabilizará o uso de ferramentas de manipulação de dados estruturados, como Sistemas Gerenciadores de Bancos de Dados, sobre as informações anteriormente desestruturadas. A busca do conhecimento existente em bases de dados textuais não estruturadas demanda a compreensão desses dados. O objetivo é enfatizar os aspectos cognitivos superficiais envolvidos na leitura de um texto, entendendo como as pessoas recuperam as informações e armazenando esse conhecimento em regras que guiarão o processo de extração. A estrutura da metodolo gia EI-MNBC é similar a de um SBC: os módulos de extração (máquinas de inferência) analisam os documentos (eventos) de acordo com o conteúdo das bases de conhecimento, interpretando as regras. O resultado é um arquivo estruturado com as informações extraíd as (conclusões). Usando a EI-MNBC, implementou-se o SE-MNBC (Sistema de Extração de Informações em Múltiplos Níveis Baseado em Conhecimento) que foi aplicado sobre o sistema ETO (Electronic Trading Opportunities). O sistema ETO permite que as empresas negociem através da troca de e-mails e o SE-MNBC extrai as informações relevantes nessas mensagens. A aplicação é estruturada em três fases: análise estrutural dos textos, identificação do assunto (domínio) de cada texto e extração, transformando a informação não estruturada em uma base de dados estruturada.
Resumo:
A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.
Resumo:
Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.