907 resultados para Frutas - Armazenamento
Resumo:
Este trabalho apresenta uma arquitetura para Ambientes de Desenvolvimento de Software (ADS). Esta arquitetura é baseada em produtos comerciais de prateleira (COTS), principalmente em um Sistema de Gerência de Workflow – SGW (Microsoft Exchange 2000 Server – E2K) - e tem como plataforma de funcionamento a Internet, integrando também algumas ferramentas que fazem parte do grande conjunto de aplicativos que é utilizado no processo de desenvolvimento de software. O desenvolvimento de um protótipo (WOSDIE – WOrkflow-based Software Development Integrated Environment) baseado na arquitetura apresentada é descrito em detalhes, mostrando as etapas de construção, funções implementadas e dispositivos necessários para a integração de um SGW, ferramentas de desenvolvimento, banco de dados (WSS – Web Storage System) e outros, para a construção de um ADS. O processo de software aplicado no WOSDIE foi extraído do RUP (Rational Unified Process – Processo Unificado Rational). Este processo foi modelado na ferramenta Workflow Designer, que permite a modelagem dos processos de workflow dentro do E2K. A ativação de ferramentas a partir de um navegador Web e o armazenamento dos artefatos produzidos em um projeto de software também são abordados. O E2K faz o monitoramento dos eventos que ocorrem dentro do ambiente WOSDIE, definindo, a partir das condições modeladas no Workflow Designer, quais atividades devem ser iniciadas após o término de alguma atividade anterior e quem é o responsável pela execução destas novas atividades (assinalamento de atividades). A arquitetura proposta e o protótipo WOSDIE são avaliados segundo alguns critérios retirados de vários trabalhos. Estas avaliações mostram em mais detalhes as características da arquitetura proposta e proporcionam uma descrição das vantagens e problemas associados ao WOSDIE.
Resumo:
Um esquema de banco de dados certamente sofrerá alguma alteração com o passar do tempo. Algumas das causas destas modificações são ocorrência de um aumento no domínio do sistema, erros ocorridos na fase de projeto, mudanças na realidade representada pelo sistema, ou a necessidade de melhoria no seu desempenho. O uso de bancos de dados temporais é uma alternativa para o armazenamento das informações da evolução, pois permite sua recuperação por meio do histórico de suas mudanças. O presente trabalho propõe um ambiente para implementar evolução de esquemas sobre um BDOO, utilizando o Modelo Temporal de Versões (TVM). Deste modo, características de versões e de tempo são utilizadas tanto no nível dos esquemas como nos dados armazenados. Estados são associados às versões de esquema para representar seus estágios de desenvolvimento durante a evolução. O gerenciamento das versões de esquema é realizado por intermédio de uma camada denominada meta-esquema. Em um outro nível, o gerenciamento das instâncias é realizado por meio de uma camada denominada metadados, inserida para cada versão de esquema definida. Por intermédio destes controles é possível analisar a evolução dos esquemas como um todo e, para cada esquema, as correspondentes versões de seus dados e sua evolução temporal. Algumas alternativas de consulta para um ambiente com estas características são analisadas. O trabalho apresenta, ainda, as características básicas de um protótipo implementado para verificar a viabilidade da proposta apresentada.
Resumo:
Dados são disponibilizados através dos mais distintos meios e com os mais variados níveis de estruturação. Em um nível baixo de estruturação tem-se arquivos binários e no outro extremo tem-se bancos de dados com uma estrutura extremamente rígida. Entre estes dois extremos estão os dados semi-estruturados que possuem variados graus de estruturação com os quais não estão rigidamente comprometidos. Na categoria dos dados semiestruturados tem-se exemplos como o HTML, o XML e o SGML. O uso de informações contidas nas mais diversas fontes de dados que por sua vez possuem os mais diversos níveis de estruturação só será efetivo se esta informação puder ser manejada de uma forma integrada e através de algum tipo de esquema. O objetivo desta dissertação é fornecer um processo para construção de uma ontologia de domínio que haja como esquema representativo de diferentes conjuntos de informação. Estes conjuntos de informações podem variar de dados semi-estruturados a dados estruturados e devem referir-se a um mesmo domínio do conhecimento. Esta proposta permite que qualquer modelo que possa ser transformado no modelo comum de integração possa ser utilizado com entrada para o processo de integração. A ontologia de domínio resultante do processo de integração é um modelo semântico que representa o consenso obtido através da integração de diversas fontes de forma ascendente (bottom-up), binária, incremental, semi-automática e auto-documentável. Diz-se que o processo é ascendente porque integra o modelo que representa a fonte de interesse sobre a ontologia, é binário porque trabalha com dois esquemas a cada integração o que facilita o processo de documentação das integrações realizadas, é incremental porque cada novo esquema de interesse é integrado sobre a ontologia vigente naquele momento, é semiautomático porque considera a intervenção do usuário durante o processo e finalmente é autodocumentável porque durante o processo, toda integração de pares de conceitos semanticamente equivalentes é registrada. O fato de auto-documentar-se é a principal característica do processo proposto e seu principal diferencial com relação a outras propostas de integração. O processo de mapeamento utiliza, dos esquemas de entrada, toda a informação presente ou que possa ser inferida. Informações como se o conceito é léxico ou não, se é raiz e os símbolos que permitem deduzir cardinalidades são consideradas. No processo de integração são consideradas práticas consagradas de integração de esquemas de BDs, na identificação de relacionamentos entre objetos dos esquemas, para geração do esquema integrado e para resolução de conflitos. As principais contribuições desta dissertação são (i) a proposta de um metamodelo capaz de manter o resultado dos mapeamentos e das integrações realizadas e (ii) a especificação de um processo auto-documentável que de sustentação a auditoria do processo de integração.
Resumo:
A produção integrada (PI) procura reduzir o uso de agrotóxicos, eliminar outros produtos considerados perigosos para a saúde humana ou prejudicial para o meio ambiente, e ao mesmo tempo, fomentar as boas práticas de manejo agrícola. Assim o objetivo deste trabalho é comparar os sistemas de produção convencional (PC) e integrado de pêssegos da cv. Marli, em relação as principais práticas de manejo da planta e do solo, controle fitossanitário, aspectos econômicos, bem como a qualidade da fruta, a fim de que possa estabelecer o sistema de Produção Integrada de Frutas de Caroço (PIFC) na Depressão Central-RS. Na área conduzida sob PI, foram utilizadas as práticas de acordo com o manejo preconizado pela Organização Internacional de Controle Biológico e no sistema de PC, aquelas de uso comum pelo produtor. A produção de pêssegos da cv. Marli, conduzidos em ambos os sistemas, não foi afetada. Na área de PI, houve menor número de pêssegos por planta comparada com a PC, entretanto os pêssegos apresentaram maior tamanho, peso e calibre, não afetando a produção final de pêssegos. A classificação das frutas demonstrou que os pêssegos provenientes do sistema de PI são na maioria pertencente a CAT I (diâmetro superior a 57 mm), enquanto os do sistema PC são de CAT II (57 a 48 mm). Em relação às pragas e doenças houve maior incidência de grafolita (Grapholita molesta) e podridão parda (Monilinia fructicola) no pomar de pêssegos provenientes do sistema de PI. O monitoramento de pragas e o manejo de doenças proporcionaram uma sensível redução na aplicação de agroquímicos. A qualidade pós-colheita nos pêssegos provenientes do pomar de PI, apresentou maior acidez e firmeza de polpa nas frutas. Os resultados alcançados da avaliação conjunta nos dois sistemas permitem concluir que é possível produzir pêssegos de melhor qualidade, mantendo a produtividade com uma redução considerável no uso de agroquímicos.
Resumo:
Este trabalho apresenta um estudo de caso de mineração de dados no varejo. O negócio em questão é a comercialização de móveis e materiais de construção. A mineração foi realizada sobre informações geradas das transações de vendas por um período de 8 meses. Informações cadastrais de clientes também foram usadas e cruzadas com informações de venda, visando obter resultados que possam ser convertidos em ações que, por conseqüência, gerem lucro para a empresa. Toda a modelagem, preparação e transformação dos dados, foi feita visando facilitar a aplicação das técnicas de mineração que as ferramentas de mineração de dados proporcionam para a descoberta de conhecimento. O processo foi detalhado para uma melhor compreensão dos resultados obtidos. A metodologia CRISP usada no trabalho também é discutida, levando-se em conta as dificuldades e facilidades que se apresentaram durante as fases do processo de obtenção dos resultados. Também são analisados os pontos positivos e negativos das ferramentas de mineração utilizadas, o IBM Intelligent Miner e o WEKA - Waikato Environment for Knowledge Analysis, bem como de todos os outros softwares necessários para a realização do trabalho. Ao final, os resultados obtidos são apresentados e discutidos, sendo também apresentada a opinião dos proprietários da empresa sobre tais resultados e qual valor cada um deles poderá agregar ao negócio.
Resumo:
Este trabalho aplica a Teoria de Autômatos na proposição de uma nova alternativa para prover animações 2D na World Wide Web, verificando as contribuições alcançadas para as questões relacionadas ao espaço de armazenamento, reutilização e manutenção do conteúdo e suporte à recuperação de informação. Para este objetivo, é proposto o modelo AGA (Animação Gráfica baseada em Autômatos Finitos), o qual especifica a animação a partir de uma estrutura baseada em autômatos finitos com saída. Esse modelo é definido de tal forma que os mesmos autômatos utilizados na especificação, ao serem simulados, realizam o controle da animação durante a apresentação. O modelo AGA apresenta características que favorecem a redução do espaço de armazenamento da animação, provêem suporte à recuperação de informação, colaboram com a reutilização e manutenção do conteúdo das animações. Uma implementação multiplataforma foi desenvolvida para apresentar animações especificadas nesse modelo na Web. Essa implementação proporciona a elaboração de consultas ao conteúdo da animação, além dos recursos tradicionais de reprodução. A partir dessa implementação, o AGA foi submetido a um estudo de caso prático, onde os resultados obtidos são comparados com o produzidos pelo GIF (Graphic Interchange Format). Esse comparativo demonstra que o AGA possui várias vantagens em relação à estrutura adotada pelo GIF. O modelo AGA é estendido utilizando autômatos temporizados para prover restrições temporais às especificações e também ampliar as funcionalidades de interação com o observador da animação. Essa extensão, chamada de modelo AGA-S (Animação Gráfica baseada em Autômatos Temporizados Sincronizados), é definida a partir do autômato temporizado proposto por Alur e Dill. Para esse modelo, é definida uma operação formal para sincronização dos componentes da animação e adicionada uma estrutura baseada em autômatos finitos para controlar a interação do observador com a animação.
Resumo:
A globalização da economia e a abertura de mercados têm trazido grandes desafios para a fruticultura brasileira como forma de buscar vantagens competitivas sustentáveis na manutenção e ampliação de seus mercados. Dentro desse contexto, a produção de morango, na região Sul do nosso Estado, especialmente nos municípios de Pelotas, São Lourenço e Turuçu, onde o mesmo é produzido por, aproximadamente, 1.027 produtores e é considerado como uma matéria-prima importante pelas indústrias da região, não tem apresentado um desenvolvimento econômico e tecnológico adequado, comparativamente às outras regiões do Estado. Para um melhor entendimento dos problemas existentes, tanto no fornecimento dos insumos agrícolas, como na produção agrícola e processamento da fruta, este estudo teve como objetivos a caracterização e análise da cadeia produtiva do morango nesses municípios, identificando, descrevendo e caracterizando os agentes que a compõem, as suas relações, modos de organização, os gargalos e oportunidades de mudanças. Baseado nos dados secundários disponíveis e nas informações levantadas em entrevistas realizadas com representantes-chave dos diferentes agentes que compõem os segmentos e ambientes dessa cadeia produtiva, ficou evidenciada a existência de grandes gargalos relacionados à eficiência e competitividade da mesma, presentes em todos esses segmentos. Podem-se destacar, como mais significativos, a falta de padrões de qualidade e de assistência técnica para os produtores da região, a cultura predominante caracterizada por pouca motivação empresarial, muita passividade, acomodação e individualismo. No segmento de produção de morango, existem entraves estruturais que comprometem o fornecimento de frutas com os padrões de qualidade necessários. Contribuem para isso, a não disponibilidade de mudas de qualidade e alta sanidade, as deficientes técnicas empregadas no manejo da cultura, na colheita e pós-colheita da fruta e a falta de infraestrutura de resfriamento e transporte adequada após a colheita. Por sua vez, o segmento de processamento de morango apresenta como principais gargalos o nível tecnológico do processo e dos equipamentos utilizados, os aspectos de gestão do negócio e as relações de mercado. Entretanto, foram identificados, como pontos fortes, a existência de um número significativo de instituições de apoio, as condições climáticas e a disponibilidade da matéria-prima. Portanto, é premente a inserção dessa cadeia produtiva no novo contexto econômico, através de mecanismos eficientes e menos traumáticos possíveis.
Resumo:
Esta dissertação consiste no estudo das condições de trabalho e proposta de melhorias da Divisão de Usinagem da empresa John Deere, unidade de Horizontina, RS. A Divisão é responsável pelo processamento de peças de aço e ferro fundido, componentes de plantadeiras, colheitadeiras e tratores. O trabalho, inicialmente concebido dentro do sistema taylorista-fordista de produção, envolve esforço fisico, principalmente estático, durante operações em diversas máquinas ferramentas (tomos, fresas, furadeiras etc). A partir de 2000, com a instalação do Comitê de Ergonomia (COERGO) da empresa e a utilização da abordagem participativa da Análise Macroergonômica de Trabalho (AMT), proposta por Guimarães (1999), foram identificadas, priorizadas e quantificadas, por meio de questionário não obrigatório, respondido por quase a totalidade da Divisão, as demandas ergonômicas para melhoria das condições de trabalho. Ao final de, aproximadamente, dois anos e meio, foram reavaliadas, por meio de um segundo questionário, as modificações feitas no ambiente (instalação de ventiladores; redução de aerodispersóides pela substituição de produtos químicos; redução de ruído e melhoria de iluminação), em postos de de trabalho (modificação do leiaute, instalação de dispositivos de manuseio e movimentação de carga; redesenho de bancadas e dos locais de armazenamento de materiais); e na organização do trabalho da Divisão (alargamento e enriquecimento do trabalho pela celularização do trabalho) De um modo geral, houve um aumento da satisfação dos funcionários com todas as modificações efetuadas, à exceção daquelas que sofreram apenas intervenção parcial (por exemplo, o sistema de ventilação). As melhorias repercutiram não só no aumento de satisfação, bem como, na postura dos trabalhadores com relação ao seu trabalho (pois se mostraram mais críticos e exigentes em função da participação no processo de melhorias) bem como redução de índices de sucata e retrabalho na Divisão, evidenciando que é possível atender as exigências impostas por um mercado competitivo e globalizado, sem que haja prejuízo dos fatores humanos envolvidos nesse processo de produção.
Resumo:
A World Wide Web em poucos anos de existência se tornou uma importante e essencial fonte de informação e a localização e recuperação de informações na Internet passou a ser um grande problema a ser resolvido. Isto porque a falta de padronização e estrutura adequada para representação dos dados, que é resultado da liberdade de criação e manipulação dos documentos, compromete a eficácia dos modelos de recuperação de informação tradicionais. Muitos modelos foram então desenvolvidos para melhorar o desempenho dos sistemas de recuperação de informação. Com o passar dos anos surge assim uma nova área de pesquisa a extração de dados da web que, ao contrário dos sistemas de recuperação, extrai informações dos documentos relevantes e não documentos relevantes de conjunto de documentos. Tais estudos viabilizaram a integração de informações de documentos distribuídos e heterogêneos, que foram baseados nos mesmos modelos aplicados a banco de dados distribuídos. Neste trabalho é apresentado um estudo que tem como objetivo materializar informações contidas em documentos HTML de modo que se possa melhorar o desempenho das consultas em relação ao tempo de execução quanto à qualidade dos resultados obtidos. Para isso são estudados o ambiente web e as características dos dados contidos neste ambiente, como por exemplo, a distribuição e a heterogeneidade, aspectos relacionados à maneira pela qual as informações estão disponibilizadas e como estas podem ser recuperadas e extraídas através de regras sintáticas. Finalizando o estudo são apresentados vários tipos de classificação para os modelos de integração de dados e é monstrado em detalhes um estudo de caso, que tem como objetivo demonstrar a aplicação das técnicas apresentadas ao longo desta pesquisa.
Resumo:
A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.
Resumo:
Antigamente as informações que as organizações utilizavam durante a sua gestão eram suficientemente armazenadas em arquivos. A própria aplicação era responsável pela manipulação dos dados e pela função de guardá-los de maneira segura. No entanto, a sociedade evoluiu com tamanha rapidez que as organizações começaram a gerar uma quantidade cada vez maior de informação e, também, a rapidez de acesso às informações armazenadas tornou-se cada vez mais importante. Os antigos sistemas de arquivos tornaram-se complexos sistemas de armazenamento de informações responsáveis por gerir grandes volumes de dados, chamados Sistemas Gerenciadores de Banco de Dados - SGBD’s. Devido à complexidade dos bancos de dados e à necessidade de sua operação ininterrupta surge a tarefa do Administrador, cuja função é assegurar que os bancos de dados permaneçam operantes, íntegros e rápidos. Para realizar suas tarefas o Administrador precisa contar com boas ferramentas de modo a tornar as intervenções no banco de dados rápidas e seguras. Existem no mercado, boas ferramentas para administração de banco de dados. No entanto, são todas proprietárias, possuem custo elevado e apresentam deficiências quando o DBA e o BD estão localizados logicamente em redes de dados distintas. Para tentar resolver este problema, este trabalho se propõe a desenvolver uma ferramenta de administração de banco de dados que o DBA possa utilizar para gerenciar os bancos de dados, utilizando a Web como instrumento.
Resumo:
Esta dissertação propõe e discute um mecanismo de realimentação de relevâncias (i. e. “Relevance Feedback”). A técnica de realimentação de relevâncias foi introduzida inicialmente em meados dos anos 60, como uma estratégia para refinamento de consultas para a recuperação de informações. Como uma técnica de refinamento de consultas, foi aplicada inicialmente em sistemas de recuperação de informações textuais. Neste caso, os termos ou expressões consideradas importantes, são utilizados na formulação de uma nova consulta. Ao surgirem os sistemas de recuperação de informação visual baseada em conteúdo (CBVIR), houve a necessidade de serem introduzidos novos elementos associados a esse processo de reformulação de consultas, de tal forma que fossem utilizados não apenas as informações de alto nível, como os termos e expressões. Esses novos elementos passaram a considerar também a subjetividade de percepção humana em relação ao conteúdo visual. Neste trabalho, apresenta-se um processo de extração e representação desse conteúdo, através da utilização de feições (conteúdo) de cor e textura, extraídos de imagens JPEG, uma vez que no processo de compressão de imagens nesse formato, utiliza-se coeficientes da Transformada Discreta do Cosseno (DCT), sendo, portanto esses coeficientes utilizados como elementos que possuem as informações associadas a cor e textura na imagem. Além da DCTé utilizada a Transformação Mandala [YSH 83] no processo de agrupamento de somente 10 coeficientes, com o objetivo de produzir 10 imagens com resoluça menor que a imagem original, mas que representam cada uma, o conteúdo de uma frequência particular da imagem original. A escolha por uma representação como essa,é a garantia de uma redução significativa na quantidade de dados a serem processados. Entretanto, a representação obtida nesse formato para as imagens,é com base em conteúdo global de cor e textura, o que pode produzir resultados insatisfatórios. A introdução de um mecanismo de realimentação de relevâncias, associado à representação utilizada, permite contornar a dificuldade apontada acima, através da obtenção de consultas subsequentes, selecionando os objetos mais relevantes, assim como menos objetos não relevantes, utilizando o conhecimento do usuário de forma interativa no refinamento de consultas para recuperação de informações visuais.
Resumo:
Um conceito recente, relacionado à tecnologia educacional, baseia-se na idéia de objetos de aprendizagem (OAs), entendidos como pequenos componentes que podem ser usados, reusados ou referenciados durante a aprendizagem suportada pela tecnologia. Paralelo a isto, várias organizações estão envolvidas num trabalho de desenvolvimento de padrões de metadados para estes objetos, a fim de facilitar a catalogação e recuperação dos mesmos. Desta forma, os OAs podem ser localizados mais facilmente e utilizados em diferentes contextos e plataformas e por diferentes pessoas. O que se propõe para atingir esta facilidade de uso dos OAs é que os objetos sejam armazenados em bases de dados que são também conhecidas como repositórios, que fornecem ao usuário vários benefícios em termos de recuperação de informações. Neste contexto, este trabalho apresenta o GROA - Gerenciador de Repositórios de Objetos de Aprendizagem, que disponibiliza recursos de criação de repositórios capazes de armazenamento, gerenciamento, indexação e estruturação de objetos de aprendizagem, e capazes de operar como serviços deWeb, na internet. Este sistema foi implementado no Zope, que utiliza um banco de dados orientado a objetos, integrado a um servidor web. O texto analisa o conceito de OA e o contextualiza em relação a questões como a educação a distância, ambientes de apoio ao ensino e reusabilidade de conteúdos. Também, detalha os padrões de metadados que permitem a inserção dos OAs como componentes da Web Semântica. Em particular, apresenta-se o mecanismo de mapas de tópicos utilizado para estruturar os repositórios de OAs gerenciados pelo GROA. Finalmente, o texto discorre sobre os detalhes da implementação do GROA.
Resumo:
Este trabalho é um estudo sobre agentes inteligentes e suas aplicações na Internet. São apresentados e comparados alguns exemplos de software com funcionalidades para extrair, selecionar e auxiliar no consumo de informações da Internet, com base no perfil de interesse de cada usuário. O objetivo principal deste trabalho é a proposição de um modelo geral e amplo de agente para a obtenção e manutenção de um repositório de links para documentos que satisfaçam o interesse de um ou mais usuários. O modelo proposto baseia-se na obtenção do perfil do usuário a partir de documentos indicados como modelos positivos ou negativos. O ponto forte do modelo são os módulos responsáveis pela extração de informações da Internet, seleção quanto a importância e armazenamento em banco de dados das URLs obtidas, classificadas quanto a usuário, categoria de assunto e assunto. Além disso, o modelo prevê a realização de freqüentes verificações de integridade e pertinência dos links armazenados no repositório. Com base no modelo proposto foi implementado um protótipo parcial. Tal protótipo contempla os módulos responsáveis pela obtenção de informações, seleção das informações pertinentes e classificação e armazenamento dos links de acordo com o assunto. Finalmente, o protótipo implementado permaneceu em execução por um determinado período, gerando alguns resultados preliminares que viabilizaram uma avaliação do modelo.
Resumo:
Existem vários trabalhos na área de extração de dados semi-estruturados, usando diferentes técnicas. As soluções de extração disponibilizadas pelos trabalhos existentes são direcionadas para atenderem a dados de certos domínios, considerando-se domínio o conjunto de elementos pertencentes à mesma área de interesse. Dada a complexidade e a grande quantidade dos dados semi-estruturados, principalmente dos disponíveis na World Wide Web (WWW), é que existem ainda muitos domínios a serem explorados. A maior parte das informações disponíveis em sites da Web está em páginas HTML. Muitas dessas páginas contêm dados de certos domínios (por exemplo, remédios). Em alguns casos, sites de organizações diferentes apresentam dados referentes a um mesmo domínio (por exemplo, farmácias diferentes oferecem remédios). O conhecimento de um determinado domínio, expresso em um modelo conceitual, serve para definir a estrutura de um documento. Nesta pesquisa, são consideradas exclusivamente tabelas de páginas HTML. A razão de se trabalhar somente com tabelas está baseada no fato de que parte dos dados de páginas HTML encontra-se nelas, e, como conseqüência, elimina-se o processamento dos outros dados, concentrando-se os esforços para que sejam processadas automaticamente. A pesquisa aborda o tratamento exclusivo de tabelas de páginas HTML na geração das regras de extração, na utilização das regras e do modelo conceitual para o reconhecimento de dados em páginas semelhantes. Para essa técnica, foi implementado o protótipo de uma ferramenta visual denominado Gerador de Regras de Extração e Modelo Conceitual (GREMO). GREMO foi desenvolvido em linguagem de programação visual Delphi 6.0. O processo de extração ocorre em quatro etapas: identificação e análise das tabelas de informações úteis em páginas HTML; identificação de conceitos para os elementos dos modelos conceituais; geração dos modelos conceituais correspondentes à página, ou utilização de modelo conceitual existente no repositório que satisfaça a página em questão; construção das regras de extração, extração dos dados da página, geração de arquivo XML correspondente aos dados extraídos e, finalmente, realimentação do repositório. A pesquisa apresenta as técnicas para geração e extração de dados semi-estruturados, as representações de domínio exclusivo de tabelas de páginas HTML por meio de modelo conceitual, as formas de geração e uso das regras de extração e de modelo conceitual.