997 resultados para Dados faltantes


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sete ocorrências auriferas estão inseridas na Seqüência Campestre do Complexo Bossoroca, no Escudo Sul-rio-grandense, municípios de São Sepé, no Estado do Rio Grande do Sul. Nessa região, foi realizado um aerolevantamento geofisico no qual foram coletados dados magnetométricos e aerogamaespectrométricos (K, U, Th e contagem total), em convênio finnado entre órgãos federais brasileiros (CPRM, DNPM e CNEN) e a empresa canadense Texas Instruments no período 1972-1973. Nessa dissertação são apresentados as interpretações e resultados dos dados e a metodologia utilizada para a interpretação das principais estruturas magnéticas e radiométricas visando aplicação na exploração mineral de ouro. Esse tipo de processamento, correlacionado aos dados geológicos, é uma prática usual de campanhas de prospecção mineral desde 1940 e é considerada como uma ferramenta de grande potencial para esse propósito. O processamento de dados magnetométricos forneceu mapas de primeira e segunda derivadas verticais, sinal analítico, gradiente horizontal, integral vertical, continuação para cima (1000, 2000 e 3000 metros) e seus principais lineamentos do campo magnético residual. Os dados foram tratados e posterionnente transfonnados em mapas de contorno e imagens pseudocoloridos e em tons de cinza com relevo sombreado (iluminação N, NE e SE) para realçar os principais lineamentos. Os mapas produzidos a partir dos dados aerogamaespectrométricos foram os de contagem total, K, U e Th, suas razões Th/K, U/K e UITh; mapas temários nos padrões RGB e CMY, potássio e urânio anômalos e parfunetro F, também foram transfonnados em mapas de contorno, pseudocolridos e tons de cinza com relevo sombreado (iluminação a N, NE e SE) e um mapa geológico interpretativo da região do Complexo Bossoroca As imagens magnetométricas mostraram-se importantes na caracterização estrutural regional, possibilitando a identificação de lineamentos NE-SW e NW-SE, não mapeados anterionnente e que podem estar relacionadas diretamente às ocorrências auriferas da região do Complexo Bossoroca. A aplicação das técnicas de processamento e interpretação de estruturas magnéticas por meio dos filtros como gradiente horizontal, primeira e segunda derivada, sinal analítico, continuação para cima, possibilitaram a determinação de descontinnidades fisicas que podem ser traduzidas em estruturas geológicas. O processamento de dados aerogamaespectrométricos possibilitou a caracterização de unidades geológicas regionais, a identificação de possíveis trends e zonas anômalas em potássio, relacionadas com as principais ocorrências auriferas da região. As imagens ternárias nos padrões RGB e CMY pennitiram a distinção e a caracterização das grandes unidades geológicas. Pode-se individualizar três regiões principais dentro da Seqüência Campestre, não mapeadas anterionnente, onde se encontram as ocorrências auriferas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo tem como objetivo analisar as diferentes metodologias existentes para criação de Depósito de Dados (DD) e determinar uma metodologia que melhor atenda às necessidades de uma empresa de telecomunicações, iniciando um projeto de DD e identificando as causas mais comuns de insucesso, a serem evitadas em projetos desta natureza. E para comprovar esta metodologia foi construído um Data Mart utilizando dados da Cia. Rio-grandense de Telecomunicações, com objetivo de análise de qualidade dos bilhetes utilizados nos indicadores de desempenho de centrais bilhetadoras. Apresenta, também, as arquiteturas possíveis de um Depósito de Dados/Data Mart, suas características e diferenças. Esta Dissertação de Mestrado é uma contribuição à pesquisa e à análise de metodologias empregadas na criação e manutenção de Depósitos de Dados e a determinação de uma metodologia que atenda às necessidades de uma empresa de telecomunicações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os efeitos provocados por radiações são conhecidos na literatura por meio dos estudos em usinas nucleares e em testes bélicos. Entretanto, os efeitos da radiação natural vêm despertando a atenção das autoridades da saúde, dentre as quais se destaca a Environmental Protection Agency (EPA) nos Estados Unidos e a National Radiological Protection Board (NRPB) no Reino Unido. Os efeitos epidemiológicos ocasionados por radiação de origem natural, mais especificamente a radiação emanada pelo gás radônio que fica acumulado em residências enclausuradas por muito tempo, tem sido alvo de intensas investigações. Nessa dissertação, foi realizada uma avaliação ambiental preliminar da radiação natural devida ao radônio como elemento epidemiológico no Escudo Sul-riograndense. Os dados utilizados para determinar o risco epidemiológico foram: neoplasias, radiação, geologia e população. O banco de dados dos casos de óbitos por neoplasias do estado foi obtido da Secretaria da Saúde, por meio do Núcleo de Informação em Saúde. A radiação natural devida ao radônio foi determinada a partir dos dados gamaespectrométricos obtidos de levantamento aerogeofísico da CPRM no Escudo Sul-riograndense, nos projetos Camaquã e Extremo Sudeste do Brasil realizados nos anos de 1973 e 1978, respectivamente. Os dados geológicos foram obtidos do Mapa Geológico do Estado de 1989. Os dados de população foram obtidos junto ao Instituto Brasileiro de Geografia e Estatística (IBGE). A integração de dados foi realizada usando a metodologia de matriz de sobreposição entre os dados de casos de óbitos por neoplasia e de gamaespectrometria. Os dados de população foram empregados para normalizar os dados de neoplasias, e o dado de geologia para correlacionar com a gamaespectrometria. Os resultados da integração são mapas classificados pelo grau de risco epidemiológico, nos quais é apresentada a relação entre os casos de neoplasias pela intensidade de radiação devida ao radônio. Nesse sentido, uma boa relação foi assinalada e são recomendados estudos adicionais sobre esse mesmo banco de dados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa tem como tema a avaliação de ferramentas de mineração de dados disponíveis no mercado, de acordo com um site de descoberta do conhecimento, chamado Kdnuggets (http://www.kdnuggets.com). A escolha deste tema justifica-se pelo fato de tratar-se de uma nova tecnologia de informação que vem disponibilizando diversas ferramentas com grandes promessas e altos investimentos, mas que, por outro lado, ainda não é amplamente utilizada pelos tomadores de decisão das organizações. Uma das promessas desta tecnologia é vasculhar grandes bases de dados em busca de informações relevantes e desconhecidas e que não poderiam ser obtidas através de sistemas chamados convencionais. Neste contexto, realizar uma avaliação de algumas destas ferramentas pode auxiliar a estes decisores quanto à veracidade daquilo que é prometido sem ter de investir antes de estar seguro do cumprimento de tais promessas. O foco da pesquisa é avaliar sistemas que permitem a realização da análise de cesta de supermercado (market basket analysis) utilizando bases de dados reais de uma rede de supermercados. Os seus objetivos são: avaliar ferramentas de mineração de dados como fonte de informações relevantes para a tomada de decisão; identificar, através da revisão de literatura, as promessas da tecnologia e verificar se tais promessas são cumpridas pelas ferramentas; identificar e caracterizar ferramentas de mineração de dados disponíveis no mercado e comparar os tipos de resultados gerados pelas diferentes ferramentas e relatar problemas encontrados durante a aplicação destas ferramentas. O desenvolvimento do trabalho segue o método estudo de caso múltiplo: os dados foram coletados a partir da aplicação das ferramentas às bases de dados e da entrevista com tomadores de decisão da empresa. Foram seguidos procedimentos já utilizados de avaliação de sistemas para a realização desta pesquisa. A partir da análise dos dados coletados, pôde-se conhecer alguns problemas apresentados pelas ferramentas e concluiu-se que as ferramentas, que foram utilizadas neste trabalho, não estão prontas para serem disponibilizadas no mercado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Resource Description Framework (RDF) é uma infra-estrutura, que possibilita a codificação, troca e reuso de metadata estruturado. Metadata é dados sobre dados. O termo refere a qualquer dado usado para ajudar a identificação, descrição e localização de recursos eletrônicos na rede. O RDF permite adicionar declarações, sinônimos e palavras que não estão presentes nos recursos, mas que são pertinentes a eles. Uma declaração RDF pode ser desenhada usando diagramas de arcos e nodos, onde os nodos representam os recursos e os arcos representam as propriedades nomeadas. O modelo básico consiste em recursos, propriedades e objetos. Todas as coisas sendo descritas pelas declarações RDF são chamadas de recursos. Um recurso pode ser uma página da Web inteira ou um elemento específico HTML ou XML dentro de um documento fonte. Uma propriedade é um aspecto específico, característica, atributo, ou relação usada para descrever um recurso. O objeto pode ser um outro recurso ou um literal. Estas três partes, juntas, formam uma declaração RDF. O resultado do parser para recursos com metadata RDF, é um conjunto de declarações referentes aquele recurso. A declaração destas propriedades e a semântica correspondente delas estão definidas no contexto do RDF como um RDF schema. Um esquema não só define as propriedades do recurso (por exemplo, título, autor, assunto, tamanho, cor, etc.), mas também pode definir os tipos de recursos sendo descritos (livros, páginas Web, pessoas, companhias, etc.). O RDF schema, provê um sistema básico de tipos necessários para descrever tais elementos e definir as classes de recursos. Assim, os recursos constituindo este sistema de tipos se tornam parte do modelo RDF de qualquer descrição que os usa. A geração de modelos RDF pode ser conseguida através de algoritmos implementados com linguagens de programação tradicionais e podem ser embutidos em páginas HTML, documentos XML e até mesmo em imagens. Com relação a modelos em imagens, servidores Web específicos são usados para simular dois recursos sobre o mesmo URI, servindo ora a imagem ora a descrição RDF. Uma alternativa para armazenar e manipular grande quantidade de declarações RDF é usar a tecnologia de banco de dados relacional. Abordagens para armazenar declarações RDF em banco de dados relacional foram propostas, mas todas elas mantêm modelos diversos de diferentes fontes. Critérios de avaliação como tempo de carga, proliferação de tabelas, espaço, dados mantidos e custo de instruções SQL foram definidos. Duas abordagens apresentaram resultados satisfatórios. Com uma nova abordagem proposta por este trabalho se obteve melhores resultados principalmente no aspecto de consultas. A nova proposta provê mecanismos para que o usuário faça seu próprio modelo relacional e crie suas consultas. O conhecimento necessário pelo usuário se limita em parte aos modelos mantidos e ao esquema RDF.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação insere-se no contexto de um projeto global de pesquisa, em desenvolvimento no GESID-PPGA/EA/UFRGS, com a cooperação de algumas universidades estrangeiras. Tal projeto tem como tema a percepção do processo decisório individual e a influência da cultura nacional e da experiência decisória. Para estudar a inter-relação destes assuntos é preciso, antes de mais nada, elaborar um conjunto de instrumentos que permitam investigar a percepção das pessoas sobre a tomada de decisão. Este é o objetivo principal do presente trabalho, que refere-se à primeira fase desse projeto global: a partir da literatura, e do conhecimento de um grupo de pesquisadores, conceber e desenvolver um conjunto de instrumentos (quantitativos e qualitativos) válidos para estudar a decisão. E ainda estabelecer uma metodologia de aplicação desse instrumental, a qual possa determinar uma seqüência (ordem) e forma de aplicação mais adequada. Para tanto, primeiramente foram definidas as 3 questões de pesquisa, que nortearam o desenvolvimento dos instrumentos de pesquisa, as quais deverão ser investigadas no contexto do projeto global de pesquisa, e que podem ser resumidas da seguinte forma: (1) Independentemente da cultura nacional ou do nível de experiência decisória dos indivíduos é possível identificar fatores comuns (passos, princípios, insights) a respeito da forma como as pessoas percebem o processo decisório individual, especialmente se tomado o modelo de processo decisório da “Racionalidade limitada” de Simon (1947) como padrão de comparação? (2) A cultura atua como fator de diferenciação na percepção do processo decisório individual? (3) A Experiência Decisória (vivência) dos indivíduos influencia a forma como eles percebem o processo decisório individual? A definição destas 3 questões de pesquisa possibilitou a concepção dos instrumentos, nos quais posteriormente foi realizada uma validação de conteúdo (por uma comissão de juízes) e de sua seqüência de aplicação (testando-se diferentes ordens), bem como a verificação da sua fidedignidade (através do Teste-reteste). Com este processo obteve-se os seguintes resultados: (1) projeto global consolidado; (2) conjunto de instrumentos de pesquisa concebido e validado; (3) seqüência de aplicação do instrumental definida e validada; (4) quadro de construtos definido fornecendo subsídios para a definição de um protocolo de análise de dados; (5) concepção de um método para verificação da "contaminação" de instrumentos de pesquisa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo mostrar a adaptação das estratégias de uma empresa fornecedora de equipamentos de transmissão de dados, a PARKS S/A COMUNICAÇÕES DIGITAIS, frente às mudanças do mercado de telecomunicações no Brasil Através de uma análise de caso, evidenciaram-se as mudanças ocorridas no mercado de telecomunicações, a percepção desta empresa para tais mudanças e a orientação estratégica adotada para os seus próprios setores, a saber, o comercial, o industrial, o financeiro, o de recursos humanos e qualidade e o de engenharia. O estudo das mudanças ocorridas neste mercado abrangeu dois períodos, quais sejam, o anterior à privatização e os anos de 1997 até 2000, ressaltando-se, porém, que a análise se centrou neste último, o qual foi analisado mais detalhadamente. Uma vez identificadas as principais mudanças ocorridas na empresa escolhida para o estudo de caso - PARKS S/A Comunicações -, através de observação e da vivência do autor, bem como de contribuições relatadas por colegas da empresa, igualmente participantes do processo, este trabalho analisa estas mudanças uma a uma, mostrando o reflexo das mesmas na estrutura da empresa, procurando explicar como se deu o fenômeno e, assim, contribuindo para a compreensão de processos análogos que venham a ocorrer em um futuro próximo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Atualmente, o enorme volume de informações armazenadas em bancos de dados de organizações ultrapassa a capacidade dos tradicionais métodos de análise dos dados baseados em consultas, pois eles se tornaram insuficientes para analisar o conteúdo quanto a algum conhecimento implícito e importante na grande massa de dados. A partir disto, a mineração de dados tem-se transformado em um tópico importante de pesquisa, porque provê um conjunto de técnicas e ferramentas capazes de inteligente e automaticamente assistir o ser humano na análise de uma enorme quantidade de dados à procura de conhecimento relevante e que está encoberto pelos demais dados. O presente trabalho se propõe a estudar e a utilizar a mineração de dados considerando os aspectos temporais. Através de um experimento realizado sobre os dados da Secretaria da Saúde do Estado do Rio Grande do Sul, com a aplicação de uma metodologia para a mineração de dados temporais, foi possível identificar padrões seqüenciais nos dados. Este experimento procurou descobrir padrões seqüenciais de comportamento em internações médicas, objetivando obter modelos de conhecimento dos dados temporais e representá-los na forma de regras temporais. A descoberta destes padrões seqüenciais permitiu comprovar tradicionais comportamentos dos tratamentos médicos efetuados, detectar situações anômalas, bem como, acompanhar a evolução das doenças existentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Existe uma necessidade latente de pesquisar, filtrar e manipular informações disponíveis em diversos formatos irregulares, entre elas as informações distribuídas na WWW (World Wide Web). Esses tipos de dados são semi-estruturados, pois não possuem uma estrutura explícita e regular, o que dificulta sua manipulação. Este trabalho apresenta como proposta o projeto de uma ferramenta para realizar a extração semântica e semi-automática de dados semi-estruturados. O usuário especifica, através de uma interface visual, um exemplo da estrutura hierárquica do documento e de seu relacionamento com os conceitos da ontologia, gerando uma gramática descritiva da estrutura implícita do mesmo. A partir dessa gramática, a ferramenta realiza a extração dos próximos documentos de forma automática, reestruturando o resultado em um formato regular de dados, neste caso, XML (eXtensible Markup Language). Além da conceituação do método de extração, são apresentados os experimentos realizados com o protótipo da ferramenta, bem como, os resultados obtidos nestes experimentos. Para a construção desta ferramenta, são analisadas características de outros métodos que constituem o estado da arte em extração de dados semi-estruturados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo dedste trabalho é investigar o projeto de banco de dados aplicado a Sistemas de Informações Geográficas (SIG), mais especificamente, do mapeamento de esquemas conceituais, orientado a objetos, para esquemas lógicos implementados por softwares de SIG comerciais. A transformação dos esquemas conceituais para os lógicos é realizado através da idedntificação de um conjunto de regras genéricas de mapeamento de qualquer esquema concecitual de banco de dados geográficos, baseados em um framework conceitual, para os esquemas lógicos proprietários dos diversos SIG existentes. A concretização desta tarefa de transformação é possível mediante a proposta de um ambiente de suporte. Esse ambiente fornece uma estrutura específica, constituída por uma linguagem formal, definida pelo padrão SAIF (Saptial Archive and Interchange Format), pela ferramenta FME (feature Manipulation Engine) e pela ferramenta CASE Rational Rose v.2000e. O conjunto de regras genéricas elaborado neste trabalho, é composto por dois subconjuntos. O primeiro define regras de correspondência, determinando uma relação entre os conceitos da realidade percebidos pelo Framework conceitual e a linguagem formal apresentada pelo padrão SAIF. O segundo subconjunto define regras de transformação, onde busca-se mapear os conceitos do paradigma da orientação a objetos par aos conceitos relacionais utilizazdos pela maioria dos softwares de SIG, disponíveis no mercado. Com a finalidade de validar a aplicabilidadee deste conjunto de regras de mapeamento e do ambiente de suporte proposto, este trabalho inclui também a implementação de um protótipo, o qual executa a automatização da trasnformação dos esquemas conceituais para os esquemas lógicos de banco de dados geográfico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho realiza uma validação experimental, através da técnica de injeção de falhas por software, de sistemas de informações que utilizam gerenciadores de banco de dados distribuídos comerciais. Estes experimentos visam a obtenção de medidas da dependabilidade do SGBD utilizado, levantamento do custo de seus mecanismos de tolerância a falhas e a real aplicabilidade de SGBDs comerciais em sistemas de missão crítica. Procurou-se avaliar e validar as ferramentas de injeção de falhas utilizadas, no caso específico deste trabalho a ComFIRM e o FIDe. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho. Em seguida são apresentadas algumas ferramentas de injeção de falhas em sistemas distribuídos, bem como os modelos de falhas em banco de dados distribuídos. São analisados alguns estudos de aplicação de ferramentas de injeção de falhas em bancos de dados distribuídos. Concluída a revisão bibliográfica é apresentado o modelo de software e hardware que foi implementado, destacando o gerador de cargas de trabalho GerPro-TPC e o gerenciador de injeções e resultados GIR. O GerPro-TPC segue as especificações TPC-c para a simulação de um ambiente transacional comercial padrão e o GIR realiza a integração das ferramentas de injeção de falhas utilizadas, bem como a elaboração do cenário de falhas a injetar e a coleta dos resultados das falhas injetadas. Finalmente são descritos os experimentos realizados sobre o SGBD PROGRESS. São realizados 361 testes de injeções de falhas com aproximadamente 43.000 falhas injetadas em experimentos distintos. Utiliza-se dois modelos de falhas: um focado em falhas de comunicação e outro em falhas de hardware. Os erros resultantes das falhas injetadas foram classificados em erros ignorados/mascarados, erros leves, erros graves e erros catastróficos. Dos modelos de falhas utilizados as que mais comprometeram a dependabilidade do SGBD foram as falhas de hardware. As falhas de comunicação somente comprometeram a disponibilidade do sistema alvo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos Sistemas de Informação Geográfica (SIG), os aspectos temporais são importantes, principalmente, para representar o histórico de dados georreferenciados. Vários modelos conceituais de dados para SIG propõem classes e operações que permitem representar os aspectos espaciais e temporais das aplicações. Porém, ao nível do modelo interno dos sistemas atuais, as estruturas de dados armazenam e manipulam somente os aspectos espaciais dos dados geográficos, não contemplando os aspectos espaço-temporais propostos nos modelos conceituais. O objetivo desse trabalho é estender estruturas de dados do tipo quadtree para suporte ao armazenamento e à recuperação de dados espaço-temporais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Descoberta de Conhecimento em Banco de Dados (DCBD) é uma nova área de pesquisa que envolve o processo de extração de conhecimento útil implícito em grandes bases de dados. Existem várias metodologias para a realização de um processo de DCBD cuja essência consiste basicamente nas fases de entendimento do domínio do problema, pré-processamento, mineração de dados e pós-processamento. Na literatura sobre o assunto existem muitos trabalhos a respeito de mineração de dados, porém pouco se encontra sobre o processo de pré-processamento. Assim, o objetivo deste trabalho consiste no estudo do pré-processamento, já que é a fase que consome a maior parte do tempo e esforço de todo o processo de DCBD pois envolve operações de entendimento, seleção, limpeza e transformação de dados. Muitas vezes, essas operações precisam ser repetidas de modo a aprimorar a qualidade dos dados e, conseqüentemente, melhorar também a acurácia e eficiência do processo de mineração. A estrutura do trabalho abrange cinco capítulos. Inicialmente, apresenta-se a introdução e motivação para trabalho, juntamente com os objetivos e a metodologia utilizada. No segundo capítulo são abordadas metodologias para o processo de DCBD destacando-se CRISP-DM e a proposta por Fayyad, Piatetsky-Shapiro e Smyth. No terceiro capítulo são apresentadas as sub-fases da fase de pré-processamento contemplando-se entendimento, seleção, limpeza e transformação de dados, bem como os principais métodos e técnicas relacionados às mesmas. Já no quarto capítulo são descritos os experimentos realizados sobre uma base de dados real. Finalmente, no quinto capítulo são apresentadas as considerações finais sobre pré-processamento no processo de DCBD, apontando as dificuldades encontradas na prática, contribuições do presente trabalho e pretensões da continuidade do mesmo. Considera-se como principais contribuições deste trabalho a apresentação de métodos e técnicas de pré-processamento existentes, a comprovação da importância da interatividade com o especialista do domínio ao longo de todo o processo de DCBD, mas principalmente nas tomadas de decisões da fase de pré-processamento, bem como as sugestões de como realizar um pré-processamento sobre uma base de dados real.