885 resultados para Modelagem de dados
Resumo:
Esta dissertação apresenta a Modelagem Estocástica de Sistemas Hierárquicos de Estoques (SHEs) como um instrumento de uso gerencial, orientado para a maximização do nível de serviço oferecido aos consumidores finais e a minimização do nível global de estoques em uma cadeia de abastecimento. Tal modelagem envolve otimização de sistemas não-lineares com integrais indefinidas, normalmente tratados através de simulação, dada a impossibilidade de estabelecer uma solução analítica para o problema. Neste trabalho, diferentemente, a solução é obtida através da otimização do sistema, a partir de uma modelagem que estabelece os níveis de estoque-alvo, os pontos de reposição de estoques, os níveis de serviço oferecidos aos consumidores finais e o nível ótimo global de estoques. A sua operacionalização utiliza um aplicativo computacional, projetado e desenvolvido especificamente para este fim. Estruturas hierárquicas, quando otimizadas localmente, em cada um de seus níveis, podem apresentar resultados subótimos em nível global. Assim, não é suficiente identificar os ótimos locais para compor uma solução otimizadora para o sistema. Para resolver esse problema, a maior parte dos pesquisadores utiliza simulação. A qualidade das soluções assim obtidas geralmente é inferior à qualidade da solução obtida mediante otimização global do sistema A presente modelagem tem como objetivo gerar soluções mais qualificadas para o problema da otimização de SHEs. Nesta dissertação, as principais abordagens para otimização de SHEs são apresentadas e analisadas, com destaque para o trabalho de Rosenbaum (1981), cujos resultados, obtidos através de simulação, são comparados com os resultados deste trabalho.
Resumo:
Neste estudo investigam-se as possibilidades de Cenários Educacionais Informatizados como alternativas estratégicas de uso de produtos da tecnologia informática para o desenvolvimento de processos cognitivos. São propostos indicadores de aprendizagem na forma de Pegadas Cognitivas. Tais Pegadas são o resultado gráfico de uma distribuição espacial de pontos correspondentes aos indicadores de aprendizagem e suas dimensões nos cenários pesquisados. Em cada caso, a “pegada” resulta da ligação entre tais pontos, formando um diagrama onde a disposição dos indicadores, comparando-se as situações ideal e real, permitiu avaliar o desvio em que se encontra a situação real, comparativamente à situação ideal. Sua construção permitiu simbolizar a provisoriedade de cada situação de aprendizagem e inspirar ações para as correções que se fizerem necessárias. Utilizaram-se: software de modelagem computacional – Modellus; espaços virtuais de comunicação – chat, e-mail, listas de discussão, whiteboard, forms, entre outros; Mapas Conceituais/Mentais; imagens e representações; ações ligadas às atividades endógenas permanentes dos aprendizes em função de seu imaginário e dos espaços virtuais e recursos da telemática em atividades de aprendizagem, na área de físico-química, visando ao estudo de como ocorrem as reações químicas. A partir dos resultados obtidos realizou-se o confronto entre as possibilidades reais do ambiente com o imaginado, sobre o tema, por alunos do ensino médio que integram o grupo denominado Grupo Imagem. O caminho que representa a linha mestra deste referencial teórico encontra-se nas Ciências Cognitivas no que se refere às questões relativas às formas de representação, às estratégias cognitivas utilizadas pelo sistema humano de processamento de informação e às aplicações de modelagem computacional em situações de aprendizagem. Considerou-se uma abordagem que leva em conta arquiteturas cognitivas e influências do meio ambiente sobre a capacidade humana de aprender. Aprender no sentido de assimilar novas informações, armazená-las e, ao acessá-las, desenvolver estratégias cognitivas que promovam a evolução das estruturas do conhecimento, numa dinâmica caracterizada pela inovação, pela capacidade humana de estar constantemente em mudança, através de ações situadas, contextualizadas, na Sociedade da Informação, geradora da Sociedade do Conhecimento. Tal sociedade impõe desafios a ser enfrentados com estratégias que permitam a todos, independente de sua situação na escala social, a acessibilidade e a mobilidade informacional e de tecnologias cada vez mais especializadas em todas as áreas, sejam acadêmicas, econômicas ou de bem-estar pessoal que produzam não apenas a mundialização de recursos materiais e físicos, mas que incluam as diferenças de pensamentos e ações que permitem aos seres humanos serem individuais e únicos em sua essência. A Aprendizagem à Distância – AAD – utilizada neste fazer investigatório evidenciou competência para solucionar as dificuldades relativas à flexibilidade dos programas disponíveis para compor cenários educacionais que privilegiem a aprendizagem significativa, em escolas de ensino médio, por exigirem novos posicionamentos e novas habilidades de educandos e de educadores. Entre as habilidades de aprendizagem individual e coletiva que os aprendizes devem possuir ou desenvolver para cooperar com o grupo em AAD, destacam-se: autonomia, responsabilidade, liderança, capacidade para negociação e decisão, capacidade de inferência, dedução, possibilidade de realização de análise e síntese, regras de conduta que permitam a convivência e as trocas de conhecimentos.
Resumo:
Em linhas gerais, este trabalho aborda os temas de armazenamento de grandes volumes de imagens no formato DICOM, e a recuperação das mesmas com base em informações associadas a estas imagens (metadados independentes do conteúdo), informações obtidas na fase da interpretação das imagens (metadados descritivos de conteúdo), ou usando informações visuais que foram anotadas nas imagens ou extraídas das mesmas, por médicos especialistas em imagens médicas (metadados dependentes do conteúdo). Este trabalho foi desenvolvido com o propósito de elaborar uma modelagem conceitual que permita a descrição dos dados relevantes de imagens no formato DICOM, de maneira a facilitar a recuperação das mesmas posteriormente. As classes pertencentes ao modelo conceitual, decorrentes dessa modelagem, viabilizam a documentação de imagens médicas estáticas no formato DICOM. Visando o armazenamento de um grande volume de imagens médicas por um longo período de tempo, e considerando o desenvolvimento de uma solução economicamente viável para as instituições que provêm diagnóstico médico por imagens, o modelo propõe o armazenamento das imagens em um ambiente separado do banco de dados. Portanto, este trabalho apresenta uma solução que gerencia a localização das imagens em mídias on-line, near-line e off-line. Este gerenciamento mantém o banco de dados atualizado quanto à localização atual das imagens, mantém as imagens armazenadas e distribuídas em mídias conforme a disponibilidade dos recursos físicos de armazenamento, e auxilia na recuperação das imagens. Este modelo serviu como base para a implementação de um sistema protótipo que possibilita a descrição e a recuperação de imagens DICOM. Os resultados obtidos através da implementação do sistema protótipo, em termos de armazenamento, recuperação e gerenciamento da localização das imagens nos diferentes ambientes (online, near-line e off-line), são apresentados e discutidos.
Resumo:
Este trabalho apresenta simulações físicas de correntes de densidade não conservativas em canal bidimensional e tridimensional. Primeiramente, foram desenvolvidas a seleção e caracterização de materiais granulares, bem como a classificação de tamanhos de grãos adequados capazes de simular tais correntes. Foram desenvolvidas também, metodologias de ensaios, abordando os detalhes como a preparação de materiais, equipamentos e instalações. Como resultados foram selecionados cinco materiais para as simulações, a areia (0,125mm a 0,063mm); os calcários B e C (0,125mm a 0,063mm) e os carvões 205 e carvão 207 (0,354mm a 0,063mm). Através de ensaios por fluxo contínuo de material, caracterizado por uma injeção de mistura durante um período de tempo, foram estudados as características geométricas, dinâmicas e os padrões de deposição destas correntes. Nestes ensaios foram variados o material granular e seu tamanho de grão utilizado na mistura e a concentração da mistura. Observou-se que: a velocidade da corrente aumenta à medida que a massa específica/concentração da mistura aumenta; que à medida que o tamanho do grão diminui, para um mesmo material com a mesma massa específica na mistura, a velocidade aumenta; a altura da cabeça da corrente aumenta à medida que a massa específica/concentração da mistura diminui; a distribuição dos volumes de depósitos apresentou uma tendência geral, com acúmulo de material, da ordem de 90%, nas regiões mais proximais do canal (0-75cm) e acúmulo de material, da ordem de 5%, canal nas regiões mais distais do canal (150-250cm). A distribuição dos grãos indica que o tamanho dos grãos vai diminuindo com a distância, estando as frações maiores (correspondentes a areia fina) presentes nas zonas mais proximais do canal (até 50cm) e com os grãos mais finos chegando até as regiões mais distais do canal (250cm). Foi avaliada, também, a influência da vazão inicial e do volume total de material sobre o desenvolvimento e depósitos das correntes de densidade não conservativas. As características medidas foram a evolução e as velocidades da corrente, além da espessura, granulometria e formas de fundo dos depósitos gerados. Como resultados foi verificado que a velocidade de avanço, espessuras, formas de fundo e distribuição granulométricas do material estão intimamente mais ligada à vazão de entrada do que ao volume total. Nota-se que, a vazão condiciona a tendência geral da evolução da corrente (padrão de variação da velocidade e da deposição) e as formas de fundo, enquanto que o volume de material injetado é responsável apenas pela magnitude dessas variações.
Resumo:
É certo afirmar que muitas das organizações têm buscado aperfeiçoar seus processos, melhorar seu desempenho, ampliar seus mercados e principalmente medir seus resultados. O mercado postal, que teve como berço o setor estatal, diante das inúmeras transformações tecnológicas e o processo de globalização, tem conduzido as empresas que exploram o setor a se debaterem na busca de aperfeiçoamento das avaliações de seus desempenhos. As empresas postais do mundo inteiro têm procurado métodos capazes de dar sustentação às suas práticas para garantia e ampliação de seus mercados. A Empresa Brasileira de Correios e Telégrafos – ECT, criada em 1969, configurada com muitas lojas similares em todo o Brasil, que prestam e comercializam um conjunto de produtos e serviços semelhantes, mas que utilizam recursos diversos em intensidade diferente, possui sua atual avaliação de desempenho das lojas centrada em um único fator econômico financeiro, denominado índice de receitas e despesas – R/D. Esse índice não considera fatores que estão sendo utilizados pelas lojas, fora da visão financeira. Nesse ponto, considerada a importância e relevância do tema, é que surge a proposta de avaliar um conjunto de lojas da ECT do Rio Grande do Sul, através de modelagem matemática, utilizando uma técnica denominada data envelopment analysis – DEA (em português, análise envoltória de dados), que possibilita a inclusão de outras variáveis fora da visão econômica. Este trabalho tem como objetivos: (1) definir que variáveis podem ser utilizadas para a avaliação das lojas; (2) definir um conjunto de lojas similares, que executam as mesmas funções e que se diferenciam somente na intensidade da utilização dos recursos; (3) gerar, através da técnica, os resultados que podem ser obtidos a partir dos fatores quantitativos definidos e realizar análise de sensibilidades e (4) propiciar aos administradores um referencial para apoio à decisão. Espera-se que através da utilização da técnica seja possível: (1) identificar fatores que sejam usados de forma distinta nas lojas; (2) identificar que práticas estão sendo utilizadas pelas lojas consideradas eficientes e que podem contribuir para as lojas não eficientes e (3) permitir a participação dos gestores locais na alteração e extensão do modelo levando em conta as características das lojas.
Resumo:
A tomada de decisão é fator crucial nas organizações. As informações para subsidiar estes processos decisórios é que permitem ao decisor minimizar as incertezas e decidir melhor. Para que estas informações estejam disponíveis, devem ser construídos Sistemas de Informações (SI) com base nas necessidades dos decisores, através da adequada definição dos requisitos de informações. Este trabalho tem como objetivo a validação externa da metodologia Análise Focada na Decisão (AFD), desenvolvida por Santos, Becker e Fisher (1998) e que tem por objetivo definir os requisitos de informações para o desenvolvimento de SI. Tem como foco da análise o processo decisório e é composta por fases seqüenciais de atividades de análise e de modelagem de sistema, resultando um modelo integrado de fluxo de dados, onde os objetos estão centrados nas classes de decisões. A aplicação da AFD foi realizada em um hospital regional filantrópico, através de estudo de caso, sendo o Prontuário do Paciente (PP) o elemento central de integração. O objetivo da aplicação da metodologia é a definição das informações essenciais do PP, tendo como classes de decisão os usuários representativos das áreas médica, de enfermagem e administrativa e o modelo integrado resultante é a base para a definição das informações essenciais do PP. Pode-se concluir que a AFD é uma metodologia adequada para a definição de requisitos de informações, uma vez que os resultados de sua aplicação foram extremamente satisfatórios, pois, além do alcance dos objetivos propostos, propiciou mudanças na empresa.
Resumo:
O presente trabalho tem como objetivo o desenvolvimento de um modelo dinâmico genérico para reatores de polimerização em leito fluidizado com capacidade de predizer produção, condições de operação e propriedades do produto, como o índice de fluidez e densidade. Este modelo genérico é então aplicado ao caso específico da polimerização de eteno em reatores do processo UNIPOL, utilizando catalisador de óxido de cromo. De modo a obter um modelo validado, os parâmetros cinéticos são estimados utilizando experimentos realizados em uma planta piloto UNIPOL. Também é apresentado um modelo simplificado em relação ao modelo proposto inicialmente, cujo objetivo é remover as interações dos parâmetros das malhas de controle com os parâmetros cinéticos a serem estimados, aproveitando medidas de planta não utilizadas pelo outro modelo. Junto com a parte de estimação de parâmetros é apresentada a metodologia da análise de sensibilidade para o planejamento de experimentos e estimação de parâmetros.
Resumo:
Foi realizado o estudo do efeito do tipo de nylon nas blendas PP/PP-MA/Ny. Estas blendas foram caracterizadas por calorimetria diferencial de varredura, microscopia eletrônica de varredura, propriedades mecânicas e reológicas. Na análise reológica foram realizados os testes para os nylons N6, N6,9 e N6,10. Para os nylons N6,6 e N6,12 não foi possível fazer as medidas de viscosidade. Os resultados demonstraram que para os teores de 0,34 e 0,46 g% de MA no PP, o nível de dispersão final segue o fator da reatividade dos grupos terminais amino do nylons. Assim, a ordem de aumento de dispersão para as blendas com os nylons foi de N6,9, N6 e N6,10. Este comportamento foi confirmado na análise morfológica. Para o teor de 0,81 g%, a dispersão foi afetada pelo quociente das viscosidades, obedecendo a ordem esperada para os nylons 6,10, 6,9 e 6 e suas blendas.
Resumo:
O objetivo da pesquisa atém-se primeiramente em elaborar um protocolo que permita analisar, por meio de um conjunto de indicadores, o processo de reutilização de software no desenvolvimento de sistemas de informação modelando objetos de negócios. O protocolo concebido compõe-se de um modelo analítico e de grades de análise, a serem empregadas na classificação e tabulação dos dados obtidos empiricamente. Com vistas à validação inicial do protocolo de análise, realiza-se um estudo de caso. A investigação ocorre num dos primeiros e, no momento, maior projeto de fornecimento de elementos de software reutilizáveis destinados a negócios, o IBM SANFRANCISCO, bem como no primeiro projeto desenvolvido no Brasil com base no por ele disponibilizado, o sistema Apontamento Universal de Horas (TIME SHEET System). Quanto à aplicabilidade do protocolo na prática, este se mostra abrangente e adequado à compreensão do processo. Quanto aos resultados do estudo de caso, a análise dos dados revela uma situação em que as expectativas (dos pesquisadores) de reutilização de elementos de software orientadas a negócio eram superiores ao observado. Houve, entretanto, reutilização de elementos de baixo nível, que forneceram a infra-estrutura necessária para o desenvolvimento do projeto. Os resultados contextualizados diante das expectativas de reutilização (dos desenvolvedores) são positivos, na medida em que houve benefícios metodológicos e tecnológicos decorrentes da parceria realizada. Por outro lado, constatam-se alguns aspectos restritivos para o desenvolvedor de aplicativos, em virtude de escolhas arbitrárias realizadas pelo provedor de elementos reutilizáveis.
Resumo:
Um dos principais desafios para o século XXI é o uso sustentável dos recursos hídricos. A agricultura é a maior usuária desse recurso, sendo responsável por aproximadamente 70% dos gastos globais de água. Para o uso racional da água é necessário o conhecimento das propriedades hidráulicas do solo na condição de não-saturação. A simulação do movimento da água no solo através da modelagem é uma ferramenta importante no entendimento do sistema solo-água-planta, pois permite a previsão e estudo do comportamento da redistribuição da água no solo de maneira eficiente. Porém a forte dependência entre os parâmetros hidráulicos do solo (teor de água, potencial matricial e condutividade hidráulica) fazem da modelagem um assunto complicado, necessitando de modelos numéricos que utilizem intervalos discretos de tempo e espaço. Esses intervalos devem ser suficientemente pequenos para que dentro de um intervalo as variações dos parâmetros hidráulicos sejam insignificantes. Nesta tese é proposto um algoritmo para a descrição do movimento vertical da água no solo, definindo o intervalo de tempo como função de uma variação máxima admissível do teor de água. O algoritmo foi testado para alguns conjuntos de dados hidráulicos de solos, utilizando as condições de contorno de um experimento de perfil instantâneo. A eficiência do algoritmo foi verificada em situações práticas, como na previsão do teor de água na Capacidade de Campo e na predição do tempo para ser atingida determinada condição de umidade no solo. Utilizando o algoritmo, também foram estudados o comportamento da retenção e dos parâmetros de condutividade em relação aos parâmetros de drenagem. Concluiu-se que o algoritmo descreve adequadamente o processo de redistribuição de água no solo utilizando intervalos suficientemente pequenos de tempo e espaço; a forma de discretização do tempo não comprometeu a acurácia das medidas; a previsão do teor de água na Capacidade de Campo e do tempo para ser atingida determinada condição de umidade no solo foram satisfatórias; e o algoritmo permite o estudo das relações entre os parâmetros hidráulicos do solo.
Resumo:
O desenvolvimento de um projeto de obra de edificação é fruto da interação entre profissionais de diversas disciplinas que desenvolvem, simultaneamente, suas opções e decisões com relação ao mesmo. Assim sendo, é necessário considerar que a realização do projeto é dependente da eficiência da comunicação entre os membros da equipe, uma vez que grande parte do trabalho de cada projetista deve ser desenvolvida sob as restrições impostas pelas necessidades dos demais. O cuidado com o fluxo de informações apresenta-se, portanto, como um mecanismo eficiente para garantir a integração, controle e organização das atividades, colaborando para a transparência do processo tanto para o coordenador como para cada um dos profissionais selecionados para a equipe. Assim, este trabalho propõe, com base na realização de uma série de entrevistas com profissionais da área de projeto da cidade de Porto Alegre (RS), um sequenciamento básico de atividades a serem desenvolvidas pelos profissionais ao longo das etapas do processo. O modelo traçado buscou explicitar de forma sistematizada o intercâmbio de informações necessário para o desenvolvimento de cada projeto específico, definindo os principais resultados que devem ser disponibilizados para que outros profissionais possam desenvolver sua parcela do trabalho. O modelo foi gerado caracterizando a dependência entre os resultados disponibilizados individualmente pelos intervenientes para a equipe de profissionais ao longo do processo Desta forma, cada resultado caracterizou uma atividade, para a qual é possível conhecer não só as dependências - atividade(s) precedente(s) e sucessora(s)- mas a quem cabe a responsabilidade de disponibilizar tal informação, permitindo a tomada de decisão sobre o processo como um todo ao observar as ocorrências do dia-a-dia.
Resumo:
Este trabalho apresenta uma extensão do padrão ODMG para o suporte ao versionamento de objetos e características temporais. Essa extensão, denominada TV_ODMG, é baseada no Modelo Temporal de Versões (TVM), que é um modelo de dados orientado a objetos desenvolvido para armazenar as versões do objeto e, para cada versão, o histórico dos valores dos atributos e dos relacionamentos dinâmicos. O TVM difere de outros modelos de dados temporais por apresentar duas diferentes ordens de tempo, ramificado para o objeto e linear para cada versão. O usuário pode também especificar, durante a modelagem, classes normais (sem tempo e versões), o que permite a integração desse modelo com outras modelagens existentes. Neste trabalho, os seguintes componentes da arquitetura do padrão ODMG foram estendidos: o Modelo de Objetos, a ODL (Object Definition Language) e a OQL (Object Query Language). Adicionalmente, foi desenvolvido um conjunto de regras para o mapeamento do TV_ODMG para o ODMG a fim de permitir o uso de qualquer ODBMS para suportar a extensão proposta.
Resumo:
Este trabalho utilizou tecnologias tais como XML (eXtensible Markup Language) e esquemas XML, com objetivo de aprimorar a ovinocultura tornando o setor primário mais competitivo. Foram elaborados arquivos XML com a mesma estrutura (equivalentes) dos arquivos primitivos da Associação Brasileira de Criadores de Ovinos ( A.R.C.O. ), para que os mesmos possam ser disponibilizados na Internet. Para obter a integridade destes dados na Internet criou-se os esquemas XML, que são arquivos contendo as regras de formação dos dados. Os arquivos XML ficarão protegidos contra dados indesejáveis e disponíveis ao produtor rural via Internet.
Resumo:
Este trabalho apresenta uma arquitetura para Ambientes de Desenvolvimento de Software (ADS). Esta arquitetura é baseada em produtos comerciais de prateleira (COTS), principalmente em um Sistema de Gerência de Workflow – SGW (Microsoft Exchange 2000 Server – E2K) - e tem como plataforma de funcionamento a Internet, integrando também algumas ferramentas que fazem parte do grande conjunto de aplicativos que é utilizado no processo de desenvolvimento de software. O desenvolvimento de um protótipo (WOSDIE – WOrkflow-based Software Development Integrated Environment) baseado na arquitetura apresentada é descrito em detalhes, mostrando as etapas de construção, funções implementadas e dispositivos necessários para a integração de um SGW, ferramentas de desenvolvimento, banco de dados (WSS – Web Storage System) e outros, para a construção de um ADS. O processo de software aplicado no WOSDIE foi extraído do RUP (Rational Unified Process – Processo Unificado Rational). Este processo foi modelado na ferramenta Workflow Designer, que permite a modelagem dos processos de workflow dentro do E2K. A ativação de ferramentas a partir de um navegador Web e o armazenamento dos artefatos produzidos em um projeto de software também são abordados. O E2K faz o monitoramento dos eventos que ocorrem dentro do ambiente WOSDIE, definindo, a partir das condições modeladas no Workflow Designer, quais atividades devem ser iniciadas após o término de alguma atividade anterior e quem é o responsável pela execução destas novas atividades (assinalamento de atividades). A arquitetura proposta e o protótipo WOSDIE são avaliados segundo alguns critérios retirados de vários trabalhos. Estas avaliações mostram em mais detalhes as características da arquitetura proposta e proporcionam uma descrição das vantagens e problemas associados ao WOSDIE.
Resumo:
Dados são disponibilizados através dos mais distintos meios e com os mais variados níveis de estruturação. Em um nível baixo de estruturação tem-se arquivos binários e no outro extremo tem-se bancos de dados com uma estrutura extremamente rígida. Entre estes dois extremos estão os dados semi-estruturados que possuem variados graus de estruturação com os quais não estão rigidamente comprometidos. Na categoria dos dados semiestruturados tem-se exemplos como o HTML, o XML e o SGML. O uso de informações contidas nas mais diversas fontes de dados que por sua vez possuem os mais diversos níveis de estruturação só será efetivo se esta informação puder ser manejada de uma forma integrada e através de algum tipo de esquema. O objetivo desta dissertação é fornecer um processo para construção de uma ontologia de domínio que haja como esquema representativo de diferentes conjuntos de informação. Estes conjuntos de informações podem variar de dados semi-estruturados a dados estruturados e devem referir-se a um mesmo domínio do conhecimento. Esta proposta permite que qualquer modelo que possa ser transformado no modelo comum de integração possa ser utilizado com entrada para o processo de integração. A ontologia de domínio resultante do processo de integração é um modelo semântico que representa o consenso obtido através da integração de diversas fontes de forma ascendente (bottom-up), binária, incremental, semi-automática e auto-documentável. Diz-se que o processo é ascendente porque integra o modelo que representa a fonte de interesse sobre a ontologia, é binário porque trabalha com dois esquemas a cada integração o que facilita o processo de documentação das integrações realizadas, é incremental porque cada novo esquema de interesse é integrado sobre a ontologia vigente naquele momento, é semiautomático porque considera a intervenção do usuário durante o processo e finalmente é autodocumentável porque durante o processo, toda integração de pares de conceitos semanticamente equivalentes é registrada. O fato de auto-documentar-se é a principal característica do processo proposto e seu principal diferencial com relação a outras propostas de integração. O processo de mapeamento utiliza, dos esquemas de entrada, toda a informação presente ou que possa ser inferida. Informações como se o conceito é léxico ou não, se é raiz e os símbolos que permitem deduzir cardinalidades são consideradas. No processo de integração são consideradas práticas consagradas de integração de esquemas de BDs, na identificação de relacionamentos entre objetos dos esquemas, para geração do esquema integrado e para resolução de conflitos. As principais contribuições desta dissertação são (i) a proposta de um metamodelo capaz de manter o resultado dos mapeamentos e das integrações realizadas e (ii) a especificação de um processo auto-documentável que de sustentação a auditoria do processo de integração.