118 resultados para dados técnicos
Resumo:
Nas últimas décadas a operação de parte das rodovias brasileira foi transferida à iniciativa privada através de concessões. Seguindo tendências mundiais, o governo federal e os governos estaduais criaram as agências reguladoras, responsáveis pelo controle das concessões. Neste contexto, ganha importância a utilização de instrumentos que avaliem as condições gerais dos elementos físicos e dos serviços, essenciais ao desempenho das funções sociais e econômicas das rodovias. O objetivo desta dissertação é o desenvolvimento e aplicação de um modelo de avaliação de rodovias concedidas por parte de técnicos. A consulta ao estado da arte e da prática em avaliação rodoviária, a procedimentos de monitoração previstos em contratos de concessão e ao plano de fiscalização da Agência Nacional de Transportes Terrestres (ANTT) concorreram para a definição de um modelo teórico de avaliação técnica e subjetiva. Este modelo baseia-se em uma estrutura de itens que representam os vários elementos físicos e de serviços de uma concessão. Tal estrutura permite monitorar, de forma dinâmica, a qualidade rodoviária a partir dos seguintes níveis de agregação: itens, constructos (agrupamento de itens), trechos e concessão como um todo. A definição dos itens de avaliação, de suas ponderações (importâncias relativas) e de seus critérios de avaliação foi conduzida através da realização de grupos focados junto a técnicos de rodovias. Para a definição dos itens utilizou-se ainda a literatura como fonte de informação. A ponderação dos itens baseou-se na aplicação do Método de Análise Hierárquica em grupos focados. A aplicação do modelo de avaliação ocorreu através de dois estudos de caso: concessão 1 e concessão 2. Em relação à ponderação dos itens de avaliação, destacam-se itens dos constructos pavimento e sinalização, que representam aproximadamente 27% da importância da nota de uma concessão, cada. O item relacionado a panelas e buracos apresenta uma importância de aproximadamente 10% da nota. A análise da condição e da importância dos itens permitiu verificar os constructos mais críticos das concessões. A concessão 1 apresenta, como críticos, os constructos pavimento; sinalização; vegetação, limpeza, drenagem e visibilidade; e serviços prestados pela concessionária. A concessão 2 apresenta, como críticos, os constructos pavimento; acostamentos, refúgios e encostas; pontes, viadutos e túneis; sinalização; vegetação, limpeza, drenagem e visibilidade.
Resumo:
Considerando a lavagem das mãos como uma importante medida de controle de infecção hospitalar, objetivou-se investigar as razões que impulsionam os trabalhadores de enfermagem a lavar ou não as mãos. Optou-se pela pesquisa qualitativa e pela técnica de grupo focal para a coleta dos dados. O grupo consolidou-se com seis sujeitos (três enfermeiros e três técnicos de enfermagem), selecionados através dos critérios de voluntariedade e interesse pela temática. A coleta de dados transcorreu em cinco encontros semanais, estendendo-se pelos meses de novembro e dezembro de 2002. Utilizando a análise de enunciação, verificou-se que os profissionais mostram conhecimento teórico sobre o tema, entretanto percebeu-se que a prática da lavagem das mãos é influenciada pelas diferentes situações, como de surtos, emergências e isolamentos. As dificuldades como a superlotação do hospital, distância das pias, recursos (in)disponíveis e/ou (in)adequados, entre outros, interferem na execução desse procedimento, mas não o determinam. Essas condições, associadas à forma como o trabalho é organizado e à cultura que privilegia a cura em detrimento da prevenção, levam à negligência com a lavagem das mãos, que acaba por ser considerada uma prática paralela e secundária ao trabalho da enfermagem. Outras questões foram consideradas para analisar a lavagem das mãos, como sua relação com o uso de luvas, que evidenciou ambos como procedimento/equipamento de proteção individual, e com a fricção higiênica das mãos, que se mostrou pouco aceita pelos sujeitos. Sinaliza-se a necessidade de se trabalhar esse tema junto aos profissionais da saúde para que se possa efetivar a lavagem das mãos como medida preventiva de infecções hospitalares.
Resumo:
A maioria dos estudos de impactos de pólos geradores de viagens são desenvolvidos a partir da adequação de metodologias desenvolvidas em diferentes contextos e disponíveis na literatura. Este trabalho buscou avaliar a adequação de algumas destas propostas, em termos de área de influência, distribuição de viagens e escolha modal, em shopping centers de Porto Alegre. Os dados para análise foram provenientes de uma pesquisa origem e destino realizada recentemente em Porto Alegre por meio de entrevistas domiciliares (EDOM). A partir da comparação dos resultados obtidos na análise de cinco shopping centers, foi possível identificar a relação entre as características dos usuários, da região de entorno e do padrão de viagens dos empreendimentos. Com relação à escolha modal, observou-se que as características do empreendimento, a facilidade de acesso ao pólo pelos diversos modos de transporte disponíveis e os aspectos sócio-econômicos da área de influência são variáveis que podem explicar a escolha do modo utilizado. Para a delimitação da área de influência dos shopping centers, constatou-se que as propostas que utilizam a distância de viagem como critério para definição se mostraram mais realistas do que aquelas que adotam o tempo de viagem como base. Na distribuição de viagens, verificou-se que o perfil econômico dos residentes na área de influência, bem como informações que caracterizem as atividades existentes nas zonas de tráfego são variáveis que podem explicar a distribuição de viagens de shopping centers. Por fim, concluiu-se que o banco de dados da EDOM é uma fonte de dados potencial na análise da demanda de shopping centers.
Resumo:
Esta dissertação discute o gerenciamento dos custos de construção de Pequenas Centrais Hidrelétricas - PCHs, apresentando uma sistemática para custeio das atividades componentes destes empreendimentos, baseada em parâmetros técnicos e parâmetros probabilísticos. Estes parâmetros foram determinados a partir da função beta e da técnica PERT, em conjunto com a utilização de métodos aleatórios de sorteio.Para formulação desta sistemática, foi revisada a literatura sobre gestão de projetos, que é baseada na estrutura do PMBOK, além da literatura sobre o setor de geração de energia elétrica mundial e o brasileiro. Foi verificado que a geração de energia no brasil é dependente da hidreletricidade, e foi mostrado que há um crescimento nos investimentos em usinas de pequeno porte. A sistemática proposta é aplicada em um caso fictício de PCH com características técnicas reais, obtidas a partir de dados históricos de uma empresa de engenharia.
Resumo:
Os processamentos de imagens orbitais efetuados através de técnicas de sensoriamento remoto geraram informações qualitativas de natureza textural (morfo-estruturas). Estas permitiram (1) o reconhecimento de áreas com diferentes padrões estruturais tendo diferentes potencialidades para a prospecção de fluorita, (2) a identificação de novos lineamentos estruturais potencialmente favoráveis à mineralização e (3) evidenciaram prolongamentos extensos para as principais estruturas mineralizadas, (4) às quais se associam um grande número de estruturas, antes desconhecidas, com grande potencial prospectivo. O aprimoramento de técnicas de classificação digital sobre produtos de razões de bandas e análise por componentes principais permitiu identificar a alteração hidrotermal associada às estruturas, incorporando novos critérios para a prospecção de fluorita. Buscando-se quantificar os dados de alteração hidrotermal, foi efetuada a análise espectrorradiométrica das rochas do distrito fluorítico. Integrando estas informações com dados TM LANDSAT 5, em nível de reflectância, obteve-se a classificação espectral das imagens orbitais, o que permitiu a identificação de estruturas menores com um detalhe nunca antes obtido. Os processamentos de dados aerogeofísicos forneceram resultados sobre estruturas (magnetometria) e corpos graníticos afetados por alteração hidrotermal (aerogamaespectrometria). Estes produtos foram integrados com dados TM LANDSAT 5 associando o atributo textural da imagem orbital ao comportamento radiométrico das rochas. Diagnosticou-se o lineamento Grão-Pará como o principal prospecto do distrito. E levantaram-se uma série de dados sobre a compartimentação tectônica da região, a zonação de fácies das rochas graníticas (rocha fonte do flúor) e as alterações hidrotermais associadas ao magmatismo granítico. Isto permitiu a compreensão da distribuição regional dos depósitos de fluorita, adicionando-se um novo critério à prospecção de fluorita, a relação espacial entre a mineralização e a rocha fonte de F. Esta última corresponde à fácies granítica da borda do Maciço Pedras Grandes.
Resumo:
A elaboração de diagnósticos e a tomada de decisões sobre o meio físico, com a finalidade de estabelecer diretrizes para a ocupação racional do solo, são cada vez mais prementes, especialmente, no que diz respeito ao direcionamento da expansão urbana para áreas mais favoráveis. Da mesma forma, a facilidade de acesso aos parâmetros geotécnicos de uma região constituí um inestimável recurso nas etapas preliminares dos projetos de Engenharia, no planejamento de atividades extrativas e nos programas de preservação ambiental. A cartografia geotécnica, nesse sentido, tem sido um dos instrumentos mais eficientes para a avaliação do meio físico nas últimas décadas. Entretanto, o desenvolvimento de um mapa geotécnico requer a análise de um grande número de informações que precisam ser tratadas e combinadas com rapidez. Esta tese apresenta uma metodologia para a integração de dados, por meio da ferramenta básica geoprocessamento, visando agilizar, na fase de escritório, a elaboração de mapas geotécnicos e a análise de determinados aspectos do meio físico sob o ponto de vista da Geotecnia, bem como suas interações com a mancha urbana existente. A área teste escolhida é o município de Porto Alegre (RS) situado na porção leste do estado do Rio Grande do Sul, à margem esquerda do Lago Guaiba, cuja paisagem é marcada pela diversidade de cenários naturais formados por terrenos de coxilhas, morros, cristas, lagos e planícies. A metodologia envolve a captura, o processamento e a integração de informações provenientes de fontes diversas como mapas temáticos, levantamento aerofotogramétrico, cartas topográficas, fotografias aéreas, imagens de satélite, boletins de sondagens SPT (Standart Penetration Test), dissertações e teses acadêmicas. Para isso, é constituída por nove etapas distintas, que utilizam: a) sistema de digitalização para a conversão de informações analógicas para o meio digital; b) modelagem digital do terreno (MDT) para o modelamento e a identificação do relevo, a determinação de declividades, o mapeamento de áreas com isodeclividades e o cálculo do fator topográfico, esse último objetivando a determinação da suscetibilidade à erosão laminar; c) técnicas de processamento e classificação de imagens orbitais para os mapeamentos das áreas inundáveis e da mancha urbana; d) Sistemas de Informações Geográficas (SIGs) para o processamento e a integração de informações georreferenciadas no computador; e) banco de dados digital para o armazenamento de dados descritivos sobre o meio físico e parâmetros geotécnicos obtidos em laboratório, sondagens e outras formas de investigação in situ. A estimativa das unidades geotécnicas é procedida com base na proposta metodológica para mapeamento geotécnico desenvolvida por Davison Dias (1995), na Universidade Federal do Rio Grande do Sul (UFRGS). Além da elaboração do mapa geotécnico, a metodologia propõe a análise e o cruzamento de vários fatores do meio físico com a mancha urbana existente, ou com uma subárea pertencente à região de estudo, a geração de mapas de aptidão do solo para diferentes usos e a identificação das áreas consideradas de eventos perigosos e de risco geológico. Os principais softwares empregados são o AutoCAD@, o SURFER@, ACESS@ e o IDRISI 2.0@, desenvolvido pela Clark University, USA. Os resultados obtidos a partir da implementação da metodologia demonstraram a importância e a contribuição que a ferramenta básica geoprocessamento pode trazer aos estudos geotécnicos. Os diferentes sistemas de geoprocessamento utilizados para a manipulação e tratamento das informações espaciais mostraram-se adequados e eficientes quando aplicados na coleta, processamento e integração de dados geotécnicos. Para a área teste foram identificadas trinta e sete unidades com perfis de solos com comportamento geotécnico praticamente similar frente ao uso e à ocupação do solo, cujas informações descritivas sobre o meio físico puderam ser facilmente acessadas e visualizadas, no computador, por meio da integração banco de dados geotécnicos com Sistema de Informações Geográficas. Por outro lado, o emprego de técnicas de processamento e classificação de imagens digitais revelou-se um recurso importante para a obtenção de informações sobre o meio físico, enquanto o uso de modelagem digital do terreno (MDT) agilizou o mapeamento das declividades e o cálculo da suscetibilidade potencial à erosão laminar, além de permitir a geração do relevo em perspectiva da região estudada.
Resumo:
A competitividade na área da saúde tem obrigado as empresas a conhecer e entender as necessidades dos seus clientes. Com isto, os hospitais têm buscado um modelo de gestão que traduza as práticas que agregam valor ao cliente. Este trabalho aborda a percepção dos familiares de pacientes com alta da Unidade de Tratamento Intensivo Pediátrico (UTIP) acerca do grau de importância e satisfação de assistência prestada pela equipe da UTIP do Hospital da Criança Santo Antônio (HCSA). Inicialmente, no referncial teórico foi realizada a análise dos conceitos de serviço, de qualidade em serviços, de serviços hospitalares, qualidade e de satisfação do cliente em UTIP. Na pesquisa foi aplicado um questionário descritivo de perfil quantitativo e qualitativo. Na análise dos dados, utilizou-se a matriz importância versus satisfação para determinar os atributos a serem priorizados. Obteve-se a indicação de esforços de melhoria nos seguintes atributos: cumprimento de horários das informações médicas, número de técnicos e auxiliares de enfermagem, rapidez no atendimento médico, atendimento ao acompanhante, limpeza dos ambientes e flexibilidade do atendimento - técnicos e auxiliares de enfermagem. Com base nos resultados obtidos na pesquisa, a autora propõe ações de melhoria para a instituição na visão dos familiares com alta da UTIP do HCSA.
Resumo:
Neste trabalho é investigada uma abordagem para extração de feições baseada na otimização da distância de Bhattacharyya em um classificador hierárquico de estrutura binária. O objetivo é mitigar os efeitos do fenômeno de Hughes na classificação de dados imagem hiper-espectrais. A utilização de um classificador em múltiplo-estágio, analisando um sub-conjunto de classes em cada etapa ao invés do conjunto total, permite modos mais eficientes para extrair as feições mais adequadas em cada etapa do procedimento de classificação. Em uma abordagem de árvore binária, somente duas classes são consideradas em cada etapa, permitindo a implementação da distância de Bhattacharyya como um critério para extração de feições em cada nó da árvore. Experimentos foram realizados utilizando dados imagem do sensor AVIRIS. A performance da metodologia proposta é comparada com métodos tradicionais para extração e seleção de feições.
Resumo:
Dados volumétricos temporais são usados na representação de fenômenos físicos em várias aplicações de visualização científica, pois tais fenômenos são complexos, alteram-se com o tempo e não possuem uma forma de representação definida. Uma solução é usar amostragens sobre um espaço de forma geométrica simples que contém o fenômeno (um cubo, por exemplo), discretizado ao longo de uma grade em células de mesmo formato e usualmente chamado de volume de amostragem. Este volume de amostragem representa um instante da representação do fenômeno e, para representar dados temporais, simplesmente enumera-se tantos volumes quanto forem as diferentes instâncias de tempo. Esta abordagem faz com que a representação seja extremamente custosa, necessitando de técnicas de representação de dados para comprimir e descomprimir os mesmos. Este trabalho apresenta uma nova abordagem para compressão de volumes de dados temporais que permite a visualização em tempo real destes dados usando hardware gráfico. O método de compressão usa uma representação hierárquica dos vários volumes de dados dentro da memória do hardware gráfico, referenciados pelo hardware como texturas 3D. O método de compressão tem melhor desempenho para dados volumétricos esparsos e com alto grau de coerência (espacial e temporal). A descompressão destes dados é feita por programas especiais que são executados no próprio hardware gráfico. Um estudo de caso usando o método de compressão/descompressão proposto é apresentado com dados provenientes do Projeto MAPEM (Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima). O objetivo do projeto é propor uma metodologia para o monitoramento dos efeitos das descargas de materiais no ecossistema marinho durante a perfuração de um poço de petróleo. Para estimar certos descarregamentos de fluidos, o projeto usa um simulador CFD que permite mostrar tais descarregamentos, gerando grades planares e uniformes 2D ou 3D em qualquer instante de tempo durante a simulação.
Resumo:
Uma das maiores dificuldades encontradas pelos técnicos envolvidos na elaboração da previsão do tempo é a falta de integração entre o software de visualização usado por eles e os programas usados para escrever os boletins. Os previsores necessitam de um meio rápido e fácil de gerar previsões com outras formas de apresentação, além do formato de texto em que ela normalmente é produzida. A partir do estudo dessas dificuldades, formulou-se a hipótese de que seria benéfico criar uma linguagem visual para a criação da previsão do tempo, que permitisse gerar tanto o texto de um boletim meteorológico quanto as imagens correspondentes. Este trabalho descreve a especificação dessa linguagem, à qual se deu o nome de Pythonissa. Ela foi definida usando o formalismo de grafos e se constitui de um modelo da estrutura de um boletim de previsão do tempo. Em Pythonissa, cada região geográfica para a qual é feita a previsão é representada por um vértice em um grafo. Os fenômenos presentes na região também são representados por vértices, de outros tipos, ligados à região por arestas que denotam sua presença. Cada tipo de vértice e aresta tem mapeamentos para representações gráficas e para elementos de controle em uma interface com o usuário. A partir da linguagem, foi implementado um protótipo preliminar, no qual é possível criar um boletim de por meio de uma interface visual e gerar o texto e a imagem correspondentes. Foi dado início, também, à construção de um framework para integração da linguagem a um ambiente de visualização de dados, de modo a produzir uma aplicação utilizável em um ambiente de trabalho real. Para isto foram usados o software de visualização Vis5D e a linguagem de scripts Python. A este framework, se deu o nome de Py5D.
Resumo:
A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
O trabalho em hospital abrange, atualmente no Brasil, um contigente superior a um milhão de trabalhadores. Estes estão sujeitos a riscos e a uma carga de trabalho intensa e diversificada. No que concerne ao setor de Unidade de Terapia Intensiva Adulto (UTI), o ambiente de trabalho é ainda mais peculiar, dotado de problemas técnicos e organizacionis, fisiológicos-posturais e psicossociais. Neste contexto, o estudo contemplou a análise da organização e das condições de trabalho da equipe de enfermagem da UTI de um hospital público. Como metodologia foi utilizada uma abordagem macroergonômica, onde os instrumentos de coleta de dados foram: observações sistemáticas (de tarefas, atividades e verbalizações) e um questionário estruturado. A equipe observada contou com vinte e sete funcionários: enfermeiros, técnicos e auxiliares de enfermagem; destes, cinco do sexo masculino e vinte e dois do sexo feminino. Os resultados indicaram a existência de tarefas penosas como: reanimação, troca de fraldas, aspiração e banho. Ainda foram identificadas correlações entre: dificuldade de deslocamento dentro da unidade e ao redor do paciente; vontade de ir ao trabalho e o seu turno de trabalho, entre outras. Como conclusão, pode-se afirmar que a equipe de enfermagem é submetida a uma sobrecarga de trabalho constante, onde se relacionam a variabilidade, simultaneidade das tarefas e a responsabilidade nos cuidados prestados aos pacientes. A realização das tarefas também depende da colaboração entre colegas que influi diretamente no relacionamento intra-equipe.
Resumo:
Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.