996 resultados para painel de dados
Resumo:
Neste trabalho é investigada uma abordagem para extração de feições baseada na otimização da distância de Bhattacharyya em um classificador hierárquico de estrutura binária. O objetivo é mitigar os efeitos do fenômeno de Hughes na classificação de dados imagem hiper-espectrais. A utilização de um classificador em múltiplo-estágio, analisando um sub-conjunto de classes em cada etapa ao invés do conjunto total, permite modos mais eficientes para extrair as feições mais adequadas em cada etapa do procedimento de classificação. Em uma abordagem de árvore binária, somente duas classes são consideradas em cada etapa, permitindo a implementação da distância de Bhattacharyya como um critério para extração de feições em cada nó da árvore. Experimentos foram realizados utilizando dados imagem do sensor AVIRIS. A performance da metodologia proposta é comparada com métodos tradicionais para extração e seleção de feições.
Resumo:
Dados volumétricos temporais são usados na representação de fenômenos físicos em várias aplicações de visualização científica, pois tais fenômenos são complexos, alteram-se com o tempo e não possuem uma forma de representação definida. Uma solução é usar amostragens sobre um espaço de forma geométrica simples que contém o fenômeno (um cubo, por exemplo), discretizado ao longo de uma grade em células de mesmo formato e usualmente chamado de volume de amostragem. Este volume de amostragem representa um instante da representação do fenômeno e, para representar dados temporais, simplesmente enumera-se tantos volumes quanto forem as diferentes instâncias de tempo. Esta abordagem faz com que a representação seja extremamente custosa, necessitando de técnicas de representação de dados para comprimir e descomprimir os mesmos. Este trabalho apresenta uma nova abordagem para compressão de volumes de dados temporais que permite a visualização em tempo real destes dados usando hardware gráfico. O método de compressão usa uma representação hierárquica dos vários volumes de dados dentro da memória do hardware gráfico, referenciados pelo hardware como texturas 3D. O método de compressão tem melhor desempenho para dados volumétricos esparsos e com alto grau de coerência (espacial e temporal). A descompressão destes dados é feita por programas especiais que são executados no próprio hardware gráfico. Um estudo de caso usando o método de compressão/descompressão proposto é apresentado com dados provenientes do Projeto MAPEM (Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima). O objetivo do projeto é propor uma metodologia para o monitoramento dos efeitos das descargas de materiais no ecossistema marinho durante a perfuração de um poço de petróleo. Para estimar certos descarregamentos de fluidos, o projeto usa um simulador CFD que permite mostrar tais descarregamentos, gerando grades planares e uniformes 2D ou 3D em qualquer instante de tempo durante a simulação.
Resumo:
A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.
Resumo:
Tomando como base o referencial teórico existente, o presente trabalho estuda os fatores determinantes da estrutura de capital das empresas brasileiras abertas e fechadas, com base em uma amostra de 6.396 empresas dos anos de 2000, 2001, 2002, 2003 e 2004, em um total de 31.980 observações. Utilizando o procedimento econométrico de análise de dados em painel, foram realizados testes com base nos modelos de pooled OLS sem dummies de tempo, pooled OLS com dummies de tempo, efeitos fixos, efeitos aleatórios e primeiras diferenças. Para cada um destes modelos, foram feitas regressões para o endividamento de curto prazo(Y1), de longo prazo(Y2) e total(Y3). Os fatores tangibilidade, rentabilidade, liquidez, tamanho da empresa, taxa de crescimento do ativo, giro do ativo, taxa de imposto paga pela empresa, natureza do capital (aberto/fechado), segmento de atuação (classificação industrial) e o fato de uma empresa pertencer a grupo econômico apresentaram evidências de serem fatores que influenciam na estrutura de capital das empresas. Os fatores non debt tax shields (benefícios fiscais não provenientes do endividamento), idade da empresa e região geográfica de localização da empresa não se mostraram conclusivos. E, por último, os fatores singularidade e origem do capital (nacional privado, nacional estatal e estrangeiro) pareceram não exercer influência sobre o grau de endividamento das empresas.
Resumo:
A América Latina é a região com mais elevado nível de desigualdade de renda do mundo. Nos anos 90, a discussão acerca da relação entre crescimento econômico e desigualdade de renda é retomada com mais intensidade em virtude do desempenho econômico com equidade apresentado pelos países do Leste Asiático. Parte da literatura encontra que a desigualdade de renda afeta negativamente o desempenho econômico do países. Partindo desse resultado, ela busca os canais pelos quais essa relação de daria. No entanto, no final dos anos 90, outro conjunto de estudos passa a questionar tal resultado, com o uso de dados de melhor qualidade para a distribuição de renda, bem como outras técnicas econométricas. A partir daí, o foco da dissertação será a avaliação da relação entre crescimento econômico e desigualdade de renda para um conjunto menor de países. E avaliamos também, a possibilidade de verificarmos a hipótese da curva de Kuznets para a região. A análise econométrica, seguindo os moldes da literatura mais recente, foi desenvolvida com base em um painel de 13 países latino-americanos no período entre 1970 e 1995, considerando sub-períodos de 5 anos. O exercício empírico revelou que os resultados encontrados na dissertação estão na linha dos trabalhos mais recentes na área e confirmam, para um conjunto menor de países, especificamente da América Latina, a relação positiva que há entre desigualdade e crescimento e a hipótese de Kuznets.
Resumo:
Pesquisa o uso de indicadores para avaliação do desempenho de serviços de informação tecnológica, sob a ótica da abordagem centrada no usuário. Tem por objetivo principal propor um conjunto de indicadores de desempenho que sejam aplicáveis à mensuração e à gestão dos serviços brasileiros de informação tecnológica, com foco no cliente-usuário. O referencial teórico engloba aspectos referentes à informação tecnológica, serviços de informação, gestão da qualidade, avaliação de serviços, métrica e indicadores. Faz uma análise de documentos sobre indicadores de desempenho aplicados à Sociedade do Conhecimento, Ciência e Tecnologia, Inovação Tecnológica, Tomada de Decisão e Unidades de Informação. Define a Norma Internacional ISO 11620 e o EQUINOX como os documentos base para a seleção dos indicadores de desempenho propostos à análise de especialistas. Utiliza, para o levantamento dos dados, a técnica Delphi, tendo como instrumento o questionário. O questionário é aplicado em duas ocasiões, em dez (10) especialistas, que avaliam cada questão proposta. As questões, em número de vinte e cinco (25), referem-se aos indicadores de desempenho selecionados pela pesquisadora. Estes indicadores são analisados pelos especialistas sob os aspectos pertinência, relevância e viabilidade, a partir de uma escala de atitude, os quais justificam suas escolhas. A cada rodada, o painel de especialistas recebe, como feedback, os aportes da rodada anterior. Esta interação permite um reposicionamento de cada um dos participantes, reposicionamento este que se reflete nas respostas da rodada seguinte. Como produto final da pesquisa , gera-se uma relação de vinte e dois (22) indicadores considerados pela maioria dos especialistas como os mais pertinentes e relevantes. Conclui com a análise dos aportes dos especialistas e da técnica metodológica utilizada. Recomenda o uso de indicadores de desempenho pelos serviços de informação tecnológica; a promoção de ações que visem sensibilizar órgãos de pesquisa e organismos governamentais quanto à sua utilização; o incentivo à implementação, junto aos cursos de Ciência da Informação, de conteúdos sobre avaliação por indicadores. Completamenta com a relação de outros indicadores propostos pelo painel de especialistas. Sugere novos temas de estudo, relacionados ao desenvolvido.
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
A presente dissertação teve como objetivo analisar de modo abrangente e preciso as relações entre poupança pública e crescimento econômico, motivada pela importância do estudo para o entendimento dos fatores incentivadores do desenvolvimento e pela quase absoluta originalidade do tema. Depois de uma revisão analítica de modelos de crescimento econômico investigativos dos impactos do setor público sobre as taxas de desenvolvimento, análise teórico-descritiva das relações entre poupança pública e crescimento mostrou que a poupança é um indicador de sustentabilidade fiscal mais completo do que o superávit primário e tende a apresentar efeitos mais positivos sobre o comportamento do produto do que o superávit operacional. A subseqüente análise econométrica dos efeitos da poupança pública sobre o crescimento econômico baseou-se em hipóteses retiradas do exame descritivo da evolução de algumas variáveis públicas e da taxa de crescimento per capita para uma série de países, estimando modelos de regressão múltipla para um painel de 38 nações, entre desenvolvidas e em desenvolvimento. As equações estimadas e os testes de robustez dos resultados comprovaram, a elevados níveis de confiança, a hipótese de relação positiva entre as taxas de poupança pública e de crescimento econômico per capita, além de fornecerem resultados interessantes e consistentes sobre a forma de associação do desenvolvimento a outras variáveis. A conclusão central foi que um aumento de uma unidade na taxa de poupança pública deve levar, em média, a uma elevação de 0,17 unidades na taxa de crescimento econômico per capita, reforçando o argumento de que um importante indicador fiscal a ser monitorado pelos governos com o objetivo de atingir taxas mais elevadas de crescimento sem descuidar de suas finanças é a poupança pública.
Resumo:
A relação entre estrutura de mercado e inovação tecnológica é um tema amplamente discutido, mas não existe concordância entre os autores que a estudam. Um dos aspectos que tornam o entendimento desta relação importante é seu possível impacto na praxis da política antitruste, já que esta assume que a concorrência perfeita é a estrutura de mercado que maximiza o bem-estar. Esta dissertação investiga o impacto da concentração de mercado (HHI) nos gastos em atividades inovativas para o caso dos setores industriais brasileiros através de uma análise de dados em painel. A partir de informações sobre os gastos em diferentes atividades inovativas e de características da indústria testa-se a hipótese de que a concorrência influencia os gastos em P&D internos às firmas na forma de um U invertido, como prevêem Scherer e Ross (1989) e Aghion et al. (2002). Os principais resultados encontrados indicam que essa relação em U invertido realmente existe e que o índice de concentração que maximiza os gastos em P&D interno é, em torno de, 0,30 de HHI. Apesar disso, quando efeitos específicos da indústria são controlados, o poder de explicação do HHI decai. Um segundo resultado importante é que quando se examina as atividades inovativas com menor risco associado, como capacitação tecnológica, a relação entre concentração e gastos inovativos é negativa.
Resumo:
Cláusulas de fidelidade e políticas de fidelização são elementos comuns nos debates sobre como intensificar o comprometimento dos associados com sua cooperativa. A literatura acadêmica já apresentou diversos fatores que podem influenciar o comprometimento/fidelidade dos associados. Entretanto, poucas respostas foram dadas quanto à influência que o desenho institucional da cooperativa pode ter no comprometimento ou na fidelidade dos seus associados. Por meio das informações disponíveis no banco de dados do PDICOOPs – que conta com dados em formato de painel para os anos de 1989, 1992 e 2000 -, esta dissertação avalia empiricamente os determinantes do comprometimento dos associados com a cooperativa, tendo como foco os efeitos dos custos e benefícios da ação coletiva, propósito da organização cooperativa. Adicionalmente, esta dissertação investiga se o nível de comprometimento dos associados tem efeitos sobre o desempenho da cooperativa.
Resumo:
Este estudo analisa como a classe de acionistas afeta o valor das empresas brasileiras listadas na bolsa de valores no ponto de vista da governança corporativa. O trabalho examina a interação entre o valor das empresas e cinco tipos de concentrações acionárias comumente presente em mercados emergentes: famílias, agentes públicos, investidores estrangeiros, executivos e investidores financeiros nacionais. A análise empírica demonstra que o mix e a concentração de participação acionária afeta significativamente o valor das empresas. Utilizando uma compilação única de dados em painel de 2004 a 2008, a presente pesquisa também desenvolve hipóteses sobre o efeito da participação em grupos econômicos para o valor das empresas. A investigação encontra evidências de que, apesar de sua importância para o desenvolvimento de empresas brasileiras, o capital familiar, instituições públicas, e investidores estrangeiros estão cedendo lugar a monitores mais especializados e menos concentrados, como executivos e instituições financeiras nacionais. Estes resultados indicam que a governança corporativa no Brasil pode estar alcançando níveis de maturidade mais elevados. Adicionalmente, apesar de não haver indicação da existência de correlação entre a participação em grupos econômicos e o valor das empresas, os resultados indicam que a presença de um tipo específico de acionista em uma empresa do grupo facilita investimentos futuros desta classe de acionista em outras empresas do mesmo grupo, sinalizando que os interesses acionários são provavelmente perpetuados dentro de uma mesma rede de empresas. Finalmente, a pesquisa demonstra que enquanto o capital familiar prefere investir em empresas com ativa mobilidade do capital, investidores internacionais e instituições públicas procuram investimentos em equity com menor mobilidade de capital, o que lhes garante mais transparência com relação ao uso dos recursos e fundos das empresas.
Resumo:
Este trabalho tem como objetivo analisar a relação entre a remuneração da alta gerência e a evolução do desempenho das firmas brasileiras. Isto é, investigar até que ponto os aumentos da remuneração real da alta gerência estão realmente correlacionados de forma significativa ao desempenho da empresa. A análise foi feita sob a luz da teoria econômica, sobretudo a partir do modelo agente-principal. O estudo empírico foi implementado a partir de dados desagregados por sub-setor de atividade econômica, para o Brasil ao longo do período 2001-2006. As informações sobre a remuneração dos executivos foram obtidas através dos dados da Relação Anual de Informações Sociais (RAIS) do Ministério do Trabalho e Emprego. Já as informações sobre o lucro real de cada sub-setor foram colhidas das Pesquisas Anuais de Serviços (PAS), Comércio (PAC) e Indústria (PIA), realizadas pelo Instituto Brasileiro de Geografia e Estatística (IBGE). As regressões estimadas tiveram como objetivo verificar se a evolução da remuneração real média dos executivos de cada sub-setor tem correlação com a evolução do lucro real por trabalhador de cada sub-setor. Em particular, verificou-se se o aumento prévio da remuneração real dos executivos é seguido de um aumento do lucro real por trabalhador, controlados os fatores macroeconômicos, através da inclusão de variáveis binárias para cada ano, e controlada a autocorrelação da variável lucro real por trabalhador. De acordo com os dados analisados neste trabalho, conclui-se que há correlação contemporânea entre o rendimento real dos executivos e o desempenho das firmas, sugerindo que os executivos têm poder de barganha para se apropriar de parte dos lucros. Contudo, a correlação entre o aumento prévio da remuneração real dos executivos e o lucro no período seguinte, apesar de positiva, não é estatisticamente significativa. Assim sendo, a hipótese de que melhora da remuneração dos executivos pode influenciar positivamente o desempenho das empresas requer mais investigações para ser respondida com segurança.
Resumo:
As observações relatadas por Myers e Thompson, em seu artigo “Generalized Optimal Hedge Ratio Estimation” de 1989, foram analisadas neste estudo utilizando o boi gordo como a commodity de interesse. Myers e Thompson, demonstraram teórica e empiricamente, ser inapropriado o uso do coeficiente angular da regressão simples, dos preços à vista sobre os preços futuros como forma de estimar a razão ótima de hedge. Porém, sob condições especiais, a regressão simples com a mudança dos preços resultou em valores plausíveis, próximos àqueles determinados por um modelo geral. Este modelo geral, foi desenvolvido com o intuito de estabelecer os parâmetros para comparar as diferentes abordagens na estimativa da razão ótima de hedge. O coeficiente angular da reta da regressão simples e a razão ótima de hedge tem definições similares, pois ambos são o resultado da divisão entre a matriz de covariância dos preços, à vista e futuros e a variância dos preços futuros. No entanto, na razão ótima de hedge estes valores refletem o momento condicional, enquanto que na regressão simples são valores não condicionais. O problema portanto, está em poder estimar a matriz condicional de covariância, entre os preços à vista e futuros e a variância condicional dos preços futuros, com as informações relevantes no momento da tomada de decisão do hedge. Neste estudo utilizou-se o modelo de cointegração com o termo de correção de erros, para simular o modelo geral. O Indicador ESALQ/BM&F foi utilizado como a série representativa dos preços à vista, enquanto que para os preços futuros, foram utilizados os valores do ajuste diário dos contratos de boi gordo, referentes ao primeiro e quarto vencimentos, negociados na Bolsa Mercantil e de Futuros - BM&F. Os objetivos do presente estudo foram: investigar se as observações feitas por Myers e Thompson eram válidas para o caso do boi gordo brasileiro, observar o efeito do horizonte de hedge sobre a razão ótima de hedge e o efeito da utilização das séries diárias e das séries semanais sobre a estimativa da razão ótima de hedge. Trabalhos anteriores realizados com as séries históricas dos preços do boi gordo, consideraram apenas os contratos referentes ao primeiro vencimento. Ampliar o horizonte de hedge é importante, uma vez que as atividades realizadas pelos agentes tomam mais do que 30 dias. Exemplo disto é a atividade de engorda do boi, que pode levar até 120 dias entre a compra do boi magro e a venda do boi gordo. Demonstrou-se neste estudo, que o uso das séries semanais, é o mais apropriado, dado a diminuição substancial da autocorrelação serial. Demonstrou-se também, que as regressões com as mudanças dos preços, resultaram em estimativas da razão de hedge próximas daquelas obtidas com o modelo geral e que estas diminuem com o aumento do horizonte de hedge.
Resumo:
Este trabalho apresenta a montagem de uma instalação fotovoltaica de 4,8 kWp conectada à rede elétrica e uma análise experimental do seu comportamento, com o propósito de otimizar o fator de dimensionamento. Para fins de análise comparativa a instalação foi dividida em três subsistemas com arranjos de potências diferentes, os quais possuem fatores de dimensionamentos de 0,65, 0,73 e 0,86 (razão entre a potência nominal do inversor e a potência do gerador fotovoltaico), respectivamente para os subsistemas 1, 2 e 3. Cada subsistema possui um arranjo formado por dois painéis que utilizam módulos de 100 Wp/24 V, com células de silício monocristalino. Estes arranjos alimentam, de forma independente, três inversores senoidais monofásicos comutados pela própria rede e com potência máxima na saída de 1100 W cada um, caracterizando desta forma uma planta modular. O sistema de aquisição de dados monitora sistematicamente a instalação a uma varredura por minuto, a fim de se obter um acompanhamento ao longo do tempo e poder caracterizá-la. São monitoradas as tensões elétricas de cada painel de módulos e as suas correspondentes correntes, as tensões elétricas e as correntes alternadas, as potências elétricas contínuas e alternadas, a irradiância no plano do gerador, as temperaturas do ar ambiente, de um módulo do gerador e dos inversores. A metodologia de análise desta instalação consiste no monitoramento, na caracterização e na quantificação das medidas adquiridas, com a finalidade de determinar correlações que possam predizer a potência injetada na rede bem como a determinação da performance energética para dias típicos ensolarados, parcialmente nublados e encobertos. A divisão da instalação em três subsistemas permitiu caracterizá-los quanto aos seus comportamentos energéticos, além de possibilitar a análise de arranjos superdimensionados, os quais fornecem uma potência superior a máxima na entrada dos inversores, originando desperdício de energia nos momentos de elevada irradiância. O método desenvolvido para determinar a energia perdida na entrada dos inversores possibilitou avaliar o quanto se perde mensalmente nos subsistemas 1 e 2, uma vez que as perdas de captura e de sistema aumentam quando o arranjo está superdimensionado e isto significa uma redução na produtividade. Com as correlações encontradas para cada subsistema e com a equação geral foi possível predizer o quanto de energia pode ser injetada na rede.
Resumo:
Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.