123 resultados para Mapeamento de processos
Resumo:
Construção de software com qualidade tem motivado diversas pesquisas na área de Engenharia de Software. Problemas como a grande complexidade requerida pelas aplicações atuais e a necessidade de gerenciamento de um número cada vez maior de pessoas envolvidas em projetos são obstáculos para serem transpostos. Trabalhos relacionados a tecnologia de processos de software aparecem como uma proposta para se obter maior controle das atividades realizadas com o intuito de se obter maior qualidade. A simulação de processos de software, através da representação dos passos definidos em um modelo, tem sido utilizada no auxílio a gerentes de projetos de sistemas para fornecer-lhes informações preciosas sobre o desenvolvimento de um sistema especificado. A representação de conhecimento a respeito das características relacionadas a um ambiente de desenvolvimento ajuda na obtenção de simulações mais realísticas. A partir do modelo, o simulador obtém uma descrição do ambiente em que deve atuar, baseado no conhecimento que se tem a respeito do ambiente. Esse trabalho apresenta um modelo de simulação de processos de software baseado em conhecimento para ser inserido em um ambiente de engenharia de processos de software. A função do modelo é simular um processo de software instanciado, procurando detectar inconsistências no mesmo que possam gerar problemas durante a sua execução, como aumento de custos e comprometimento da qualidade do(s) produto(s) obtido(s). Após a simulação o projetista pode constatar a necessidade de se refazer o modelo, ajustar parâmetros ou executar o processo de software. O objetivo da simulação, nesse trabalho, é auxiliar as pessoas responsáveis por um ambiente de desenvolvimento a obter modelos de processos validados. O modelo de simulação foi definido para ser utilizado no ambiente PROSOFT, que é um ambiente de desenvolvimento que permite a integração de novas ferramentas para desenvolvimento de software. O ambiente PROSOFT vem recebendo propostas de extensão que tem contribuído para o seu aprimoramento, fornecendo para seus usuários uma quantidade cada vez maior de ferramentas de auxílio a construção de artefatos de software. As propostas mais recentes foram um modelo para construção de sistemas especialistas, a definição de um ambiente cooperativo e um gerenciador de processos de software. ATOs algébricos (construções do PROSOFT) são utilizados para especificar formalmente o modelo de simulação definido neste trabalho. A validação é realizada através de um modelo em UML (Unified Method Language) que foi utilizado como base para a construção de um programa implementado usando a linguagem Java. Isso ocorre porque a ferramenta do PROSOFT (implementada em Java) que seria utilizada para validar as especificações algébricas ainda não está finalizada.
Resumo:
Este trabalho realiza um estudo sobre a criação de sistemas tempo-real usando orientação a objetos, com enfoque no mapeamento de especificações para linguagens de programação. O paradigma de orientação a objetos tem sido usado nas diferentes fases relacionadas com o desenvolvimento de sistemas tempo-real, variando desde a modelagem até o ambiente de programação e execução, mas atualmente estas iniciativas ainda focam etapas isoladas do ciclo de desenvolvimento. O objetivo deste trabalho é o de preencher esta lacuna, propondo um mapeamento entre uma metodologia ou ferramenta de análise e projeto de sistemas tempo-real orientados a objetos e uma linguagem ou ambiente de desenvolvimento baseado no paradigma de orientação a objetos que possua suporte para atender às restrições temporais especificadas. O mapeamento proposto foi desenvolvido utilizando estudos de caso clássicos em aplicações tempo-real que foram baseados em dois recentes padrões. O primeiro é o emergente padrão Real-Time UML, que visa realizar a especificação de requisitos temporais utilizando diagramas UML com extensões que os representem. O outro padrão é o Real-Time Specification for Java, que consiste de uma interface de programação (API) para desenvolvimento de aplicações tempo-real com a linguagem Java. O relacionamento entre stereotypes e tags usados para representar restrições temporais em diagramas UML e o código Java correspondente é explicado e um sumário da estratégia de mapeamento é discutido.
Resumo:
Para competir em nível internacional, as empresas brasileiras precisam atingir padrões de excelência em qualidade. Uma forma de atingir esses padrões é utilizando ferramentas de controle de qualidade que asseguremprocessos estáveis e capazes. A presente dissertação tem como objetivo principal o desenvolvimento de uma metodologia de estabilização de processos voltada às empresas de manufatura utilizando ferramentas de controle de qualidade. Sua importância está em apresentar uma metodologia que auxilie as empresas na obtenção de melhorias significativas em qualidade e produtividade. O método de trabalho utilizado envolveu as etapas de revisão da literatura, acompanhamento e análise da implantação de uma metodologia de estabilização de processos em uma empresa siderúrgica e, finalmente, proposta e discussão de uma nova metodologia de estabilização de processos.
Resumo:
Neste trabalho analisamos processos estocásticos com decaimento polinomial (também chamado hiperbólico) da função de autocorrelação. Nosso estudo tem enfoque nas classes dos Processos ARFIMA e dos Processos obtidos à partir de iterações da transformação de Manneville-Pomeau. Os objetivos principais são comparar diversos métodos de estimação para o parâmetro fracionário do processo ARFIMA, nas situações de estacionariedade e não estacionariedade e, além disso, obter resultados similares para o parâmetro do processo de Manneville-Pomeau. Entre os diversos métodos de estimação para os parâmetros destes dois processos destacamos aquele baseado na teoria de wavelets por ser aquele que teve o melhor desempenho.
Resumo:
Esta dissertação versa sobre índices de avaliação de processo nas suas abordagens univariada e multivariada. Analisa-se a utilização da Análise de Componentes Principais (ACP) como ferramenta no desenvolvimento de índices capazes de avaliar processos multivariados. O trabalho apresenta uma revisão teórica sobre os índices univariados de aplicação mais comum na indústria (CP/PP , CPK/PPK , CPM/PPM e CPMK/PPMK), o índice multivariado MCpm e sobre os índices MCP , MCPK , MCPM e MCPMK , associados a ACP. Os índices de avaliação de processo são analisados quanto à sua adequação ao uso, através de um estudo de caso na indústria de componentes automotivos. Para tanto, examina-se o processo de fabricação de um componente do freio de veículos médios e pesados, denominado spider, em que doze variáveis de processo são controladas por meio de controle estatístico de processo. Através do estudo de caso, faz-se uma comparação entre os resultados dos índices univariados e multivariados; pressupõe-se que através da Análise de Componentes Principais poder-se-á concluir sobre a capacidade e o desempenho de processos multivariados. Por fim, a partir da análise univariada dos componentes principais, apresenta-se uma técnica complementar para quantificar a contribuição das variáveis controladas à variabilidade de processos multivariados.
Resumo:
Neste trabalho analisamos alguns processos com longa dependência sazonais, denotados por SARFIMA(0,D, 0)s, onde s é a sazonalidade. Os estudos de estimação e previsão estão baseados em simulações de Monte Carlo para diferentes tamanhos amostrais e diferentes sazonalidades. Para estimar o parâmetro D de diferenciação sazonal utilizamos os estimadores propostos por Geweke e Porter-Hudak (1983), Reisen (1994) e Fox e Taqqu (1986). Para os dois primeiros procedimentos de estimação consideramos seis diferentes maneiras de compor o número de regressores necessários na análise de regressão, com o intuito de melhor comparar seus desempenhos. Apresentamos um estudo sobre previsão h-passos à frente utilizando os processos SARFIMA(0,D, 0)s no qual analisamos o erro de previsão, as variâncias teórica e amostral, o vício, o pervício e o erro quadrático médio.
Resumo:
A produção de soja é uma das principais atividades econômicas na Região Noroeste do Estado do Rio Grande do Sul. As perdas de produto em condições de comercialização ocasionadas nas atividades de secagem e armazenamento são significativas, justificando a pesquisa e aprimoramento destes processos. Nesta tese foram pesquisados dois problemas: 1. Modelamento matemático dos processos de secagem, utilizando parâmetros conhecidos de soja e 2. Modelamento matemático do problema de aeração para o cálculo da distribuição da pressão e da velocidade do ar na massa de grãos em unidades de armazenamento de soja. No problema de secagem foi desenvolvido um sistema composto de quatro equações diferenciais parciais hiperbólicas acopladas não-lineares, que descreve o comportamento da temperatura e do teor de umidade do ar e dos grãos em função do tempo. Para resolver o sistema foram utilizados os métodos das diferenças finitas (p. ex., métodos de MacCormack e Crank- Nicolson.) e o método dos volumes finitos. A análise dos resultados permitiu recomendar o método mais adequado para cada tipo do problema. Para determinação da intensidade do fluxo de massa e de calor foram utilizados os dados experimentais de camada fina obtidos da literatura e complementados com dados experimentais desta tese. Foi desenvolvido um equipamento para obtenção das curvas de secagem de grãos em secador de leito fixo, a fim de identificar o modelo para secagem em camada espessa. A comparação entre os resultados experimentais e das simulações numéricas mostrou que o modelo descreve razoavelmente a dinâmica de secagem No problema de aeração foi desenvolvido um modelo matemático que descreve o escoamento do ar em sistemas de armazenamento de grãos, baseado em relações experimentais entre velocidade e gradiente de pressão. Para resolver o problema de aeração foi utilizado o método dos elementos finitos e desenvolvido um programa computacional. Um teste realizado com o programa mostrou que os resultados da solução numérica convergem para uma solução analítica conhecida. As simulações realizadas mostraram que o programa computacional pode ser usado como instrumento auxiliar para o projeto de silos, possibilitando o cálculo e a visualização gráfica da distribuição das pressões e das linhas de corrente em diferentes seções do armazém.
Resumo:
Este trabalho investiga os processos composicionais utilizados na composição das peças Polyakanthos, para flauta/flauta piccolo, clarinete/clarinete baixo, percussão, piano, violino e violoncelo; A grande ilusão do carnaval, para cinco vozes, fagote, dois teclados eletrônicos e contrabaixo elétrico; K'uei, peça eletroacústica; e Pampa Guarany, para fagote e orquestra de cordas. A estética das peças é baseada em dualismo complementar, fazendo com que posições contrárias coexistam numa associação interdependente, nas diversas etapas do processo composicional. Os processos composicionais enfocados são o ímpeto de criação, que no contexto deste trabalho é a primeira concretização da idéia composicional; a utilização de materiais preexistentes, definidos como configurações de sons e silêncios extraídos de obras de outros compositores; o projeto da estrutura formal, contendo as intenções expressivas em comparação com o resultado final de cada peça, verificando causas e conseqüências dos ajustes feitos durante o processo composicional; definição dos materiais de alturas e ritmos, derivados dos materiais preexistentes ou criados, nos quais foram aplicadas as técnicas de transformações de Arnold Schoenberg, León Biriotti e Charles Wuorinen; e o uso de peças-solo como cantus firmus para a criação de estruturas polifônicas nos movimentos de Polyakanthos.
Resumo:
Um dos problemas teóricos mais importantes da Física de Partículas de Altas Energias é a investigação de efeitos de alta densidade na Cromodinâmica Quântica (QCD), que é a teoria que descreve as interações fortes. Tais efeitos são importantes pois determinam os observáveis em colisõesde altas energias. Em processos hadrônicos de energia suficientemente alta, espera-se a formação de sistemas densos o suficiente para que efeitos não lineares de QCD passem a ser significativos na descrição e na unitarização da seção de choque. Na descrição de processos de espalhamento de altas energias, evidências experimentais indicam que os hádrons são constituídos por partículas puntuais, as quais chamamos de pártons. Os pártons carregam uma fração x do momentum total do hádron, e são de dois tipos, quarks e glúons. Na interação entre as partículas ocorre a troca de momentum, definida como Q2. A descrição perturbativa padrão para a evolução dinâmica das distribuições de quarks q(x, Q2) e glúons g(x, Q2), pode ser dada pelas equações de evolução DGLAP, e tem obtido sucesso na descrição dos resultados experimentais para as presentes energias. Na evolução DGLAP, são considerados apenas processos de emissão, como a emissão de um glúon por um quark, o decaimento de um glúon em um par de quarks ou em um par de glúons Estes processos de emissão tendem a aumentar a densidade de pártons na região de pequeno momentum, levando a um crescimento ilimitado das distribuições partônicas para x -+ O. Assim, é esperado que o crescimento da densidade de pártons leve a interação e recombinação destas partículas, dando origem a termos não lineares nas equações de evolução. O resultado seria um processo de saturação das distribuições de pártons na região de alta energia e pequena fração de momentum. Os efeitos que dão origem à redução do crescimento das distribuições de quarks e glúons em relação a evolução linear são chamados genericamente de efeitos de sombreamento. Um dos aspectos fenomenológicosinteressantes a ser investigado no regime cinemático abordado acima é o processo Drell-Yan de alta energia, o qual consiste em processos de espalhamento pp, pA e AA com a produção de pares de léptons. Com o advento dos novos aceleradores, novos resultados experimentais estarão disponíveis na literatura relacionados com este processo. Em nosso trabalho investigamos os efeitos das correções de unitariedade em processos pp, bem como os efeitos devido a presença do meio nuclear em colisõespA e AA, nas distribuições de quarks e glúons, para a descrição da seção de choque diferencial para o processo Drell-Yan em colisõespp, pA e AA, para energias existentes nos novos aceleradores RHIC (Relativistic Heavy Ion Collider) e LHC (Large Ion Collider). Os efeitos de alta densidade são baseados no formalismo de Glauber-Mueller. Os resultados aqui apresentados mostram que os efeitos de alta densidade nas distribuições partônicas são importantes para altas energias, pois a descrição da seção de choque para o processo Drell-Yan, quando os efeitos de alta densidade são considerados, apresenta significativas diferenças da descrição onde não considera-se tais efeitos.
Resumo:
A porção média da Planície Costeira do Rio Grande do Sul constitui-se numa região crítica em termos de planejamento de uso devido a uma estreita conjunção de fatores de ordem econômica, ambiental, social e histórico-cultural, estabelecida, em princípio, pela presença de um importante complexo estuarinolagunar. Nessa área, bem como no restante da zona costeira do Brasil, as diretrizes para o uso sustentável dos recursos naturais estão materializadas em leis e programas governamentais, dos quais o Plano Nacional de Gerenciamento Costeiro representa a linha mestra para as ações nos três níveis de governo. A exploração de recursos minerais nessa região é uma atividade antiga, relativamente de pouca expressão no contexto estadual, mas de grande significado social, econômico e cultural em nível regional, sustentando a demanda de vários municípios da região. Caracteriza-se principalmente pela exploração de areia e argila para uso na construção civil e para aterro, apresentando ainda potencialidade alta para exploração de turfa e minerais pesados. Com o objetivo de contribuir para a solução dos conflitos gerados por um modelo de exploração mineral ainda inconsistente com as demandas atuais de conservação e desenvolvimento, realizou-se uma análise ambiental integrada da área dos entornos do estuário da Laguna dos Patos, compreendendo os municípios de Pelotas, Rio Grande e São José do Norte. A análise considerou os marcos legais e institucionais, as características diferenciadas do meio físico-natural, os processos econômicos, sociais e culturais, as características da atividade de mineração na região e suas repercussões e interações no sistema ambiental como um todo. As informações disponíveis permitiram a geração de um banco de dados no Sistema de Informações Geográficas IDRISI 32®, na escala 1: 100.000, o qual forneceu a base para a análise interpretativa. Utilizando técnicas de geoprocessamento obteve-se uma síntese dos diagnósticos realizados através da definição, mapeamento e descrição de 19 unidades de planejamento, denominadas unidades geoambientais, posteriormente detalhadas em 108 unidades físico-naturais. A síntese de uma grande quantidade de dados, espacializada na forma de um mapa digital, auxiliou a definição dos critérios para elaboração de um mapa de vulnerabilidade ambiental relativa para a região. Este, aliado ao plano de informação que contém todas as áreas com restrição legal de uso, possibilitou o mapeamento das áreas mais críticas para gestão ambiental. Adicionalmente, considerando a potencialidade de recursos minerais para uso na construção civil e para aterro, os critérios que determinam a maior ou menor atratividade econômica para a sua exploração e as áreas mais críticas em termos de gestão ambiental, elaborou-se um mapa prescritivo que indica as áreas que devem ser consideradas prioritárias para um gerenciamento preventivo. Finalmente, a análise ambiental integrada permitiu a elaboração de um modelo de um plano de gestão para o setor, onde é apresentada uma estrutura seqüencial e ordenada do plano, exemplificada, em cada passo, com as informações disponíveis.
Resumo:
Esta dissertação aborda os processos de significação em estados ampliados de consciência desde de uma perspectiva transdisciplinar holística em um estudo de caso com crianças de uma escola pública de Porto Alegre, no Rio Grande do Sul. O trabalho tem como referência teórica principal a psicologia transpessoal e as experiências em estados ampliados de consciência que possibilitam a vivência transpessoal. Considera o ser humano como multidimensional cuja consciência se expressa através de quatro funções: pensamento, sentimento, sensação e intuição. Para a ampliação da consciência foram utilizados métodos reconhecidos pela psicologia transpessoal, no caso, a meditação, o relaxamento, a visualização dirigida e o desenho de mandalas. As mandalas foram a linguagem escolhida para a expressão das significações produzidas durante os estados ampliados de consciência. O método fenomenológico utilizado permitiu revelar que símbolos do inconsciente coletivo emergem para a consciência durante vivências em estados ampliados de consciência. A partir da interpretação reiteramos o entendimento de que existe dentro de cada ser humano uma fonte de sabedoria que está para além dos limites da personalidade, o que corresponde às pesquisas de outros exploradores da consciência humana (Wilber, Grof, Weil). Concluímos o trabalho apresentando o Projeto da Educação da Consciência, o qual se constitui numa proposta de educação da consciência humana em sua multidimensionalidade para a plena manifestação do ser.
Resumo:
O acesso integrado a informações provenientes de banco de dados autônomos e heterogêneos, localizadas em diferentes ambientes de hardware e software, vem sendo amplamente pesquisado pela comunidade de banco de dados, com diversas soluções propostas. A maioria delas baseia-se na comparação e na integração ou mapeamento dos esquemas conceituais dos bancos de dados participantes, implementados através de uma camada adicional de software, em um nível superior ao dos bancos de dados existentes. Inicialmente, as metodologias de acesso integrado eram limitadas às informações provenientes de banco de dados. Entretanto, com o crescimento das redes de computadores e, conseqüentemente, com a intensa utilização da Internet, novas fontes de informações passaram a ser utilizadas neste ambiente, tais como fontes de dados semi-estruturadas. Estender o acesso integrado também a esses tipos de informações tornou-se importante. Este trabalho tem como objetivo propor a utilização de um metamodelo XML como modelo de dados canônico, através do qual é possível obter a representação conceitual dos esquemas de exportação provenientes de bancos de dados relacionais, objeto-relacionais e documentos XML, permitindo, desta forma, o acesso integrado a fontes de dados estruturadas e semi-estruturadas, a partir de metodologias inicialmente voltadas à interoperabilidade de banco de dados heterogêneos. Além do metamodelo apresentado, este trabalho incluiu o desenvolvimento da ferramenta XML Integrator, cujo objetivo é fornecer ao usuário mecanismos de apoio ao processo conversão dos esquemas conceituais locais de fontes de dados heterogêneas para o Metamodelo XML, bem como de extração de um esquema conceitual correspondente a um documento XML ou a uma classe de documentos XML. Para isso, a ferramenta utiliza interfaces gráficas, que guiam o usuário através dos diversos passos, desde a seleção da fonte de dados a ser convertida, até a geração do esquema de exportação propriamente dito.
Resumo:
O objetivo deste trabalho é propor um modelo de gestão que integre Planejamento Estratégico, Gerenciamento de Processos e Avaliação de Desempenho, visando preencher uma lacuna identificada na gestão empresarial – a falta de integração entre as diretrizes estratégicas e a operação das empresas. Estes módulos são apresentados contemplando uma perspectiva histórica para a contextualização do problema, e suas inter-relações são discutidas. Considerando os indicadores de desempenho como elemento integrador dos outros dois módulos, faz-se a discussão e comparação de diversos modelos que se propõem a atender a necessidade atual de medição do desempenho organizacional. Da interação entre a revisão bibliográfica e aplicações práticas, chega-se ao modelo proposto, apresentando sua estrutura geral e seu procedimento para implantação, denominando-o “MEIO” – Modelo de Estratégia, Indicadores e Operações, com o qual se almeja estar contribuindo para a melhoria potencial da gestão das empresas. Este modelo se caracteriza por sua flexibilidade, permitindo que as empresas construam seu modelo de gestão por partes, começando por qualquer um dos módulos do MEIO, o que é importante dado que elas se encontram em estágios diferentes de desenvolvimento em termos de gestão. Além disso, como característica de sua proposta de integração, o próprio modelo induz a construção das outras partes que porventura não estejam devidamente implantadas ou em uso pela empresa. O modelo é aplicado em três empresas de diferentes segmentos, portes e estágios de maturidade em termos de gestão. Essas aplicações práticas do modelo MEIO, mesmo que parcialmente, mostram resultados quantitativos e qualitativos para as empresas, os quais são analisados e discutidos.
Resumo:
Este trabalho apresenta uma proposta para estruturação do Processo de Desenvolvimento de Produtos. O modelo proposto, baseado em teorias universais de gestão e organização dos processos de desenvolvimento de produtos, é estruturado dentro da realidade e das necessidades de uma empresa metalúrgica de produção de bens de capital sob encomenda. O modelo proposto abrange a gestão do PDP, a sua organização e as ferramentas aplicáveis. No modelo de gestão do PDP, propõe-se o mapeamento do mercado, o estabelecimento das estratégias de mercado e de tecnologia e o planejamento e gerenciamento do portfólio de produtos. Quanto à organização, o modelo prevê a reestruturação do setor de engenharia, de forma a racionalizar e melhorar o desenvolvimento das atividades, além da aplicação de procedimentos de projeto de produto que incorporam os elementos filosóficos de trabalho da engenharia concorrente, o uso de times multifuncionais e a divisão do trabalho em etapas de execução seguidas de etapas de avaliação. Para as diversas etapas previstas no modelo prevê-se o uso de técnicas e ferramentas que irão possibilitar a sistematização e formalização necessárias. É apresentado também o plano de implantação deste modelo, onde os diversos aspectos que envolvem um processo de mudança são analisados.
Resumo:
Guias para exploração mineral são normalmente baseados em modelos conceituais de depósitos. Esses guias são, normalmente, baseados na experiência dos geólogos, em dados descritivos e em dados genéticos. Modelamentos numéricos, probabilísticos e não probabilísticos, para estimar a ocorrência de depósitos minerais é um novo procedimento que vem a cada dia aumentando sua utilização e aceitação pela comunidade geológica. Essa tese utiliza recentes metodologias para a geração de mapas de favorablidade mineral. A denominada Ilha Cristalina de Rivera, uma janela erosional da Bacia do Paraná, situada na porção norte do Uruguai, foi escolhida como estudo de caso para a aplicação das metodologias. A construção dos mapas de favorabilidade mineral foi feita com base nos seguintes tipos de dados, informações e resultados de prospecção: 1) imagens orbitais; 2) prospecção geoquimica; 3) prospecção aerogeofísica; 4) mapeamento geo-estrutural e 5) altimetria. Essas informacões foram selecionadas e processadas com base em um modelo de depósito mineral (modelo conceitual), desenvolvido com base na Mina de Ouro San Gregorio. O modelo conceitual (modelo San Gregorio), incluiu características descritivas e genéticas da Mina San Gregorio, a qual abrange os elementos característicos significativos das demais ocorrências minerais conhecidas na Ilha Cristalina de Rivera. A geração dos mapas de favorabilidade mineral envolveu a construção de um banco de dados, o processamento dos dados, e a integração dos dados. As etapas de construção e processamento dos dados, compreenderam a coleta, a seleção e o tratamento dos dados de maneira a constituírem os denominados Planos de Informação. Esses Planos de Informação foram gerados e processados organizadamente em agrupamentos, de modo a constituírem os Fatores de Integração para o mapeamento de favorabilidade mineral na Ilha Cristalina de Rivera. Os dados foram integrados por meio da utilização de duas diferentes metodologias: 1) Pesos de Evidência (dirigida pelos dados) e 2) Lógica Difusa (dirigida pelo conhecimento). Os mapas de favorabilidade mineral resultantes da implementação das duas metodologias de integração foram primeiramente analisados e interpretados de maneira individual. Após foi feita uma análise comparativa entre os resultados. As duas metodologias xxiv obtiveram sucesso em identificar, como áreas de alta favorabilidade, as áreas mineralizadas conhecidas, além de outras áreas ainda não trabalhadas. Os mapas de favorabilidade mineral resultantes das duas metodologias mostraram-se coincidentes em relação as áreas de mais alta favorabilidade. A metodologia Pesos de Evidência apresentou o mapa de favorabilidade mineral mais conservador em termos de extensão areal, porém mais otimista em termos de valores de favorabilidade em comparação aos mapas de favorabilidade mineral resultantes da implementação da metodologia Lógica Difusa. Novos alvos para exploração mineral foram identificados e deverão ser objeto de investigação em detalhe.