731 resultados para Mineração de Repositórios
Resumo:
As construções de concreto no estado do Pará têm se deteriorado de maneira prematura, sendo a corrosão das armaduras o problema de maior incidência, apesar da região não se constituir em um ambiente de extrema agressividade, mesmo nas principais cidades. Uma das principais causas é a utilização de concretos com alta permeabilidade. Em Belém, capital do estado, os agregados empregados nas construções são areias extremamente finas e seixos friáveis, materiais que dificultam a produção de misturas de concreto com relações água/cimento reduzidas, em razão da elevada demanda de água que requerem. Apesar da escassez de agregados de boa qualidade, há grande disponibilidade no estado de materiais pozolânicos altamente reativos como a sílica ativa e o metacaulim, que podem viabilizar técnica e economicamente a produção de concretos de alto desempenho. Nessa pesquisa investiga-se a possibilidade do uso de concretos de alto desempenho com os materiais disponíveis no estado (cimentos e agregados), empregando adições de sílica ativa e metacaulim. A sílica ativa utilizada no trabalho é subproduto de uma indústria de produção de silício metálico e o metacaulim proveniente da calcinação do rejeito do processo de beneficiamento de uma industria de mineração de caulim. Os desempenhos das misturas com e sem pozolanas foram avaliados pela resistência à compressão, pela taxa de absorção de água por sucção capilar e pela penetração acelerada de íons cloretos (ASTM C 1202). O teores de adição estudados foram 5%, 10%, 15% e 20% de sílica ativa e 10% de metacaulim Os concretos com adições minerais apresentaram resultados de resistência à compressão significativamente superiores aos dos concretos sem adição para as misturas com baixo a moderado consumo de cimento (relações água/aglomerante elevadas). Com relação a taxa de absorção capilar e a carga elétrica passante, a incorporação das pozolanas reduziu significativamente a permeabilidade das misturas para todas as relações água/aglomerante estudadas. A resistência à compressão dos concretos com 10% de metacaulim foram similares a dos concreto com sílica ativa e as taxas de absorção capilar foram ligeiramente superiores, dando indícios da potencialidade do rejeito do beneficiamento do caulim como adição mineral altamente reativa A máxima resistência obtida foi de apenas 42MPa, apesar disso, os resultados desse estudo demonstraram que mesmo com resistências convencionais (fck entre 15 MPa e 20 MPa), é possível produzir misturas de concreto no Pará com durabilidade bastante superior às empregadas atualmente, através do uso de pozolanas altamente reativas como a sílica ativa e o metacaulim.
Resumo:
Este trabalho apresenta um estudo de caso de mineração de dados no varejo. O negócio em questão é a comercialização de móveis e materiais de construção. A mineração foi realizada sobre informações geradas das transações de vendas por um período de 8 meses. Informações cadastrais de clientes também foram usadas e cruzadas com informações de venda, visando obter resultados que possam ser convertidos em ações que, por conseqüência, gerem lucro para a empresa. Toda a modelagem, preparação e transformação dos dados, foi feita visando facilitar a aplicação das técnicas de mineração que as ferramentas de mineração de dados proporcionam para a descoberta de conhecimento. O processo foi detalhado para uma melhor compreensão dos resultados obtidos. A metodologia CRISP usada no trabalho também é discutida, levando-se em conta as dificuldades e facilidades que se apresentaram durante as fases do processo de obtenção dos resultados. Também são analisados os pontos positivos e negativos das ferramentas de mineração utilizadas, o IBM Intelligent Miner e o WEKA - Waikato Environment for Knowledge Analysis, bem como de todos os outros softwares necessários para a realização do trabalho. Ao final, os resultados obtidos são apresentados e discutidos, sendo também apresentada a opinião dos proprietários da empresa sobre tais resultados e qual valor cada um deles poderá agregar ao negócio.
Resumo:
o objetivo do presente trabalho foi desenvolver um material adsorvente alternativo de íons sulfato a partir de um resíduo industrial abundante e renovável. Apesar da baixa toxicidade, concentrações elevadas destes íons inviabilizam o reciclo, o reuso e o descarte de efluentes. Para tanto, foi utilizado o resíduo do processamento de camarão que, após etapas de desmineralização, desproteinização e desacetilação, forneceu materiais quitinosos em forma de flakes com diferentes graus de desacetilação (GD), tendo sido selecionada a quitina com GD da ordem de 25% como sólido adsorvente. Os estudos de adsorção de íons sulfàto, realizados em frascos agitados com soluções sintéticas, mostraram valores de remoção da ordem de 92%, correspondente a uma capacidade de adsorção de 3,2 mEq.g-l. Estes resultados foram obtidos com o emprego de uma razão sólido/SO/- de 8,5 mg.mg-I, tempo de contato de 15 minutos e um pH de equilíbrio de 4,3 :t 0,3. Além da adsorção de íons sulfato, os resultados revelaram que quiti.na adsorve também íons molibdato (82% em 15 minutos e 92% em 60 minutos) sem qualquer interferência na adsorção de íons sulfato, fato considerado relevante no tratamento de efluentes de mineração de cobre e molibdênio. A adsorção dos íons sulfàto por quiti.na ocorre através do mecanismo de fisissorção por atração eletrostática, seguindo um modelo cinético de pseudo-segunda ordem, onde as etapas de transferência de massa dos íons não foram limitantes. A reversibilidade da adsorção, uma das características de processos que envolvem interações eletrostáticas, foi confirmada através de estudos de dessorção utilizando soluções de NaOH e permitiram verificar a possibilidade de regeneração do adsorvente. A cinética de adsorção em coluna de percolação, para uma granulometria de sólido e pH inicial do meio inferiores, foi maior do que a obtida no sistema de frascos agitados. Por outro lado, a capacidade de adsorção obtida a partir da curva de saturação em coluna de percolação foi praticamente a mesma obtida no sistema de :fIascosagitados. Nos estudos com efluentes industriais, o desempenho da quitina foi praticamente similar ao obtido com efluentes sintéticos, tendo sido atingidos elevados percentuais de adsorção. Estes resultados confirmam o potencial deste bioadsorvente para o tratamento de efluentes contendo altas concentrações de íons sulfato. Finalmente, são discutidas as considerações gerais do processo no contexto geral do tratamento de efluentes líquidos contendo compostos inorgânicos.
Resumo:
Tendo como motivação o desenvolvimento de uma representação gráfica de redes com grande número de vértices, útil para aplicações de filtro colaborativo, este trabalho propõe a utilização de superfícies de coesão sobre uma base temática multidimensionalmente escalonada. Para isso, utiliza uma combinação de escalonamento multidimensional clássico e análise de procrustes, em algoritmo iterativo que encaminha soluções parciais, depois combinadas numa solução global. Aplicado a um exemplo de transações de empréstimo de livros pela Biblioteca Karl A. Boedecker, o algoritmo proposto produz saídas interpretáveis e coerentes tematicamente, e apresenta um stress menor que a solução por escalonamento clássico.
Resumo:
Este trabalho objetivou verificar até que ponto os programas de preparo e acompanhamento da aposentadoria tem sido privilegiados na Administração Pública Indireta no Brasil; até que ponto a administração desses programas vem influindo positivamente na produtividade da força de trabalho ativa, bem como, se a administração desses programas está garantindo maior longevidade e satisfação para os aposentados. o estudo abrange quatro órgãos representativos dos ramos de mineração, crédito, telecomunicações e petróleo, com limitação espacial restrita ao Rio de Janeiro, sede dos mesmos, enfocando a ação do programa a partir de sua implantação, até o advento da Lei 8842 de 4 de janeiro de 1994.
Resumo:
As árvores de decisão são um meio eficiente para produzir classificadores a partir de bases de dados, sendo largamente utilizadas devido à sua eficiência em relação ao tempo de processamento e por fornecer um meio intuitivo de analisar os resultados obtidos, apresentando uma forma de representação simbólica simples e normalmente compreensível, o que facilita a análise do problema em questão. Este trabalho tem, por finalidade, apresentar um estudo sobre o processo de descoberta de conhecimento em um banco de dados relacionado à área da saúde, contemplando todas as etapas do processo, com destaque à de mineração de dados, dentro da qual são aplicados classificadores baseados em árvores de decisão. Neste estudo, o conhecimento é obtido mediante a construção de árvores de decisão a partir de dados relacionados a um problema real: o controle e a análise das Autorizações de Internações Hospitalares (AIHs) emitidas pelos hospitais da cidade de Pelotas, conveniados ao Sistema Único de Saúde (SUS). Buscou-se encontrar conhecimentos que auxiliassem a Secretaria Municipal da Saúde de Pelotas (SMSP) na análise das AIHs, realizada manualmente, detectando situações que fogem aos padrões permitidos pelo SUS. Finalmente, os conhecimentos obtidos são avaliados e validados, possibilitando verificar a aplicabilidade das árvores no domínio em questão.
Resumo:
Esta pesqUisa objetiva desenvolver, testar e demonstrar a aplicabilidade de um modelo infonnacional que possibilite a gestão integrada das operações da cadeia de suprimentos para indústrias geograficamente dispersas, também denominadas indústrias multi planta. Para tanto, serão aplicadas metodologias de estudo de caso e pesquisa-ação, em uma empresa representativa dos setores mineral e metalúrgico, o Departamento de Manganês e Ferro-Ligas da CVRD - Cia. Vale do Rio Doce. A pesquisa pretende demonstrar que o modelo de sistema infonnacional proposto, por meio da automatização dos processos transacionais e gerenciais, é capaz de prover recursos de planejamento e controle nos níveis operacional, tático e estratégico, devido a sua capacidade de incrementar a velocidade e a qualidade dos processos de análise e decisão. A pesquisa pretende conduzir, após análise dos resultados e avaliação das contribuições à empresa estudada, a um modelo informacional adequado para gerir as operações de outras empresas de mineração e metalurgia com características semelhantes.
Resumo:
O dimensionamento de pilares em minas de carvão é fortemente influenciado pelas condições geomecânicas do depósito mineral e pelo método de lavra utilizado. No desmonte de rochas com utilização de explosivos, os danos provocados podem ser significativos e influenciar diretamente no dimensionamento e segurança dos pilares. Essa dissertação tem como meta estudar os danos nos pilares provocados pelo desmonte com explosivos em camadas de carvão tendo como hipótese de estudo que os danos no pilares diminuem em profundidade no interior do pilar, devendo ocorrer aumento na integridade da rocha desde as bordas até o núcleo do pilar. A validade da hipótese de estudo foi vericada em testemunhos de rocha obtidos por sondagem horizontal, nos quais foram feitos ensaios de resistência (carga pontual, tração (brasileiro), compressão uniaxial), ensaios de medição de velocidade ultrasônica e de velocidade de partícula (medição de vibração), além da descrição detalhada dos pedaços de testemunhos com a técnica de avaliação da integridade do maciço denominada . RQD Com a única excessão do ensaio de carga pontual, as outras técnicas utilizadas forneceram resultados úteis e indispensáveis aos cálculos que se fizeram a partir dos parâmetros obtidos com o RQD e vibração (as duas técnicas consideradas fundamentais na dissertação). Nessa dissertação, ficou comprovada a hipótese de estudo e o dano no pilar foi dividido em zonas de rocha com índices de fraturamento decrescente no sentido do núcleo do pilar: uma primeira zona com fragmentação intensa por compressão e duas outras, seguintes, fraturadas por cisalhamento, efeito das ondas sísmicas da detonação do explosivo. Os resultados obtidos nessa dissertação mostraram que os danos no pilar podem ser bem avaliados, que existem zonas distintas de fragmentação, as quais podem ser incorporadas no dimensionamento de pilares. As técnicas utilizadas ( RQD e vibração) foram eficientes na determinação dos danos provocados pelo explosivo, sendo, no entanto, necessário a introdução de modificações na padronização dos ensaios para melhor adaptá-los às condições de amostragem de campo.
Resumo:
O fornecimento de facilidades de QoS em redes de computadores tem por objetivo introduzir níveis das garantias que são ausentes, por exemplo, no paradigma de melhor-esforço das redes IP. Diferentes arquiteturas de QoS possuem padrões diferentes para os serviços fornecidos, que conduzem a um cenário em que a QoS prevista não possa ser sempre fornecida corretamente pela arquitetura utilizada. Neste contexto, uma monitoração da QoS é necessária para verificar a QoS observada e para compará-la com a QoS esperada/ contratada. Em uma rede que utilize gerenciamento baseado em políticas, a QoS esperada é definido pelas políticas que regem o comportamento da rede. O Internet Engineering Task Force (IETF) tem padronizado vários elementos para um sistema de gerenciamento de redes baseado em políticas (PBNM), no qual políticas são definidas utilizando-se linguagem de alto nível, armazenadas em repositórios para políticas, aplicadas com o auxilio de Policy Decision Points (PDPs) e mantidas por Enforcement Points (PEPs). Pela definição do IETF, uma vez que uma política é aplicada com sucesso, o sistema de PBNM não mais checará o comportamento desta, e a QoS definida é assumida com a fornecida pela rede. De fato, isso nem sempre é verdade. A arquitetura da qual provém a QoS pode apresentar-se instável ou mediante problemas, logo a QoS esperada não seria atingida. Para verificar a degradação na QoS em ambientes de gerenciamento reais, atualmente, o administrador da rede monitora a rede e determina a QoS fornecida. Tal QoS é, por sua vez, manualmente comparada com a QoS definida pelas políticas de rede. Finalmente, se diferenças são encontradas, o administrador procede com medidas que levem a arquitetura a um estado consistente Nos dias de hoje, as definições e aplicações de políticas e monitoração de QoS são tarefas executadas separadamente pelas soluções disponíveis. Além disso, como demonstrado anteriormente, a verificação da QoS fornecida contra a QoS definida pelas políticas da rede é deixada a cargo do administrador da rede. Nesse contexto, a automação da monitoração das políticas de QoS e a integração entre as tarefas citadas são necessárias do ponto de vista do administrador da rede. Nesta dissertação, é proposta uma definição (e um sistema) para a monitoração de QoS em que as definições de políticas são dados de entrada utilizados para checar a QoS observada. No momento em que uma degradação na QoS é detectada, o sistema de monitoração notifica um gerente com suporte a SNMP utilizando mensagens do tipo InformRequest. A arquitetura do sistema é dividida internamente em monitores de QoS e controladores de monitores de QoS. Cada controlador de monitor de QoS controla vários monitores de QoS, os quais coletam dados da rede. Tais dados são comparados com as políticas traduzidas pelo controlador, e, caso sejam detectadas degradações, o controlador de monitor de QoS notifica o gerente. A comunicação entre controlador de monitores de QoS e monitores de QoS também é baseada em SNMP. O principal objetivo do trabalho é fornecer uma solução que integre monitoração de QoS e PBNM em um único ambiente de gerenciamento.
Resumo:
Sob incerteza, possibilidades de gestão e flexibilidade do projeto, os métodos convencionais de desconto que ignoram estes intangíveis e tratam passivamente os investimentos, tem se mostrado limitados, subavaliando o valor do projeto. Nesta tese, aplicamos e exploramos as potencialidades da teoria das opções, na análise e gestão de projetos de exploração de recursos naturais não renováveis. Aplicando-se as técnicas da moderna teoria de finanças, teoria de recificação de opções, técnicas de arbitragem em tempo contínuo, teoria de controle ótimo e métodos numéricos, desenvolve-se uma abordagem para avaliação e política ótima de gestão, definindo-se os momentos ótimos para abrir, fechar ou abandonar o projeto. Os valores do projeto são definidos em função dos valores de uma carteira de títulos transacionados no mercado de capitais. Para tanto, forma-se uma carteira arbitrária autofinanciada cujos fluxos de caixa replicam os fluxos do projeto. Tratado, também, o problema do sequenciamento do investimento quando os desembolsos para implantação do projeto ocorrem num período longo de tempo. Determina-se o efeito do tempo na implantação do projeto, o valor da opção de espera pelo melhor momento para exercer a opção de investir e o custo de oportunidade implícito nessa espera. Finalmente, a abordagem desenvolvida é aplicada a um projeto real de mineração aurifera.
Resumo:
Este trabalho analisou 2770 empresas nos BRICs entre 1995 e 2008 para identificar quais os setores mais atrativos para investimento conforme a relação risco-retorno, geração de valor e a tradição da Organização Industrial (IO). Os resultados reforçam os de Fama e French (1992), Mohanram (2005) e Goldszmidt, Brito e Vasconcelos (2007), porém divergem de World Bank (2008) quanto à China. Constatou-se que os setores mais atrativos na perspectiva de risco-retorno sobre o patrimônio líquido seriam óleo & gás na Rússia e mineração no Brasil, Índia e China, enquanto aqueles com menor atratividade seriam os setores têxtil, motores, máquinas & ferramentas e telecomunicações no Brasil.
Resumo:
O trabalho busca analisar e entender se a aplicação de técnicas de Data mining em processos de aquisição de clientes de cartão de crédito, especificamente os que não possuem uma conta corrente em banco, podem trazer resultados positivos para as empresas que contam com processos ativos de conquista de clientes. Serão exploradas três técnicas de amplo reconhecimento na comunidade acadêmica : Regressão logística, Árvores de decisão, e Redes neurais. Será utilizado como objeto de estudo uma empresa do setor financeiro, especificamente nos seus processos de aquisição de clientes não correntistas para o produto cartão de crédito. Serão mostrados resultados da aplicação dos modelos para algumas campanhas passadas de venda de cartão de crédito não correntistas, para que seja possível verificar se o emprego de modelos estatísticos que discriminem os clientes potenciais mais propensos dos menos propensos à contratação podem se traduzir na obtenção de ganhos financeiros. Esses ganhos podem vir mediante redução dos custos de marketing abordando-se somente os clientes com maiores probabilidades de responderem positivamente à campanha. A fundamentação teórica se dará a partir da introdução dos conceitos do mercado de cartões de crédito, do canal telemarketing, de CRM, e das técnicas de data mining. O trabalho apresentará exemplos práticos de aplicação das técnicas mencionadas verificando os potenciais ganhos financeiros. Os resultados indicam que há grandes oportunidades para o emprego das técnicas de data mining nos processos de aquisição de clientes, possibilitando a racionalização da operação do ponto de vista de custos de aquisição.
Resumo:
Trata da aplicação de ferramentas de Data Mining e do conceito de Data Warehouse à coleta e análise de dados obtidos a partir das ações da Secretaria de Estado da Educação de São Paulo. A variável dependente considerada na análise é o resultado do rendimento das escolas estaduais obtido através das notas de avaliação do SARESP (prova realizada no estado de São Paulo). O data warehouse possui ainda dados operacionais e de ações já realizadas, possibilitando análise de influência nos resultados
Resumo:
A grande disponibilidade de informações oferece um amplo potencial comercial. Contudo, o enorme volume e diversidade de oportunidades gera um problema: limitações comerciais criadas pela seleção e a manipulação manual dessa informação. O tratamento das grandes bases de dados não estruturadas e/ou semi-estruturadas (BDNE/SE), como as trazidas pela Internet, é uma fonte de conhecimento rica e confiável, permitindo a análise de mercados. O tratamento e a estruturação dessa informação permitirá seu melhor gerenciamento, a realização de consultas e a tomada de decisões, criando diferenciais competitivos de mercado. Pesquisas em Recuperação de Informação (RI), as quais culminaram nesta tese, investem na melhoria da posição competitiva de pequenas e médias empresas, hoje inseridas, pelo comércio eletrônico, em um mercado globalizado, dinâmico e competitivo. O objetivo deste trabalho é o desenvolvimento de uma Metodologia de Extração de Informações para o Tratamento e Manipulação de Informações de Comércio Eletrônico. Chamaremos essa metodologia de EI-MNBC, ou seja, Extração de Informações em Múltiplos Níveis Baseada em Conhecimento. Os usuários da EIMNBC podem rapidamente obter as informações desejadas, frente ao tempo de pesquisa e leitura manual dos dados, ou ao uso de ferramentas automáticas inadequadas. Os problemas de volume, diversidade de formatos de armazenamento, diferentes necessidades de pesquisa das informações, entre outros, serão solucionados. A metodologia EI-MNBC utiliza conhecimentos de RI, combinando tecnologias de Recuperação de Documentos, Extração de Informações e Mineração de Dados em uma abordagem híbrida para o tratamento de BDNE/SE. Propõe-se uma nova forma de integração (múltiplos níveis) e configuração (sistema baseado em conhecimento - SBC) de processos de extração de informações, tratando de forma mais eficaz e eficiente as BDNE/SE usadas em comércio eletrônico. Esse tratamento viabilizará o uso de ferramentas de manipulação de dados estruturados, como Sistemas Gerenciadores de Bancos de Dados, sobre as informações anteriormente desestruturadas. A busca do conhecimento existente em bases de dados textuais não estruturadas demanda a compreensão desses dados. O objetivo é enfatizar os aspectos cognitivos superficiais envolvidos na leitura de um texto, entendendo como as pessoas recuperam as informações e armazenando esse conhecimento em regras que guiarão o processo de extração. A estrutura da metodolo gia EI-MNBC é similar a de um SBC: os módulos de extração (máquinas de inferência) analisam os documentos (eventos) de acordo com o conteúdo das bases de conhecimento, interpretando as regras. O resultado é um arquivo estruturado com as informações extraíd as (conclusões). Usando a EI-MNBC, implementou-se o SE-MNBC (Sistema de Extração de Informações em Múltiplos Níveis Baseado em Conhecimento) que foi aplicado sobre o sistema ETO (Electronic Trading Opportunities). O sistema ETO permite que as empresas negociem através da troca de e-mails e o SE-MNBC extrai as informações relevantes nessas mensagens. A aplicação é estruturada em três fases: análise estrutural dos textos, identificação do assunto (domínio) de cada texto e extração, transformando a informação não estruturada em uma base de dados estruturada.
Resumo:
A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.