90 resultados para separação
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
No presente trabalho, é investigado um método alternativo para remover as impurezas coloridas contidas no caulim ultrafino do Rio Jari (AP), mediante a adsorção seletiva com polímeros aquosolúveis. Apesar desse método (floculação seletiva) ser considerado inovador no tratamento de minérios ultrafinos, problemas como a alta sensibilidade do meio e o baixo rendimento, freqüentemente comprometem a sua aplicação em sistemas naturais. Nesse contexto, o presente trabalho enfatiza questões envolvendo a seletividade do processo, bem como os mecanismos e os fenômenos envolvidos na adsorção seletiva de uma das fases minerais, A caracterização do minério define o tipo de contaminante (anatásio) e as suas relações de contato com a caulinita (ausência de adesão física). Tal informação é útil na avaliação do rendimento ativo do processo. A eficiência na remoção do anatásio, frente ao ambiente específico do meio e em combinação com a intensidade de carga aniônica do polímero floculante, define a condição mais favorável em termos de adsorção e seletividade. Tal condição prevê a utilização de poliacrilamidas fracamente aniônicas em meio alcalino (pH = 10). o aumento da concentração de hexametafosfato-Na (dispersante de atividade eletrostática) provoca uma redução nos níveis de adsorção da caulinita, pelo aumento da sua carga superficial. A seletividade do processo atinge o seu nível máximo com a adição de poliacrilato-Na (dispersante que combina a atividade eletrostática com o efeito estérico). Nessas condições, remoções consideráveis de anatásio são obtidas, fazendo com que o teor de Ti02 contido no caulim caia de 1,3% para 0,2% e com que a recuperação permaneça em níveis satisfatórios (57%). o nível de adição química do meio também condiciona o grau de consistência dos flocos gerados, aumentando a cinética de sedimentação. Nos ambientes considerados altamente seletivos, a sedimentação dos flocos chega a atingir uma velocidade de 18 mm/minuto em polpa com 30% de sólidos.
Resumo:
O presente trabalho estuda o reaproveitamento do efluente alcalino do branqueamento da polpa, da indústria de celulose, através de processos de separação com membranas. Para tanto, foram realizados testes com o efluente industrial para diferentes membranas e, simultaneamente, foi pesquisada a aplicação do processo de flotação como pré-tratamento para retirada de fibras do efluente. A avaliação dos resultados foi realizada por meio de determinações analíticas e monitoramento de alguns parâmetros. Os experimentos foram executados em equipamentos de bancada e piloto. A etapa de separação com membranas envolveu os processos de ultrafiltração, nanofiltração, osmose reversa e combinações destas operações. De forma a escolher um processo com retenção e fluxo permeado adequados variou-se durante os testes a pressão através das membranas e a temperatura. As análises realizadas para a caracterização do efluente foram: pH, condutividade elétrica, turbidez, sólidos totais (ST), demanda química de oxigênio (DQO), compostos organo-halogenados (AOX), ferro, magnésio, cálcio, sódio, potássio e manganês. A DQO foi o principal critério utilizado para avaliar a qualidade do permeado. Os ensaios de flotação foram realizados com e sem adição de compostos químicos auxiliares. A eficiência do processo foi avaliada através das análises de ST, condutividade elétrica, pH, recuperação de fibras, teor de alumínio, turbidez e visualmente Os resultados indicaram que todos os processos testados trouxeram uma melhoria nas características do efluente, incluindo reduções de até 90% no valor de DQO em alguns casos. O processo que apresentou a melhor performance foi a combinação UF5+ORP. A investigação preliminar sobre a flotação das fibras mostrou que, apesar de ter atingido uma remoção de fibras de 95% ainda havia a presença de partículas grosseiras, as quais poderiam causar danos aos processos com membranas. Mais estudos devem ser realizados no sentido de otimizar o processo de flotação.
Resumo:
A estimulação (manipulação) neonatal tem servido como modelo para observar os mecanismos pelos quais as variações no ambiente do recém-nascido podem afetar seu desenvolvimento quando adulto. Por outro lado, a separação maternal é um modelo que analisa a importância do cuidado parental para o desenvolvimento da prole. Quando adultos, ratos que foram manipulados periodicamente na infância apresentam menor reatividade ao estresse, enquanto aqueles que sofreram privação maternal periódica são mais medrosos e podem apresentar déficits de desenvolvimento e aprendizado. Este trabalho teve por objetivo investigar se a manipulação por 1 minuto ou a separação periódica por 180 minutos dos filhotes no período neonatal poderiam alterar o comportamento da mãe destes filhotes. Avaliou-se o tempo em que a mãe fica em contato com os filhotes, o tempo em que ela fica lambendo-os e a duração do comportamento de amamentação com o dorso arqueado. A duração destes comportamentos foi observada no primeiro, quinto e décimo dia após o nascimento, antes, logo após, 40 e 80 minutos após a manipulação e a separação, sendo que os filhotes foram submetidos a estes estresses durante os primeiros 10 dias pós-parto. Em conjunto, nossos resultados mostraram que tanto a manipulação por 1 minuto como a separação por 180 minutos aumentaram a duração do comportamento de lamber os filhotes nos primeiros dez dias após o parto. O aumento deste comportamento ocorreu imediatamente após o retorno dos filhotes à caixa, mas não se manteve alto e voltou ao nível do grupo controle após um período de tempo. No grupo manipulado houve uma redução do tempo em que a mãe fica junto aos filhotes logo após a manipulação, comparado aos outros grupos. Nossos resultados mostram que tanto a estimulação dos filhotes pela manipulação como a privação materna pelo afastamento prolongado provocam aumento do comportamento maternal, expressado pelo comportamento de lamber, logo após o retorno dos filhotes ao ninho. As alterações comportamentais ou de responsividade ao estresse no adulto, induzidas por eventos ambientais durante o período neonatal (manipulação ou privação materna) podem ser causadas pelo efeito da intervenção direta sobre os filhotes ou pela alteração do comportamento maternal.
Resumo:
A separação/remoção de óleos emulsificados em água foi estudada, utilizando um novo processo baseado nas técnicas de floculação pneumática em linha, seguida de separação por flotação (denominado de processo de Floculação-Flotação ou processo FF). A primeira etapa do estudo foi o projeto, construção e montagem de um sistema piloto de geração de emulsões, floculação pneumática em linha e de separação por flotação, instalado no Laboratório de Águas Oleosas, na Refinaria Alberto Pasqualini (REFAP S.A.), Canoas-RS. Após esta etapa, foram realizados estudos utilizando água oleosa sintética, visando caracterizar e otimizar os principais parâmetros da floculação pneumática, fase determinante no processo FF. Os resultados mostraram que a melhor eficiência, 93 %, foi obtida quando da utilização de um floculador tipo serpentina de 20 elementos de mistura (MS-20), uma concentração de 2 mg/L de floculante (PVA) e uma vazão de ar de 40 L/min. Esta eficiência correspondeu a uma concentração residual de óleo na água tratada de 10 mg/L. Foi demonstrado ainda que, independentemente do tipo de floculador e da vazão de água oleosa, a remoção de óleo é determinada pela perda de carga resultante da injeção de ar antes do floculador. No estudo do tratamento do efluente oleoso proveniente da saída do separador PPI (REFAP S.A.), os melhores resultados foram obtidos utilizando-se o Mafloc-489 (floculante catiônico de alto peso molecular), em uma concentração de 6 mg/L, proporcionando uma concentração residual de óleo no efluente tratado de 8 mg/L (91 % de remoção) O processo de Floculação-Flotação estudado, demonstrou ser também eficiente na remoção de outros poluentes do efluente, além do óleo. Nas melhores condições operacionais, foram removidos 87 % da turbidez, 90 % dos sólidos suspensos, 91 % do óleo e 56 % da demanda química de oxigênio (DQO), proporcionando, em apenas uma etapa de tratamento, um efluente tratado com níveis de poluentes analisados abaixo do padrão exigido pelo órgão ambiental Estadual (FEPAM). Os principais mecanismos envolvidos no processo FF estão relacionados com a irreversibilidade na adsorção do polímero sob turbulência e a conformação deste na interface óleo/água/ar. O alto grau de cisalhamento, resultado dos fluxos volumétricos de ar e água, e a maior “insolubilidade” (precipitação) do polímero na interface ar/água, facilitam a geração de grandes flocos aerados de estrutura fibrosa. Esses resultados e outros obtidos com diferentes efluentes reais e suspensões sólidas mostraram que o processo FF possui um elevado potencial como nova operação unitária de separação líquido1/líquido2, sólido/líquido ou sólido/líquido1/líquido2. As principais vantagens do FF são os baixos custos envolvidos (investimento e operacional), a simplicidade dos elementos construtivos (compactos), a confiabilidade nos resultados e sua elevada capacidade de tratamento (> 60 m3/m2/h).
Resumo:
A aplicação de uma diferença de potencial entre os extremos de um capilar de material dielétrico, preenchido com solução aquosa, provoca um fluxo eletroosmótico através deste. As moléculas, de um pequeno volume de uma amostra injetada neste fluxo, se separam umas das outras devido a diferença entre suas mobilidades eletroforéticas. Este método de separação é conhecido como Eletroforese Capilar. Ele tem se mostrado muito eficiente na separação de moléculas orgânicas complexas e é um método complementar à Cromatografia Líquida. Os sistemas de detecção mais comumente utilizados são do tipo eletroquímico ou ópticos, estes últimos podem ser de absorção ou fluorimétricos. Alta sensibilidade tem sido obtida com sistemas de detecção com fluorescência induzida a lazer, como o de Argônio, Hélio-Cádmio e de semicondutor. Neste trabalho testamos o desempenho de um laser ultravioleta pulsado, usando o mini-laser de N2 (337 nm), para induzir a fluorescência em moléculas marcadas com marcadores moleculares fluorogênicos apropriados. Para aminoácidos obtivemos limites de detecção da ordem de alguns attomóis(10-18 mol).Em condições otimizadas a quantidade mínima detectável de melatonina e serotonina, usando o marcador molecular fluorogênico isotiocianato de fluoresceÍna, foi de 150 attomóis, que corresponde a um limite de detecção em concentração de 50 nM. Os peptídeos bradicinina, lisil-bradicinina e metionil-lisil-bradicinina foram separados entre si e detectados no limite de detecção em concentração de 1,2 fmóis quando marcados com fluorescamina e a 90 attomóis quando com orto"ftaldialdeído. Do nosso conhecimento, esta é a primeira vez que um laser pulsado (N2) é usado num sistema de detecção de eletroforese capilar.
Resumo:
O presente trabalho estuda a viabilidade da utilização do processo de flotação a ar dissolvido (FAD) no tratamento de efluentes contendo cromo. Tal processo é analisado comparativamente à sedimentação. Urna revisão dos diferentes tipos de processos de separação ou de recuperação do cromo é, também, aqui apresentada. Soluções contendo 200 mg.l" de cromo tri ou hexavalente foram estudadas quanto às condições ideais de precipitação, às características de sedimentação e de flotação a ar dissalvido em regime descontínuo e contlnuo. Agentes poliméricos foram testados no intuito de melhorar as condições de clarificação. O processo de FAD foi o que apresentou melhores resultados no que se refere a cinética de separação sólido/líquido, e em termos de clarificação das soluções. Estudos de separação sólido/líquido de soluções contendo cromo VI foram feitos por estes dois processos empregando sulfato ferroso e sulfito de sódio como agentes redutores. A FAD mostrou ser eficiente para tratar as soluções quando reduzidas com sulfito de sódio. Porém, no caso da utilização do sulfato ferroso como redutor, o rendimento da FAD diminuiu no tratamento de soluções que continham sólidos suspensos acima de uma concentração crítica. Polímeros também foram empregados neste caso, e confirmaram sua atuação melhorando a cinética de separação sólido/líquido e como agentes que beneficiam a clarificação das soluções. Os resultados dos estudos de flotação por ar dissolvido em uma unidade contínua mostraram que é viavel a FAD sem agentes floculantes ou tensoativos. No entanto, estes aumentam os níveis de clarificação das soluções. Apenas os floculantes a base de amido mostraram-se ineficientes nesta aplicação. Conclui-se que o processo de FAD pode ser utilizado no tratamento de efluentes contendo cromo permitindo obter efluentes finais dentro dos padrões de emissão da legislação brasileira.
Resumo:
O modelo de objetos apresenta-se como um modelo promissor para o desenvolvimento de software tolerante a falhas em virtude de características inerentes ao próprio modelo de objetos, tais como abstração de dados, encapsulamento, herança e reutilização de objetos (componentes). O uso de técnicas orientadas a objetos facilita o controle da complexidade do sistema porque promove uma melhor estruturação de seus componentes e também permite que componentes já validados sejam reutilizados [LIS96]. Técnicas básicas para tolerância a falhas em software baseiam-se na diversidade de projeto e de implementação de componentes considerados críticos. Os componentes diversitários são gerenciados através de alguma técnica que tenha por objetivo assegurar o fornecimento do serviço solicitado, como, por exemplo, a conhecida técnica de blocos de recuperação. Reflexão Computacional é a capacidade que um sistema tem de fazer computações para se auto analisar. Ela é obtida quando o programa pára sua execução por um período de tempo para fazer computações sobre si próprio; analisa seu estado, se o processamento está correto, se pode prosseguir com a execução e atingir o objetivo satisfatoriamente; se não precisa mudar de estratégia ou algoritmo de execução, fazendo, ainda, processamentos necessários para o sucesso da execução. Um sistema de programação distribuída consiste basicamente em vários aplicativos executados em diferentes computadores, os quais realizam troca de mensagens para solucionar um problema comum. A comunicação entre os computadores é realizada através da rede que os interliga. As Redes que controlam sistemas críticos são normalmente de pequena escala pois redes de grandes dimensões podem apresentar atrasos e baixa confiabilidade. Portanto, a abordagem aqui proposta consiste em utilizar, em um ambiente distribuído, uma arquitetura reflexiva aliada a técnicas do domínio da tolerância a falhas para promover a separação entre as atividades de controle, salvamento, recuperação, distribuição e validação de componentes e as funcionalidades executadas pelo próprio componente, a fim de que falhas não venham a prejudicar a disponibilidade, confiabilidade e clareza de determinadas computações. A proposta apóia-se num estudo de caso, implementado na linguagem de programação Java, com seus protocolos de reflexão computacional e de comunicação.
Resumo:
Visa a presente dissertação de mestrado estabelecer um sistema de contabilidade de custos integrado e coordenado com a contabilidade financeira para a Industria de Oleos Vegetais e que, encarando este sistema sob um duplo enfoque, contabil e administrativo, permita a conciliação destes dois enfoques ate certo ponto contrastantes. A construção de um sistema de custo requer um completo entendimento: (1) dos processos de produção; (2) dos objetivos perseguidos pelo sistema de custos e (3) da estrutura organizacional da empresa. Quanto às caracteristicas especiais da industria de óleos de soja, no Rio Grande do Sul, no que se refere a seu processo de estas são, basicamente: (1) produção continua em massa; (2) obteção de co-produtos e de subprodutos e (3) industrialização subdividida em fases. Destarte, o custo de industrialização de sementes oleaginosas divide-se basicamente em duas fases importantes: (1) uma, de custos conjuntos, comuns a todos os produtos resultantes - o circuito do grão - que abrange a ensilagem, a preparação dos grãos e a extração. (2) outra, de custos isolados - que abrange os circuitos óleo (miscela) e do farelo (polpa), bem como o refino e a embalagem. Quanto aos objetivos perseguidos com a introdução de um sistema de custos na Industria de Óleos Vegetais, requerem-se dados de custos basicamente para três finalidades: (1) custos para estoques: avaliação de estoques para fins de inventário; (2) custos para controle: avaliação da eficiência para fins de controle; (3) custos para decisões: estabelecimento de parâmetros fins de tomada de decisões. Quanto à estrutura organizacional, deverá, na elaboração de um sistema de custeio, ser observada a constituição da empresa em termos de departamentos e/ou de centros de custos, caracterizando-os como sendo auxiliares, de produção, de vendas, distribuição, ou ainda de administração. Dadas as caracteristicas da industria, os objetivos perseguidos e a estrutura organizacional básica constatada, concebeu-se um sistema de custo, integrado e coordenado com o restante da escrituração, com as se guintes caracteristicas: (1) Quanto à concepção formal do sistema: Sistema Dualista com escrituração em Partidas dobradas mediante Registros Globais; (2) Quanto à concepção essencial do sistema: Custeio Parcial de Absorção, com emprego de custos gerais indiretos setorialmente diferenciados, absorvidos com base na capacidade normal; (3) Quanto ao metodo de alocação dos custos conjuntos aos coprodutos: Abordagem do Valor Relativo de Vendas (calculado) no Ponto de Separação, estabelecido com base em cálculo retroativo partindo dos valores relativos de vendas dos co-produtos no ponto de vendas e trabalhando de trás para frente em direção aos valores relativos de vendas aproximados (calculados) no ponto de separação e deste ainda subtraindo o credito total conjunto e o custo administrativo que foi atribuido aos co-produtos por rateio; (4) Quanto ao método de alocação das receitas com subprodutos: subtração da receita obtida com a venda dos subprodutos dos custos da fase em que os mesmos são obtidos. É sistema dualista, porque propõe a existência de "duas" contabilidades - a contabilidade externa ou financeira e a contabilidade interna ou de custos, sendo, todavia, complementares entre si. Sua escrituração se faz em partidas dobradas, mediante registros globais, porque é contabilidade de custos é conduzida atraves de fichas, mapas, planilhas e somente o resumo final do movimento de valores e contabilizado mensalmente mediante lançamentos globais. É um sistema de custeio parcial de absorção, porque: (1) atende ao que estabelece o Cecreto-Lei n9 1398, de 26/12/77, em seu art. 139 , a respeito da avaliaçâo dos estoques, para fins de inventários; (2) permite o uso de orçamentos flexiveis para fins de controle e com isso a adaptação do sistema de custeio ao nivel de produção (ou de atividade) esperado durante o periodo de produção; (3) permite tanto determinar o custo dos produtos (para fins de inventário), como tambem a contribuição que os mesmos trazem ao lucro empresarial e à receita total (para fins decisoriais) ; e ainda (4) permite, se separados os custos indiretos em fixos e variáveis, no Mapa de Localização de Custos, o cálculo do ponto de equilibrio de alternativas de resultado a diversos niveis de produção, bem como ainda de alternativas de limites inferiores de preço de venda a diversos niveis de produção, para fins decisoriais. Para fins contábeis e para a integração custo - contabilidade são usados valores histéricos, para fins de controle, valores orçados, estimados e para fins de decisão, valores de reposição ou estimados (projetados). o sistema de custos baseia-se, ainda, para sua elaboração, em duas peças-chave, que são: (1) - O Mapa de Lqcalização de Custos, no qual todos os custos indiretos são alocados por especies de custos e por centros de custos; (2) - O Boletim de Apropriação de Custos, no qual e realizado o cálculo do custo unitário dos co-produtos, para fins de inventário. Para que aconteça a total integração da contabilidade de custo com a contabilidade financeira, esta mantém contas de produção e de estoques, fase por fase, nas quais são lançados, por intermedio de registros globais, os resultados do cálculo de custos.
Resumo:
Esta dissertação analisa potencialidades de uso da ferramenta de simulação computacional em atividades de um Armazém Geral. Para tanto, foi realizado um estudo de caso em um Armazém Geral onde se aplicou a ferramenta segundo o método de desenvolvimento de projetos de simulação computacional proposto por Barrônio (2000). O desenvolvimento do projeto de simulação foi, então, focado na atividade de apanha separação, integrante do sub-processo de separação de pedidos. O substrato teórico utilizado envolve uma abordagem sobre a logística e caracterização de armazém geral, bem como uma revisão dos conceitos principais da ferramenta de simulação computacional. No desenvolvimento da pesquisa, identificaram-se diversas aplicações da simulação tanto no armazém geral e terminais de cargas da empresa, quanto na análise da malha de rotas da empresa. A partir da análise dos resultados da simulação, em diversos cenários desenvolvidos e do entendimento sistêmico da situação em estudo, identificou-se como oportunidade de melhoria a definição de horários fixos de parada para descanso ao longo da jornada de trabalho na atividade de apanha separação O desenvolvimento do projeto de simulação computacional contribuiu como instrumento de aprendizagem e tomada de decisões sobre a realidade organizacional. Através de experimentação no modelo computacional o grupo de trabalho pôde testar e mudar seus pressupostos e sua compreensão do mundo real, aprimorando a aprendizagem. Identificou-se ainda, que os armazéns gerais dotados de sistema de gerenciamento automatizado apresentam um grande potencial para desenvolvimento de projetos de simulação, principalmente, devido à disponibilidade de dados característicos destas organizações.
Resumo:
Ao propor uma nova metodologia analítico-descritiva para o enfoque da definição terminológica científica, este trabalho pretende contribuir para o reconhecimento dos perfis desse tipo de definição no escopo do desenvolvimento das teorias terminológicas de perspectiva lingüística. À luz de algumas idéias da semântica enunciativa, especialmente as cunhadas por Émile Benveniste, o estudo demonstra a viabilidade e produtividade de um reconhecimento de relações mantidas quer entre o enunciado-texto da definição e seu ambiente de significação, quer entre o enunciado definitório e seus sujeitos enunciadores. Para tanto, são examinadas as diferentes formulações de definições dicionarizadas para termos de Química, contrastadas com uma pequena amostra de definições de termos de Ciência Política, também coletadas em dicionários especializados. O trabalho conclui que é importante o reconhecimento do enunciado definitório em relação a todo um entorno de significação das linguagens científicas envolvidas, evidenciando que a definição é um objeto textual multidimensional, dotado de características que o fazem exceder aqueles limites mais usuais ou tradicionais de um objeto lógico-categorial. Além disso, o trabalho demonstra que não é funcional, no seu enfoque, uma separação a priori e estrita entre conceitos e significados.
Resumo:
Sabe-se que a fala é a principal maneira de comunicação entre as pessoas. A Síntese de fala (geração automática da fala pelo computador) tem recebido atenção da comunidade acadêmica e profissional por várias décadas. Ela envolve a conversão de um texto de entrada em fala, usando algoritmos e algumas formas de fala codificada. O texto pode ser digitado pelo teclado ou obtido por reconhecimento de caracteres ou, ainda, obtido de um banco de dados. A síntese de fala pode ser usada em vários domínios de aplicação, tais como: auxílio para deficientes visuais, telecomunicações, multimídia, etc. Este trabalho apresenta um estudo sobre a produção da fala e da área de síntese de fala visando servir de subsídio para dissertações e pesquisas futuras, bem como para o Projeto Spoltech, um projeto de cooperação entre os Estados Unidos e o Brasil para o avanço da tecnologia da língua falada no Brasil (Português Brasileiro). Dentro deste estudo serão apresentadas as principais técnicas de síntese de fala, entre as quais destaca-se: Texto para Fala (TPF). Problemas de separação de sílabas, determinação da sílaba tônica, pronunciação das vogais “e” e “o” como um fonema aberto ou fechado, etc, são enfrentados dentro do contexto da área de síntese de fala para o português falado no Brasil. Tendo conhecimento destes problemas, o principal objetivo deste trabalho será criar regras para resolver o problema de pronunciação das vogais “e” e “o” de forma automática, visando obter produção sonora mais inteligível, por intermédio da implementação de um analisador estatístico, o qual verificará a letra anterior e posterior ao “e” ou “o” de uma palavra e, com isso, determinar a pronúncia dos mesmos para aquela seqüência de letras. As mesmas poderão tornar-se regras válidas para a solução do problema se atingirem 80% dos casos de ocorrência no dicionário com fonema “e” ou “o” aberto (limiar), sendo que elas serão lidas por um interpretador Scheme utilizado pelo programa Festival - ferramenta para a construção de sistemas de síntese de fala desenvolvida pelo Centre for Speech Technology Research (University of Edinburgh, Reino Unido), a qual utiliza TPF como método de síntese. Sabendo-se que o Festival gera os fonemas “e” e “o” como fechados se não há uma regra para inferir o contrário, serão consideradas apenas as regras encontradas para os fonemas abertos. Para possibilitar esta análise será utilizado um dicionário eletrônico de pronunciação (com 19.156 palavras), o qual possui a palavra e a sua respectiva pronúncia, conforme pode-se verificar no exemplo do Anexo 1.
Resumo:
A aplicação de técnicas de estudo de sistemas em ambientes industriais com grande concorrência, é cada vez mais significativa devido às modificações e flexibilidade de produção exigidas. A aplicação de técnicas de análise e ajustes de layouts são algumas destas técnicas que podem trazer resultados competitivos positivos. O presente trabalho descreve os tipos de layouts existentes, com suas aplicações, vantagens e desvantagens com a finalidade de analisar e propor melhorias em layouts de processo na indústria coureira. O trabalho enfoca ainda os principais pontos a serem considerados quando da criação de um novo layout ou do ajuste e/ou melhoria de um existente. Para tal, foi realizado um estudo de caso utilizando a técnica de Melhoria de Layout de Silveira (1998), com a aplicação do Planejamento Sistemático de Layout em um layout de processo do setor da Secagem, característico em uma indústria beneficiadora de couro. Os resultados obtidos traduzem o re-arranjo de seus postos de trabalho com redução do fluxo de material de acordo com a aproximação de postos com relações de afinidade. Essa alteração possibilitou uma melhor organização espacial dos postos de trabalho e um melhor controle da produção, através da separação natural dos lotes. A metodologia adotada pode ser utilizada como ferramenta de melhoria nos demais setores, tanto da própria empresa, como do mercado coureiro em geral.
Resumo:
Esta tese apresenta contribuições ao processo de Descoberta de Conhecimento em Bases de Dados (DCBD). DCBD pode ser entendido como um conjunto de técnicas automatizadas – ou semi-automatizadas – otimizadas para extrair conhecimento a partir de grandes bases de dados. Assim, o já, de longa data, praticado processo de descoberta de conhecimento passa a contar com aprimoramentos que o tornam mais fácil de ser realizado. A partir dessa visão, bem conhecidos algoritmos de Estatística e de Aprendizado de Máquina passam a funcionar com desempenho aceitável sobre bases de dados cada vez maiores. Da mesma forma, tarefas como coleta, limpeza e transformação de dados e seleção de atributos, parâmetros e modelos recebem um suporte que facilita cada vez mais a sua execução. A contribuição principal desta tese consiste na aplicação dessa visão para a otimização da descoberta de conhecimento a partir de dados não-classificados. Adicionalmente, são apresentadas algumas contribuições sobre o Modelo Neural Combinatório (MNC), um sistema híbrido neurossimbólico para classificação que elegemos como foco de trabalho. Quanto à principal contribuição, percebeu-se que a descoberta de conhecimento a partir de dados não-classificados, em geral, é dividida em dois subprocessos: identificação de agrupamentos (aprendizado não-supervisionado) seguida de classificação (aprendizado supervisionado). Esses subprocessos correspondem às tarefas de rotulagem dos itens de dados e obtenção das correlações entre os atributos da entrada e os rótulos. Não encontramos outra razão para que haja essa separação que as limitações inerentes aos algoritmos específicos. Uma dessas limitações, por exemplo, é a necessidade de iteração de muitos deles buscando a convergência para um determinado modelo. Isto obriga a que o algoritmo realize várias leituras da base de dados, o que, para Mineração de Dados, é proibitivo. A partir dos avanços em DCBD, particularmente com o desenvolvimento de algoritmos de aprendizado que realizam sua tarefa em apenas uma leitura dos dados, fica evidente a possibilidade de se reduzir o número de acessos na realização do processo completo. Nossa contribuição, nesse caso, se materializa na proposta de uma estrutura de trabalho para integração dos dois paradigmas e a implementação de um protótipo dessa estrutura utilizando-se os algoritmos de aprendizado ART1, para identificação de agrupamentos, e MNC, para a tarefa de classificação. É também apresentada uma aplicação no mapeamento de áreas homogêneas de plantio de trigo no Brasil, de 1975 a 1999. Com relação às contribuições sobre o MNC são apresentados: (a) uma variante do algoritmo de treinamento que permite uma redução significativa do tamanho do modelo após o aprendizado; (b) um estudo sobre a redução da complexidade do modelo com o uso de máquinas de comitê; (c) uma técnica, usando o método do envoltório, para poda controlada do modelo final e (d) uma abordagem para tratamento de inconsistências e perda de conhecimento que podem ocorrer na construção do modelo.