1000 resultados para Operações
Resumo:
A expectativa deste trabalho é discutir a questão da segurança em radiografia industrial, sob o contexto geral da atividade, procurando contribuir para a busca de melhores padrões de segurança para os profissionais que atuam em operações com fontes de radiação. Tomou-se como ponto de partida os dados divulgados pela Comissão Nacional de Energia Nuclear (CNEN), no encontro sobre Segurança Radiológica em Radiografia Industrial (Rio de Janeiro, 1998) e contrapôs-se a opinião dos profissionais de radiografia industrial na região metropolitana de Porto Alegre, sobre os aspectos que afetam os padrões de segurança na atividade. Estes dados foram coletados com base na técnica do Design Macroergonômico proposto por Fogliatto e Guimarães (1999). Além dos problemas diretamente relacionados à segurança radiológica, ficou evidente a importância das questões de natureza gerencial e organizacional, que não são consideradas nos atuais padrões de segurança das empresas brasileiras de radiografia industrial.
Resumo:
o ambiente econômico atual tem imposto desafios em atividades como atendimento de pedidos de produção, com lotes e prazos de entrega cada vez menores e garantia de inexistência de erros de qualidade e entrega. Portanto, se faz imperativo um tratamento diferenciado da manutenção dos equipamentos, exigindo o uso de tecnologias que permitam, através da minimização dos tempos envolvidos em reparos, avanços contínuos na direção de "zero-quebra" e "zero-defeito". Embora a busca sempre deva ser de eliminar paradas por quebra, atacando suas causas na raiz, através de ações de melhoramento contínuo das condições das máquinas e instalações, estas ainda persistem. Seja por falta de recursos para a implantação das ações técnicas necessárias ou pela inviabilidade econômica desta implantação, as intervenções corretivas, que em quase sua totalidade estão estruturadas com base na experiência individual dos profissionais da área, continuam sendo requeridas. A empresa fica então na dependência da correta avaliação de profissionais especialistas, os quais são também suscetíveis a erros de diagnóstico, o que coloca em risco a continuidade das operações fabris. Este trabalho revisa o conceito de TPM (Total Productive Management ou Gestão Produtiva Total) aplicado a organizações, processos produtivos e resultados potenciais tangíveis e intangíveis de sua aplicação. A manutenção planejada, um dos pilares do TPM onde são focalizadas as intervenções por quebra-máquina, descreve as divisões de atividades em uma intervenção de conserto. Neste ponto são localizadas as etapas onde o CBR (Case-Based Reasoning) ou Raciocínio Baseado em Casos, pode ser utilizado a fim de minimizar o tempo total da intervenção. Um protótipo de CBR é criado para auxiliar especialistas de manutenção durante o processo de diagnóstico de causas de quebras de máquinas. Este protótipo utiliza CBR como método para armazenamento de casos pregressos de quebras de máquina. A base de casos do CBR fornece ferramentas para recuperação e reutilização destas experiências quando da recorrência da quebra de máquina, auxiliando profissionais da manutenção a executar seu trabalho O pacote de ferramentas CBR Content Navigator, Versão 3.2 desenvolvido pela Inference CorporationTM foi utilizado como: (i) repositório para modelagem e armazenamento do banco de casos, (ii) mecanismo de recuperação (ou busca) de casos na base do sistema e, (iii) ferramentas para apresentar a solução dos problemas de quebra de máquina.
Resumo:
O presente trabalho estuda o reaproveitamento do efluente alcalino do branqueamento da polpa, da indústria de celulose, através de processos de separação com membranas. Para tanto, foram realizados testes com o efluente industrial para diferentes membranas e, simultaneamente, foi pesquisada a aplicação do processo de flotação como pré-tratamento para retirada de fibras do efluente. A avaliação dos resultados foi realizada por meio de determinações analíticas e monitoramento de alguns parâmetros. Os experimentos foram executados em equipamentos de bancada e piloto. A etapa de separação com membranas envolveu os processos de ultrafiltração, nanofiltração, osmose reversa e combinações destas operações. De forma a escolher um processo com retenção e fluxo permeado adequados variou-se durante os testes a pressão através das membranas e a temperatura. As análises realizadas para a caracterização do efluente foram: pH, condutividade elétrica, turbidez, sólidos totais (ST), demanda química de oxigênio (DQO), compostos organo-halogenados (AOX), ferro, magnésio, cálcio, sódio, potássio e manganês. A DQO foi o principal critério utilizado para avaliar a qualidade do permeado. Os ensaios de flotação foram realizados com e sem adição de compostos químicos auxiliares. A eficiência do processo foi avaliada através das análises de ST, condutividade elétrica, pH, recuperação de fibras, teor de alumínio, turbidez e visualmente Os resultados indicaram que todos os processos testados trouxeram uma melhoria nas características do efluente, incluindo reduções de até 90% no valor de DQO em alguns casos. O processo que apresentou a melhor performance foi a combinação UF5+ORP. A investigação preliminar sobre a flotação das fibras mostrou que, apesar de ter atingido uma remoção de fibras de 95% ainda havia a presença de partículas grosseiras, as quais poderiam causar danos aos processos com membranas. Mais estudos devem ser realizados no sentido de otimizar o processo de flotação.
Resumo:
Atualmente o mercado tem impelido seus competidores a oferecerem produtos de qualidade mais elevada com preços progressivamente menores. Esta conjuntura esta gerando bens mais semelhantes e fazendo com que as empresas busquem a criação de valor para seus produtos através de serviços ou outros atributos que possam ser agregados a estes sem aumentar seus custos. A logística encontra-se entre os processos mais atingidos por este fenômeno já que, a exigência de maior eficiência em suas operações é constante, porém eventuais aumentos de custos são prontamente recusados. Dentro deste contexto, este trabalho descreve a aplicação do sistema de custeio ABC na área de logística da Empresa “Z”, do setor de couros e peles do estado do Rio Grande do Sul. O principal objetivo deste trabalho é modelar os custos desta empresa utilizando o sistema de custeio ABC e para tanto utiliza os dados de custos existentes, elabora uma análise de processos da área de logística e propõe um modelo de sistema ABC a ser utilizado. Por fim, traça comparações entre os resultados do sistema atual e aqueles alcançados pelo sistema proposto. Pela pertinência das conclusões, o modelo proposto apresenta boa aderência ao processo logístico da empresa “Z”, evidenciando algumas distorções de apropriações de custos constatadas no sistema atual.
Resumo:
O objetivo geral desse estudo é analisar a aplicação da metodologia do fluxo de caixa descontado, comparando os resultados realizados em dois períodos (exercícios) com os resultados projetados. Nessa análise verifica-se que considerando a taxa do WACC de 14,5% e da perpetuidade de 2,5% como premissas para adoção da metodologia do fluxo de caixa descontado com a contabilidade a valores históricos, incluindo o ativo imobilizado acrescido de reavaliação e o registro de créditos tributários sobre prejuízos fiscais, as diferenças apuradas pelos dois critérios não são relevantes. A pesquisa sobre a utilidade do custo histórico como base de valor demonstrou que a principal vantagem na sua utilização está na sua objetividade de apuração dos valores e a principal desvantagem consiste em não considerar os efeitos da variação da moeda no tempo, na contabilidade. A utilização dos princípios de custo histórico corrigido e de valores de reposição (custo corrente) possibilita a identificação de informações gerenciais de alta qualidade, eliminando os efeitos da inflação, contudo a sua elaboração contém certo grau de complexidade e subjetividade que impõe cuidados adicionais e necessita de maiores recursos para manter-se atualizada. O tratamento quanto aos valores de saída/realização possui como principal restrição a subjetividade quanto a forma de sua apuração. O acompanhamento gerencial fornece um enriquecimento das informações, contudo a exemplo dos valores de custo corrente existem restrições quanto ao grau de complexidade necessária para sua apuração. Em empresas que tenham como principal ativo, os valores intangíveis, Iudícibus recomenda que sejam procedidas, pelo menos avaliações anuais dos intangíveis gerados. Os juros sobre o capital próprio deveriam ser tratados de maneira consistente, bem como correspondentes ao custo do capital próprio como forma de resolver a questão da falta de reconhecimento contábil do custo de oportunidade. As conclusões finais que podemos obter são de que o método do fluxo de caixa descontado representa uma tentativa de antecipar os resultados futuros a serem apurados de acordo com o princípio de custo histórico. Portanto, sua adoção não elimina a necessidade de manter-se a contabilidade que utiliza o custo como base de valor, bem como representa amelhor alternativa em termos de metodologia para apuração do valor da empresa, considerando uma empresa que pretende manter a continuidade de suas operações. Outra consideração é de que a empresa vale o seu valor líquido de realização na hipótese de uma venda ordenada ou o valor de seu fluxo de caixa futuro, dos dois o maior.
Resumo:
Este trabalho tem como foco a aplicação de técnicas de otimização de potência no alto nível de abstração para circuitos CMOS, e em particular no nível arquitetural e de transferência de registrados (Register Transfer Leve - RTL). Diferentes arquiteturas para projetos especificos de algorítmos de filtros FIR e transformada rápida de Fourier (FFT) são implementadas e comparadas. O objetivo é estabelecer uma metodologia de projeto para baixa potência neste nível de abstração. As técnicas de redução de potência abordadas tem por obetivo a redução da atividade de chaveamento através das técnicas de exploração arquitetural e codificação de dados. Um dos métodos de baixa potência que tem sido largamente utilizado é a codificação de dados para a redução da atividade de chaveamento em barramentos. Em nosso trabalho, é investigado o processo de codificação dos sinais para a obtenção de módulos aritméticos eficientes em termos de potência que operam diretamente com esses códigos. O objetivo não consiste somente na redução da atividade de chavemanto nos barramentos de dados mas também a minimização da complexidade da lógica combinacional dos módulos. Nos algorítmos de filtros FIR e FFT, a representação dos números em complemento de 2 é a forma mais utilizada para codificação de operandos com sinal. Neste trabalho, apresenta-se uma nova arquitetura para operações com sinal que mantém a mesma regularidade um multiplicador array convencional. Essa arquitetura pode operar com números na base 2m, o que permite a redução do número de linhas de produtos parciais, tendo-se desta forma, ganhos significativos em desempenho e redução de potência. A estratégia proposta apresenta resultados significativamente melhores em relação ao estado da arte. A flexibilidade da arquitetura proposta permite a construção de multiplicadores com diferentes valores de m. Dada a natureza dos algoritmos de filtro FIR e FFT, que envolvem o produto de dados por apropriados coeficientes, procura-se explorar o ordenamento ótimo destes coeficientes nos sentido de minimizar o consumo de potência das arquiteturas implementadas.
Resumo:
As estratégias de desenvolvimento utilizadas, nas últimas décadas, com o enfoque da Revolução Verde, afetaram de forma significava a capacidade de modificação dos ecossistemas pelo homem. A agricultura, sendo a principal forma de intervenção nos processos naturais, incorporou inovações tecnológicas que possibilitaram o aumento do rendimento de cultivos e criações. Ao mesmo tempo, estas inovações provocaram efeitos negativos, não previstos, no meio ambiente e nas condições sociais dos seres humanos. A emergência da expressão “Desenvolvimento Sustentável” é uma tentativa de conciliar o crescimento econômico, proporcionado pelo progresso técnico, com a justiça social e a preservação dos recursos naturais. Em virtude deste contexto, um novo desafio apresenta-se para os formuladores de políticas públicas e agentes que interferem nos processos de desenvolvimento: avaliar a sustentabilidade, ou seja, quantificar o que é mais ou menos sustentável em sistemas de produção agrícola. Esta investigação representa um esforço para definir uma metodologia capaz de orientar na seleção de indicadores de sustentabilidade, bem como de permitir a obtenção de índices de sustentabilidade em sistemas de produção. O objetivo central é propor uma metodologia que permita avaliar a sustentabilidade em sistemas de produção para facilitar a comunicação entre atores envolvidos em processos de desenvolvimento, no sentido de conduzir as intervenções dos mesmos para contextos de maior sustentabilidade nas dimensões social, econômica e ambiental. Para isto buscou-se uma metodologia com cálculos e operações simples, permitindo a obtenção de informações com recursos locais, sem a necessidade de avançados conhecimentos estatísticos de parte dos usuários, mas adaptadas à complexidade e às particularidades locais dos processos envolvidos nos sistemas de produção da agricultura familiar. Os resultados obtidos, quando comparados com outras metodologias, demonstram a viabilidade do uso do método proposto para a identificação de aspectos que conduzem os sistemas de produção estudados a contextos de maior ou menor sustentabilidade relativa.
Resumo:
Com o advento dos computadores surgiram problemas de saúde associados à tarefa da digitação, causados, principalmente, pela posição estática do corpo, pela repetitividade de movimentos dos membros superiores, pelas forças envolvidas, etc. Na tentativa de relacionar esses fatores com os distúrbios, iniciou-se, na década de 90, o estudo da força aplicada nos teclados de computador. O objetivo principal deste trabalho é desenvolver uma plataforma para medir a força aplicada nas teclas do teclado de um computador durante a digitação, para utilização em biomecânica. Foi projetada e construída uma plataforma de força que mede a força vertical, Fz, (direção z), a força horizontal (e transversal) ao teclado, Fy, (direção y) e o momento aplicado no eixo horizontal e longitudinal ao teclado, Mx, (eixo x). Com estes três componentes é possível, numa análise bidimensional (2D), determinar a magnitude do vetor força resultante, seu ângulo com plano horizontal e o ponto de aplicação sobre a superfície da tecla. Os sensores utilizados foram os extensômetros de resistência elétrica, colados em placas que deformam-se principalmente por flexão; estes sensores são ligados em ponte completa de Wheatstone para cada canal de aquisição, Fx, Fy e Mx. Foi construído um modelo em madeira, PVC e acrílico, na escala 4,5:1, para auxiliar na busca de soluções de problemas de construção. Com o objetivo de aperfeiçoar o modelo conceitual criado, utilizou-se modelamento numérico (elementos finitos) Os sinais adquiridos para cada canal são independentes, não necessitando de operações posteriores. O sistema de aquisição é composto por um computador para armazenar e posteriormente tratar matematicamente os dados coletados, por uma placa de aquisição (A/D) de dados, um condicionador de sinais e o programa SAD 2.0 para aquisição e processamento de dados. A linearidade da plataforma de força permaneceu dentro dos limites de 3 % durante a calibração estática. Os testes dinâmicos mostraram que a plataforma possui freqüência fundamental superior a 2300 Hz, o que permite que ela seja utilizada com segurança para a análise de forças aplicadas durante a digitação.
Resumo:
Nos Sistemas de Informação Geográfica (SIG), os aspectos temporais são importantes, principalmente, para representar o histórico de dados georreferenciados. Vários modelos conceituais de dados para SIG propõem classes e operações que permitem representar os aspectos espaciais e temporais das aplicações. Porém, ao nível do modelo interno dos sistemas atuais, as estruturas de dados armazenam e manipulam somente os aspectos espaciais dos dados geográficos, não contemplando os aspectos espaço-temporais propostos nos modelos conceituais. O objetivo desse trabalho é estender estruturas de dados do tipo quadtree para suporte ao armazenamento e à recuperação de dados espaço-temporais.
Resumo:
A Descoberta de Conhecimento em Banco de Dados (DCBD) é uma nova área de pesquisa que envolve o processo de extração de conhecimento útil implícito em grandes bases de dados. Existem várias metodologias para a realização de um processo de DCBD cuja essência consiste basicamente nas fases de entendimento do domínio do problema, pré-processamento, mineração de dados e pós-processamento. Na literatura sobre o assunto existem muitos trabalhos a respeito de mineração de dados, porém pouco se encontra sobre o processo de pré-processamento. Assim, o objetivo deste trabalho consiste no estudo do pré-processamento, já que é a fase que consome a maior parte do tempo e esforço de todo o processo de DCBD pois envolve operações de entendimento, seleção, limpeza e transformação de dados. Muitas vezes, essas operações precisam ser repetidas de modo a aprimorar a qualidade dos dados e, conseqüentemente, melhorar também a acurácia e eficiência do processo de mineração. A estrutura do trabalho abrange cinco capítulos. Inicialmente, apresenta-se a introdução e motivação para trabalho, juntamente com os objetivos e a metodologia utilizada. No segundo capítulo são abordadas metodologias para o processo de DCBD destacando-se CRISP-DM e a proposta por Fayyad, Piatetsky-Shapiro e Smyth. No terceiro capítulo são apresentadas as sub-fases da fase de pré-processamento contemplando-se entendimento, seleção, limpeza e transformação de dados, bem como os principais métodos e técnicas relacionados às mesmas. Já no quarto capítulo são descritos os experimentos realizados sobre uma base de dados real. Finalmente, no quinto capítulo são apresentadas as considerações finais sobre pré-processamento no processo de DCBD, apontando as dificuldades encontradas na prática, contribuições do presente trabalho e pretensões da continuidade do mesmo. Considera-se como principais contribuições deste trabalho a apresentação de métodos e técnicas de pré-processamento existentes, a comprovação da importância da interatividade com o especialista do domínio ao longo de todo o processo de DCBD, mas principalmente nas tomadas de decisões da fase de pré-processamento, bem como as sugestões de como realizar um pré-processamento sobre uma base de dados real.
Resumo:
Bancos de Dados Temporais (BDTs) surgiram para tentar suprir a necessidade de se obter um melhor aproveitamento das informações que circulam atualmente. Porém, ao mesmo tempo em que é benéfico o seu uso, uma vez que armazenam o histórico das informações, existe um problema neste tipo de banco de dados, que é o desempenho. Além do grande volume de dados armazenados, este problema se agrava ainda mais devido à complexidade nas operações que governam os BDTs, como por exemplo, inclusão, remoção, alteração e consulta. Portanto, focalizando o problema, existe a necessidade de melhorar o desempenho dos BDTs frente às operações de manipulação de dados. Técnicas de indexação apropriadas para dados temporais podem amenizar este problema de desempenho. Técnicas consagradas de indexação são largamente usadas, amparadas no seu alto grau de desempenho e portabilidade. São exemplos B-Tree, B+-Tree e R-Tree, entre outras. Estas técnicas não suportam indexar os complexos BDTs, mas são fundamentais para que sirvam de base para novas estruturas que suportem esses tipos de dados. As técnicas de indexação para dados temporais existentes não conseguem suprir a semântica temporal na sua totalidade. Existem ainda algumas deficiências do tipo: poucas técnicas que abrangem ao mesmo tempo tempo de validade e tempo de transação; não existe uma técnica que oferece informações do seu desempenho; a maioria não distingue ponto no tempo de intervalo de tempo; entre outras. Entretanto, possuem características relevantes em cada uma delas. Assim, um estudo das características mais importantes se tornou um fator importante para que possa ser desenvolvido um modelo capaz de auxiliar na criação de novas técnicas de indexação para dados temporais, a fim de contemplar melhor estes tipos de dados. O objetivo deste trabalho é, com base nas características das técnicas estudadas, desenvolver um framework conceitual capaz de auxiliar na criação de novas técnicas de indexação para dados temporais. Esta estrutura apresenta as características mais relevantes das técnicas existentes, agregando novas idéias e conceitos para contemplar os dados temporais. O framework conceitual desenvolvido agrega características de diferentes técnicas de indexação, possibilitando de variar a arquitetura de um índice para dados temporais, ajustando-os para um melhor desempenho em diferentes sistemas. Para validar o framework proposto é apresentada uma especificação de índices para o modelo de dados TF-ORM (Temporal Functionality in Objects With Roles Model).
Resumo:
A ocorrência de alguns eventos na história recente mostrou ao mundo os riscos envolvidos nos processos de liquidação de transações financeiras e o potencial de que eventuais distúrbios nestes processos contaminem e desestabilizem os mercados financeiros e as economias em geral. Por serem utilizados como instrumento de transferência de recursos entre agentes econômicos, os sistemas de pagamentos são um importante canal de transmissão de turbulências entre os mercados e sistemas financeiros nacionais e internacionais. Como conseqüência, o aprimoramento de sistemas de pagamentos evoluiu internacionalmente e de forma significativa nos últimos anos podendo ser encarada como uma revolução na tecnologia e na rotina dos sistemas operacionais dos bancos. No Brasil, foi tão profundo quanto a reforma no Sistema Financeiro Nacional de 1964 e tão importante a ponto de colocar o país no mesmo nível dos países monetariamente mais desenvolvidos do mundo O objetivo central do presente estudo é o de analisar a capacidade que os novos sistemas de pagamentos tem em reduzir os riscos presentes nas transações financeiras. Para tanto, avaliam-se as crises financeiras internacionais recentes e sua relação com a instabilidade econômica; verifica-se o papel e a importância dos sistemas de pagamentos; identifica-se a forma pela qual os bancos centrais padronizaram os modelos adotados internacionalmente; avalia-se o Sistema de Pagamentos Brasileiro (SPB); e busca averiguar se a proposta do Banco Central de transferir o ônus de arcar com o risco sistêmico para os agentes participantes do sistema de fato ocorre. Conclui-se que os novos sistemas permitem anular os riscos presentes em sistemas de pagamentos e, por conseqüência, reduzir o risco sistêmico. Pelo fato de não mais aceitar saldos negativos nas contas de reservas bancárias em qualquer momento do dia e através da constituição de garantias, os eventuais riscos que surgem ficam restritos ao ambiente em que foram gerados. Palavras-chave: Sistemas de Pagamentos; Sistema de Pagamentos Brasileiro (SPB);Sistemas Operacionais Bancários; Sistemas Financeiros.
Resumo:
Essa dissertação aborda o tema simulação de serviços. É apresentada abordagem para estudo de empresas prestadoras de serviços a partir da ótica de avaliação e otimização de produtividade, custos operacionais e lead-time. A abordagem proposta foi desenvolvida com base em estudo de caso realizado junto à empresa Scherer Informática, que atua na área de manutenção de computadores. Os cenários gerados e as simulações dos serviços prestados foram realizados com o suporte de software específico para a modelagem de serviços: o Servicemodel. O estudo possibilitou a empresa conhecer: (i) o melhor dimensionamento das equipes de front office e back office, (ii) a melhor distribuição dos funcionários, que conduz a maior produtividade, (iii) a melhor qualificação da equipe, que minimiza custos operacionais, e, (iv) a análise do lead-time, que permitiu identificar as operações críticas e estabelecer um plano de melhorias visando agilizar o atendimento ao cliente. As etapas observadas no estudo de caso constituem uma abordagem para a otimização de serviços, que considera produtividade, custos operacionais e lead-time. Devido à generalidade das etapas propostas, a abordagem pode ser adaptada para o uso em outras empresas, subsidiando decisões relativas à melhoria dos processos de prestação de serviços.
Resumo:
A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.
Resumo:
O presente trabalho, inserido na área de Planejamento, Programação e Controle da Engenharia de Produção, aborda especificamente as questões ligadas à gestão da capacidade produtiva, desenvolvendo um modelo sistêmico voltado a unidades de tratamento manual de objetos postais, os chamados Centros de Triagem. A partir do levantamento de um arcabouço teórico que fundamenta a proposta e da realização de estudos e trabalhos práticos efetuados pelo autor no Centro de Triagem de Porto Alegre, Rio Grande do Sul, os diversos níveis de planejamento, programação e controle de capacidade produtiva são discutidos e encadeados em uma seqüência lógica de entradas e saídas de informações fundamentais para a gestão dessas unidades operacionais. Dessa maneira, uma série de conceitos tradicionais de Engenharia de Produção foram adaptados à realidade de sistemas postais, desenvolvendo, dessa maneira, um método de gestão de capacidade produtiva customizada ao escopo do estudo. Embora o resultado prático do trabalho seja de utilidade específica para a gestão de Centros de Triagem manuais de carga postal, os conceitos discutidos e mesmo o modelo desenvolvido podem ser facilmente adaptados a outras unidades operacionais de correios e de outras indústrias, em especial as de operações de serviços.