73 resultados para softwares estatísticos
Resumo:
A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.
Resumo:
Resumo não disponível.
Resumo:
Nas indústrias de processo, algumas variáveis como as composições de topo de colunas de destilação são quantificadas através de análises laboratoriais e ou de analisadores em linha. Este tipo de controle apresenta algumas limitações tais como custos de manutenção e o tempo de amostragem (em geral análises laboratoriais ocorrem de 1 a 3 vezes ao dia). Para melhoria destes métodos, as variáveis podem ser continuamente estimadas a partir de sua relação com as variáveis medidas diretamente no processo. Através de um algoritmo matemático, um analisador virtual de propriedades pode ser construído, sendo necessário para o seu desenvolvimento um modelo simplificado do processo. Este trabalho teve como objetivo a construção de dois analisadores virtuais para estimação das composições de topo de duas colunas fracionadoras de tolueno presentes em uma indústria petroquímica. Para tal, estudou-se as metodologias existentes para construção de analisadores voltados para aplicações em colunas de destilação. O desenvolvimento de analisadores virtuais tem como base três etapas: seleção de variáveis secundárias, construção de modelos e correção/adaptação de modelos. Tais etapas, baseadas principalmente em métodos estatísticos, foram estudadas e as técnicas que melhor se adaptaram ao caso em questão foram empregadas com resultados satisfatórios. Realizaram-se também estudos comparativos entre modelos estacionários e dinâmicos e modelos construídos a partir de dados de simulação e de processo. As simulações foram conduzidas nos softwares Aspen PlusÒ e Aspen DynamicsÒ e o software usado para implementação dos analisadores na indústria foi o Aspen IQÒ.
Resumo:
Os Sistemas de Informação Geográfica (SIG) são construídos, especificamente, para armazenar, analisar e manipular dados geográficos, ou seja, dados que representam objetos e fenômenos do mundo real, cuja localização em relação à superfície da Terra seja considerada. A interoperabilidade desses sistemas, que constitui-se na capacidade de compartilhar e trocar informações e processos entre ambientes computacionais heterogêneos, se faz necessária, pois, devido ao elevado custo de aquisição dos dados geográficos, as comunidades de informação precisam compartilhar dados de fontes existentes, sem a necessidade de fazer conversões. Porém, pela complexidade e incompatibilidades de representação, de estrutura e de semântica das informações geográficas, a maioria dos softwares de SIG, hoje, não são interoperáveis. Existe também, além do problema da não interoperabilidade, uma crescente preocupação com relação à qualidade e à integridade espacial dos dados geográficos. Contudo, alguns modelos conceituais de dados geográficos e os softwares de SIG não oferecem, ainda, os meios adequados para representar e garantir a integridade espacial das informações. As restrições de integridade definidas durante a fase de projeto conceitual, normalmente, são implementadas durante o projeto físico, seja de forma implícita ou explícita, podendo ser incorporadas diretamente no modelo de implementação do SIG, de forma que o usuário da aplicação apenas mencione a regra e o sistema a implemente e a garanta automaticamente.Este trabalho de pesquisa propõe uma extensão ao Modelo Abstrato OpenGIS, modelo este que deve ser um padrão de interoperabilidade de software para SIG. A extensão proposta incorpora ao mesmo um subconjunto de tipos de restrição espacial, buscando com isso oferecer melhor suporte às regras da realidade geográfica expressáveis na modelagem conceitual do sistema.
Resumo:
Este trabalho define e implementa um sistema de controle de consumo para redes de computadores, objetivando aumentar o tempo de operação da rede em caso de operação com recursos limitados e redução de consumo de energia em situações de fornecimento normal. Na definição do sistema, denominado NetPower, foi estabelecida uma estrutura através da qual um gerente (coordenador) monitora as atividades dos equipamentos vinculados à rede, e determina alterações nos estados de consumo respectivos, de acordo com as necessidades ou atendimento de padrões de otimização. Aos equipamentos podem ser atribuídos diferentes privilégios em uma hierarquia adaptável a diversos ambientes. Um reserva oferece opção às falhas do gerente. A implementação está baseada no protocolo SNMP (Simple Network Management Protocol) para a gerência e são considerados preponderantemente os padrões para controle de consumo dos equipamentos Advanced Power Management, APM, e Advanced Configuration and Power Interface Specification, ACPI. Além da arquitetura do gerente e dos agentes, foi definida também uma MIB (Management Information Base) para controle de consumo. No projeto do sistema, foi privilegiado o objetivo de utilização em qualquer ambiente de rede, sem preferência por equipamentos de algum fabricante específico ou por arquitetura de hardware. Tecnologias de domínio público foram utilizadas, quando possível. No futuro este sistema pode fazer parte da distribuição de sistemas operacionais, incorporando controle de consumo às redes. No texto é feita uma comparação entre os softwares existentes para controle de consumo, são apresentados os recursos de controle de consumo disponíveis nos equipamentos de computação, seguido da descrição do protocolo de gerência utilizado. Em seguida, é apresentada a proposta detalhada do sistema de controle e descrita da implementação do protótipo.
Resumo:
Geralmente, as populações, incluindo aí os setores produtivos, planejam suas atividades pelo conhecimento antecipado das variações tanto da temperatura quanto da precipitação pluvial baseados nos ciclos anuais e sazonais conhecidos. Os benefícios, confiabilidade e utilização das previsões climáticas têm sido objeto de análise e discussão na comunidade científica mundial. O desenvolvimento e aplicação dessas previsões para determinadas partes de áreas extensas, atende, de forma mais satisfatória, aos anseios dos setores produtivos e a sociedade como um todo. O objetivo principal desse trabalho foi identificar regiões dos oceanos Atlântico e Pacífico, cuja Temperatura da Superfície do Mar (TSM) possa ser utilizada como preditor potencial em modelos estatísticos de previsão climática de temperaturas máxima e mínima em regiões homogêneas do Estado do Rio Grande do Sul. Este estudo foi desenvolvido com dados de temperaturas máxima e mínima de 40 estações meteorológicas, do Instituto Nacional de Meteorologia e, da Fundação Estadual de Pesquisas Agropecuárias para o período de 1913 a 1998 e dados de TSM em pontos de grade para o período de 1950 a 1998 do National Center for Environmental Prediction. Num tratamento preliminar dos dados, as séries tiveram suas falhas preenchidas utilizando um método de preenchimento, aqui chamado, de “método das correlações”. Com as séries completas, aplicou-se métodos de agrupamento, determinando 4 regiões homogêneas de temperaturas máxima e mínima para o Estado. Foi feito um estudo climatológico dessas regiões e determinadas as relações das temperaturas médias máxima e mínima, de cada uma com TSM dos Oceanos na grade definida. As regiões determinadas representaram bem a fisiografia do Estado e as regiões preditoras apresentaram correlações significativas tanto com a temperatura máxima, quanto com a mínima. Os meses com maior número de preditores, tanto para as temperatura máxima quanto para mínima, foi agosto e o de menor, julho. Correlações diferentes para regiões homogêneas distintas, justificou a utilização da regionalização neste trabalho.
Resumo:
A literatura sobre Teste de Software apresenta diversas estratégias e metodologias que definem critérios eficazes e automatizáveis para selecionar casos de teste capazes de detectar erros em softwares. Embora eficientes na descoberta de erros, as técnicas de seleção de casos de teste exigem que uma quantidade relativamente grande de testes seja realizada para satisfazer os seus critérios. Essa característica acarreta, em parte, um alto custo na atividade de teste, uma vez que, ao fim de cada teste deve-se verificar se o comportamento do software está ou não de acordo com os seus requisitos. Oráculo para teste de software é um mecanismo capaz de determinar se o resultado de um teste está ou não de acordo com os valores esperados. Freqüentemente, assume-se que o próprio projetista de teste é o responsável por esta tarefa. A automatização da atividade dos oráculos deu origem a oráculos automáticos, os quais são capazes de determinar o bom ou mau funcionamento do software a partir de uma fonte de informação confiável. Ao longo dos anos, a especificação formal vêm sendo largamente utilizada como fonte de informação para oráculos automáticos. Diversas estratégias vêm propondo geradores de oráculos baseados em especificações formais. Dentre as características marcantes dessas estratégias, cita-se aquelas que são aplicáveis a implementações derivadas a partir da estrutura da especificação e aquelas que geram oráculos a partir de técnicas específicas de seleção de casos. Essas características, entretanto, limitam a aplicação abrangente dos oráculos por restringi-los tanto a implementações derivadas diretamente de especificações como ao uso de técnicas específicas de seleção de casos de teste. Este trabalho apresenta um estudo sobre os geradores de oráculos para teste de software, identifica aspectos fundamentais que regem seu processo de construção e propõe uma estratégia que permite a geração de oráculos semi-automaticamente, mesmo para implementações não derivadas diretamente da estrutura da especificação. A estratégia proposta é, também, aplicável aos casos de teste derivados de qualquer técnica de seleção de casos de teste.
Resumo:
Nesta dissertação, assumimos os pressupostos formais do modelo não-linear da Fonologia Lexical (FL). Adotamos, como hipótese de trabalho - nos termos de Labov (1981), Labov (1994) e Kiparsky (1988)- a resolução da controvérsia neogramática a partir deste modelo. Para tanto, apresentamos a análise de dois fenômenos do Português Brasileiro (PB), com base em dados empíricos extraídos da cidade de Porto Alegre, os quais confrontamos com as predições que emanam do modelo teórico. Num primeiro momento, discutimos o status lexical e pós-lexical das regras de vocalização de /l/ e monotongação de /ow/. Num segundo momento, apresentamos a caracterização desses dois tipos de mudança. Essas discussões fundamentam-se em resultados estatísticos, obtidos a partir da utilização do pacote VARBRUL. Partindo dessas discussões, propomos o ordenamento dessas regras nos componentes do modelo da Fonologia Lexical (FL), rastreando esses processos nos módulos do léxico e do pós-léxico. A escolha destes dois fenômenos não é aleatória: da análise destas regras nos termos da FL emergem questões não devidamente tratadas no PB, como a opacidade e a presença de regras variáveis no léxico. Também destacamos a controvérsia sobre a representação dos segmentos envolvidos nestes processos: dedicamos um capítulo para a discussão sobre a representação da lateral e do processo de vocalização; e outro para a discussão sobre a representação subjacente do ditongo /ow/. Conforme a análise dos resultados, concluímos que a regra de monotongação de /ow/ comporta-se como regra lexical e implementa um tipo de mudança que se difunde lexicalmente. Já a regra de vocalização de /l/ caracteriza-se como regra pós-lexical e encaixa-se no molde de mudança neogramática.
Resumo:
A utilização de uma emergência por pacientes com problemas médicos eletivos contribui para a demanda excessiva e impede de acesso a pacientes com emergência verdadeira. O presente estudo se propôs: (1) investigar as características do usuário da emergência em relação a aspectos demográficos, local de moradia e tempo que apresenta os sintomas que o levaram a consultar; (2) identificar as diferenças da demanda entre o final de semana e durante a semana; (3) investigar a prevalência de saúde mental, alcoolismo, doença coronariana e hipertensão; (4) avaliar como é a utilização e o acesso a serviços de saúde para pacientes que referem ter um médico definido em comparação com quem refere não ter; (5) avaliar a satisfação dos pacientes com o atendimento na emergência e (6) verificar se o atendimento através de um médico definido ou em serviço de atenção primária em saúde diminui o afluxo de casos não urgentes aos serviços de emergência. Foi realizado um estudo transversal na Emergência do Hospital N.S. da Conceição de Porto Alegre (RS) no período de 6 de janeiro a 25 de junho de 1996, tendo sido incluídos 20 dias escolhidos entre o meio-dia de sábado e o meio-dia de domingo, para caracterizar a demanda do final de semana, e o meio-dia de segunda-feira e meio-dia de terça-feira, para a dos outros dias. Fizeram parte da amostra 553 pacientes selecionados através de amostragem aleatória sistemática, com uma taxa de resposta de 88%. A coleta de dados consistiu de questionário de 156 questões aplicado aos pacientes. O registro e análise dos dados foram realizados utilizando-se os programas Epi-Info, EGRET e SPSS. As análises incluíram tabulações simples para determinação de prevalência das condições investigadas e regressão logística para avaliar o efeito conjunto das variáveis independentes sobre cada uma das variáveis dependentes. A população que freqüenta a emergência do HNSC é composta de jovens, predominantemente do sexo feminino, mora em Porto Alegre (especialmente, no bairro Sarandi) e na Grande Porto Alegre (especialmente, Alvorada), desloca-se preferencialmente de ônibus até o serviço de emergência, vem acompanhada, na maioria das vezes, de algum familiar, e a maioria decide consultar por iniciativa própria ou por indicação de algum familiar. Os homens internam com maior freqüência. Os serviços de atenção primária representaram 23% do atendimento habitual dos pacientes. As consultas foram definidas pelos emergencistas como de emergência em 15% dos casos, de urgência em 46%, e programáveis em 39% poderiam ser programadas. A prevalência de hipertensão foi 19%; de angina, 13%; de alcoolismo, 16%; de problema psiquiátrico menor, 32% entre os homens e 51% entre as mulheres (p< 0,0001). Como desfecho da consulta, 73% dos pacientes foram encaminhados para o domicílio ou para um serviço especializado, 10% foram para sala de observação e para apenas 5% foi indicada a internação. A maioria dos pacientes referiram estar satisfeitos com o atendimento. Os que consultaram no final de semana apresentaram, em média, um tempo menor de sintomas até decidir consultar, um menor tempo de deslocamento até o serviço de emergência, maior satisfação, média de idade maior, maior proporção de moradores de Porto Alegre e foram levados de carro até a emergência mais do que aqueles que consultaram durante a semana. O modelo de regressão logística identificou as variáveis independentes determinantes de ter um médico definido: consulta habitual em atenção primária em saúde (RC=3,22 IC95%=2,04-5,09), consulta definida como emergência ou urgência (RC=2,46 IC95%=1,55-3,92) e afastamento do trabalho (RC=1,59 IC95%= 1,03-2,45). Este resultado demonstra que o paciente que habitualmente consulta em serviços de atenção primária tem mais probabilidade para ter a continuidade no atendimento. A consulta ser de emergência ou de urgência apresentou associação significativa com as seguintes variáveis independentes, após ser colocada num modelo de regressão logística: pacientes internados ou em observação (RC=5,80 IC95%=3,33-10,17), costume de consultar com o mesmo médico (RC=2,98 IC95%=1,84-4,80) e ida de carro até a emergência (RC=2,67 IC95%=1,75-4,05). A variável hábito de consultar em serviço de atenção primária deixou de ficar estatisticamente significativa ao ser colocada no modelo de regressão logística. Este resultado revela que pacientes com médico definido têm três vezes mais chances de consultar por um problema de emergência no serviço de emergência do que aqueles que não têm um médico definido. Assim, uma estratégia para reduzir a ocorrência de consultas não urgentes em serviços de emergência é o paciente ter tal vínculo. No entanto, aqueles pacientes que referiram o posto de saúde como local onde habitualmente consultam não evitam, necessariamente, a utilização de um serviço de emergência por motivo considerado como programável. É necessário otimizar o atendimento de pacientes com problemas não urgentes que chegam à emergência através de estratégias no nível de atenção primária – especialmente possibilitando o atendimento médico continuado -, onde uma abordagem integral com ênfase na prevenção garanta um atendimento de melhor qualidade e custo menor.
Resumo:
Este trabalho descreve de uma fonna geral a proposta de uma estratégia para controle e supervisão de plantas industriais através da Internet. Tal proposta consiste na apresentação de três contextos distintos: o contexto planta industrial, o contexto servidor e o contexto cliente. O levantamento criterioso de requisitos para cada um dos contextos é apresentado. A união entre as tecnologias Web e os barramentos de campo resultam naturalmente no acesso remoto através da Internet a sistemas de automação industrial, sendo assim, surge uma nova tendência em tennos de supervisão e controle. A motivação para este trabalho surgiu através de alguns estudos de casos presentes na literatura, que disponibilizam laboratórios através da Internet. A maioria destes estudos de caso não possuía os requisitos considerados primordiais para a disponibilização de um processo através da Internet, como por exemplo, a independência de platafonna no lado cliente e um processo de escala industrial no contexto planta industrial. A estratégia proposta tem por objetivo suprir as carências apresentadas pela maioria dos centros de ensino e pesquisa que disponibilizam laboratórios através da Internet. Para validar a estratégia proposta, foi desenvolvido um sistema de acesso remoto no DELET da UFRGS que é constituído de uma Planta Piloto Foundation Fieldbus e sua posterior disponibilização para a Internet Neste trabalho é apresentada sua fundamentação teórica, sua aplicabilidade na área de automação industrial e controle, baseando-se no protocolo de comunicação industrial, o Foundation Fieldbus; descreve-se também como é feito o interfaceamento entre softwares de controle da Planta Piloto e o sistema de supervisão e controle indo até a estrutura de comunicação com a Internet para que se tome possível para o cliente da Internet visualizar e interagir com a Planta Piloto. Configuração de hardware e software e vários outros conceitos ligados às ferramentas utilizadas neste sistema também são abordados neste trabalho.
Resumo:
O objetivo desta pesquisa é verificar com que intensidade um conjunto préestabelecido de problemas e de ações se manifesta ou é utilizado quando da adoção de novas tecnologias de informação, bem como identificar a tecnologia de informação utilizada nas organizações. A escolha do tema justifica-se pela importância atual da tecnologia de informação. Tal tecnologia é vista hoje como um dos fatores, às ve zes até determinante, que pode proporcionar vantagem competitiva para uma organização em seu cenário de atuação. Essa perspectiva está exigindo de seus administradores um amplo entendimento dos negócios da organização. No ambiente técnico, o constante e crescente avanço coloca novos desafios para esses profissionais, pois devem implementar novas tecnologias, alinhando-as à estratégia de negócios, paralelamente à complementação de investimentos e culturas já existentes. Os respondentes foram os profissionais encarregados do gerenciamento desta tecnologia. Eles responderam a um conjunto de questões que abordavam diversos aspectos relativos à utilização desta tecnologia nas respectivas organizações. A coleta de dados foi realizada por entrevista pessoal e via correio, em 33 Cooperativas Agropecuárias do Rio Grande do Sul, que participaram da pesquisa tipo Survey. A partir da análise quantitativa dos dados coletados, chegou-se a um perfil da tecnologia de informação em diversos aspectos, tais como internet, softwares mais utilizados, entre outros. Identificaram-se também quais os problemas e ações mais freqüentes e qual o sucesso das ações adotadas. A situação das organizações pesquisadas pode ser considerada, em alguns aspectos, como compatível aos padrões nacionais, entretanto a utilização da tecnologia de informação pode ser caracterizada como tradicional e conservadora, preocupada essencialmente com os processos operacionais.
Resumo:
Esta pesquisa analisa as mudanças geradas após a implantação de um Sistema de Educação a Distância, utilizado como instrumento para a qualificação dos funcionários, na empresa de telecomunicações TELEK, localizada em Porto Alegre - estado do Rio Grande do Sul. Foram analisadas as mudanças sob seis perspectivas, tomando como base o quadro analítico de Paulo Roberto Motta (1997), Perspectiva Estratégica, Perspectiva Estrutural, Perspectiva Humana, Perspectiva Cultural, Perspectiva Política e Perspectiva Tecnológica. Foram coletados dados junto à equipe que dirige o Sistema de Educação a Distância na TELEK, Gerentes de Área da empresa e funcionários que receberam os cursos a distância. Para atingir os objetivos propostos, efetuou-se uma pesquisa survey com a aplicação de um questionário, enviado por e-mail, com um conjunto de questões fechadas com escala de Likert, assim como foram realizadas entrevistas abertas e semi-estruturadas. A análise dos resultados foi de tipo quantitativo, aplicando métodos estatísticos, e de tipo qualitativo, aplicando a análise de conteúdo. A partir dos dados coletados, chegou-se a resultados relevantes referentes às mudanças percebidas em cada uma das perspectivas, tais como: hábitos e costumes, mudanças comportamentais, aquisição de novas habilidades, desenvolvimento de autocontrole, autodesenvolvimento, inovação, postura pró-ativa, assim como resistências e desafios a serem perpassados.
Resumo:
Este estudo tem como objetivo analisar os recursos vocais utilizados nos telejornais como coadjuvantes de efeitos de sentido pretendidos com a divulgação da notícia. Os recursos vocais estudados foram a média e a variação da freqüência vocal em enunciados proferidos por apresentadores de telejornais brasileiros. Foram analisados 43 enunciados, de 12 apresentadores (6 homens e 6 mulheres), de 6 telejornais, abrangendo 3 redes de televisão. Os enunciados foram classificados em 2 tipos de notícias: positivas e negativas. Na análise descritiva contextualizada foram analisadas também chamadas e editoriais, descrevendo-se as estratégias vocais pertinentes a cada contexto. Para uma melhor clareza deste estudo, foram utilizados como procedimentos estatísticos tabelas e gráficos da média das freqüências médias encontradas e a média da variação. Foi realizada análise acústica computadorizada da freqüência média e variação de cada enunciado e a análise descritiva contextualizada de 18 desses enunciados. O quadro teórico básico deste trabalho integra elementos da teoria semiótica francesa, da fonoaudiologia e alguns aspectos da retórica. Buscou-se descrever, através dos pressupostos das três áreas, o discurso dos telejornais demonstrando sua estratégia de construção de verdade, os procedimentos utilizados neste fazer e o papel da voz neste processo. Os resultados confirmam a presença da relação voz e efeitos de sentido nos telejornais. Nas notícias positivas, houve um aumento da média das freqüências, já nas negativas houve um decréscimo, tanto nos homens como nas mulheres. A variação das médias das freqüências foi mais significante nas locuções das mulheres. Conclui-se que a voz tem um papel importante como estratégia de persuasão na busca de credibilidade da notícia e é largamente utilizada pelos apresentadores de telejornais.
Resumo:
Problemas de escalonamento ocorrem com freqüência, principalmente em empresas de manufatura. Entretanto, na maioria das vezes, ferramentas matemáticas de apoio à decisão são pouco utilizadas, pois requerem profissionais capacitados, softwares caros e computadores muito potentes. Esta dissertação tem como objetivo mostrar uma heurística capaz de reduzir a quantidade de fôrmas na indústria calçadista. Inicialmente, foram comparadas as soluções fornecidas pela heurística com as soluções obtidas a partir do modelo matemático de programação linear, com a finalidade de verificar o quão próximas estão ambas as respostas. Em seguida, foram comparadas a solução fornecida pela heurística e a solução presentemente adotada por uma empresa de calçados denominada de Empresa de Calçados X. Os principais resultados obtidos foram: a) o resultado fornecido pela heurística apresenta menos de 10% de acréscimo no número de pares de fôrmas em relação ao resultado fornecido pelo modelo matemático de programação linear inteira tipo 0/1; b) a solução fornecida pela heurística reduz, em média, 23,4% a quantidade de fôrmas necessárias, podendo chegar próximo a 40%. Isto pode trazer uma estimativa de redução anual na ordem de R$ 288.100,00; c) o percentual de redução na quantidade de pares de fôrmas é variável, dependendo de cada caso.