957 resultados para Falhas
Resumo:
No intuito de validar seus projetos de sistemas integrados, o Grupo de Microeletrônica da UFRGS tem investido na inserção de estruturas de teste nos núcleos de hardware que tem desenvolvido. Um exemplo de tal tipo de sistema é a “caneta tradutora”, especificada e parcialmente desenvolvida por Denis Franco. Esta caneta se utiliza de um microcontrolador 8051 descrito em VHDL, o qual ainda carece de estruturas dedicadas com funções orientadas à testabilidade. Este trabalho exemplifica a integração de teste em um circuito eletrônico préprojetado. Neste caso específico, foi utilizado o microcontrolador 8051 fonte compatível que será inserido no contexto da caneta tradutora. O método utilizado apoiou-se na norma IEEE1149.1, destinada a definir uma infra-estrutura baseada na técnica do boundary scan para o teste de placas de circuito impresso. São apresentadas características de testabilidade desenvolvidas para o microcontrolador, utilizando-se a técnica do boundary scan em sua periferia e a técnica do scan path em seu núcleo. A inserção destas características de teste facilita a depuração e testes em nível de sistema, imaginando-se o sistema como algo maior, fazendo parte do sistema da caneta tradutora como um todo. São elaborados exemplos de testes, demonstrando a funcionalidade do circuito de teste inserido neste núcleo e a possibilidade de detecção de falhas em pontos distintos do sistema. Finalmente, avalia-se o custo associado à integração desta infra-estrutura de teste, tanto em termos de acréscimo de área em silício, quanto em termos de degradação de desempenho do sistema.
Resumo:
Este trabalho visa abordar um aspecto importante em um sistema de gestão empresarial - a mensuração dos custos relacionados à qualidade e a proposição de melhorias a partir da análise destes custos. Um dos obstáculos mais importantes para o estabelecimento e consolidação de programas de qualidade nas empresas é a idéia errônea de que alta qualidade implica, necessariamente, em alto custo. Na maioria das vezes, as organizações não possuem indicadores que mensurem tais custos, tomando decisões equivocadas em relação ao nível de qualidade a ser praticado em seus produtos ou serviços. Em diversos contextos, prevalece a ênfase no retomo imediato, sem se considerar os custos com perdas pela não-qualidade. Esta dissertação busca identificar e analisar os custos diretos relacionados à qualidade nas suas quatro grandes categorias. As primeiras duas categorias incluem os custos que aparecem quando a função qualidade falha (custos da não-qualidade). São os chamados custos de falhas internas e custos de falhas externas, de acordo com a situação do produto no instante da falha, se dentro da empresa ou após ter sido vendido aos clientes. As duas últimas categorias incluem os custos da função qualidade (ou custos da qualidade propriamente dita), divididos em custos de prevenção, englobando tudo o que é feito para prevenir defeitos, e custos de avaliação, que reúnem os esforços despendidos para remover do processo os produtos defeituosos. Para garantir a sua sobrevivência no mercado, empresas devem estar preparadas para medir seus custos de qualidade e de não-qualidade, visualizando oportunidades de redução de custos e tomada de ações para a melhoria contínua do ambiente produtivo, justificando assim o investimento em qualidade Apoiando-se numa sistemática estruturada,o trabalho faz a identificação e análise dos custos diretos relacionados à qualidade. Um estudo prático, realizado em uma indústria de balas no estado do Rio Grande do Sul, demonstra a importância estratégica e econômica da identificação, análise e gerenciamento desses custos, propondo melhorias decorrentes da análise das causas dos principais valores levantados, destacando ainda as melhorias propostas a partir desta análise na empresa em estudo. O estudo identificou que a principal categoria de custos relacionados à qualidade refere-se à categoria de custos das falhas internas que correspondem,em média, à 12% do faturamento da empresa. Além disso, o impacto na redução dos custos da não-qualidade ultrapassa o lucro líquido da empresa.
Resumo:
Esta dissertação examina a situação geral dos Acidentes Viários, no contexto do transporte rodoviário, cujas evidências apontam o Fator Humano como o maior responsável por tais eventos. Entende-se que um maior conhecimento sobre ele possibilitará melhorar a segurança do tráfego e da produção transporte. O estudo pretende destacar a importância das análises relacionadas com a atividade transporte rodoviário, as variações da demanda do sistema de circulação e a tarefa do motorista, sob a ótica da ergonomia. Objetiva ele, também, mostrar importância desses estudos para melhor avaliar as interações dos fatores homemmáquina- ambiente viário e para o desenvolvimento de novas tecnologias e produtos de segurança viária. A revisão bibliográfica dos capítulos iniciais revelam o estado da arte e a importância da segurança de trânsito, em nível internacional. Também revelaram que todas nações sofrem do mesmo mal em suas redes viárias, que varia de acordo com a realidade de cada um. Embora o acidente de trânsito seja um fenômeno comum às nações, aqui eles atingiram a dimensão de flagelo social, em razão da sua severidade; e de calamidade econômica, face a elevação dos custos de produção na atividade do transporte rodoviário. São analisadas as características do fator humano, fundamentais na tarefa de condução, e o respectivo nexo causal das falhas com a gênese do acidente, num sistema multifatorial e interativo. O trabalho fundamenta-se em extensa revisão bibliográfica. O estudo de caso, desenvolvido a partir da revisão dos dados de uma pesquisa anterior, comprova a hipótese que o “álcool-direção”, considerado na literatura como o maior causador de acidentes viários, tem sua presença marcada por elevados índices nas rodovias do RS, contrariando a conclusão da pesquisa anterior. Ao final, também oferece recomendações para o desenvolvimento de ações objetivas para melhorar a segurança viária.
Resumo:
O desenvolvimento de protocolos distribuídos é uma tarefa complexa. Em sistemas tolerantes a falhas, a elaboração de mecanismos para detectar e mascarar defeitos representam grande parte do esforço de desenvolvimento. A técnica de simulação pode auxiliar significativamente nessa tarefa. Entretanto, existe uma carência de ferramentas de simulação para investigação de protocolos distribuídos em cenários com defeitos, particularmente com suporte a experimentos em configurações “típicas” da Internet. O objetivo deste trabalho é investigar o uso do simulador de redes NS (Network Simulator) como ambiente para simulação de sistemas distribuídos, particularmente em cenários sujeitos à ocorrência de defeitos. O NS é um simulador de redes multi-protocolos, que tem código aberto e pode ser estendido. Embora seja uma ferramenta destinada ao estudo de redes de computadores, o ajuste adequado de parâmetros e exploração de características permitiu utilizá-lo para simular defeitos em um sistema distribuído. Para isso, desenvolveu-se dois modelos de sistemas distribuídos que podem ser implementados no NS, dependendo do protocolo de transporte utilizado: um baseado em TCP e o outro baseado em UDP. Também, foram estudadas formas de modelar defeitos através do simulador. Para a simulação de defeito de colapso em um nodo, foi proposta a implementação de um método na classe de cada aplicação na qual se deseja simular defeitos. Para ilustrar como os modelos de sistemas distribuídos e de defeitos propostos podem ser utilizados, foram implementados diversos algoritmos distribuídos em sistemas síncronos e assíncronos. Algoritmos de eleição e o protocolo Primário-Backup são exemplos dessas implementações. A partir desses algoritmos, principalmente do Primário-Backup, no qual a simulação de defeitos foi realizada, foi possível constatar que o NS pode ser uma ferramenta de grande auxílio no desenvolvimento de novas técnicas de Tolerância a Falhas. Portanto, o NS pode ser estendido possibilitando que, com a utilização dos modelos apresentados nesse trabalho, simule-se defeitos em um sistema distribuído.
Resumo:
Uma aplicação distribuída freqüentemente tem que ser especificada e implementada para executar sobre uma rede de longa distância (wide-área network-WAN), tipicamente a Internet. Neste ambiente, tais aplicações são sujeitas a defeitos do tipo colapso(falha geral num dado nó), teporização (flutuações na latência de comunicação) e omissão (perdas de mensagens). Para evitar que este defeitos gerem comseqüências indesejáveis e irreparáveis na aplicação, explora-se técnicas para tolerá-los. A abstração de detectores de defeitos não confiáveis auxilia a especificação e trato de algoritmos distribuídos utilizados em sistemas tolerantes a falhas, pois permite uma modelagem baseada na noção de estado (suspeito ou não suspeito) dos componentes (objetos, processo ou processadores) da aplicação. Para garantir terminação, os algoritmos de detecção de defeitos costumam utilizar a noção de limites de tempo de espera (timeout). Adicionalmente, para minimizar seu erro (falasas suspeitas) e não comprometer seu desempenho (tempo para detecção de um defeito), alguns detectores de defeitos ajustam dinamicamente o timeout com base em previsões do atraso de comunicação. Esta tese explora o ajuste dinâmico do timeout realizado de acordo com métodos de previsão baseados na teoria de séries temporais. Tais métodos supõem uma amostragem periódica e fornececm estimativas relativamente confiáveis do comportamento futuro da variável aleatória. Neste trabalho é especificado uma interface para transformar uma amostragem aperiódica do atraso de ida e volta de uma mensagem (rtt) numa amostragem periódica, é analisado comportamento de séries reais do rtt e a precisão dee sete preditores distintos (três baseados em séries temporais e quatrro não), e é avaliado a influência destes preditores na qualidade de serviço de um detector de defeitos do estilopull. Uma arquitetura orientada a objetos que possibilita a escolha/troca de algoritmos de previsão e de margem de segurança é também proposta. Como resultado, esta tese mostra: (i) que embora a amostragem do rtt seja aperiódica, pode-se modelá-la como sendo uma série temporal (uma amostragem periódica) aplciando uma interface de transformação; (ii) que a série temporal rtt é não estacionária na maioria dos casos de teste, contradizendo a maioria das hipóteses comumente consideradas em detectores de defeitos; (iii) que dentre sete modelos de predição, o modelo ARIMA (autoregressive integrated moving-average model) é o que oferece a melhor precisão na predição de atrasos de comunicação, em termos do erro quadrático médio: (iv) que o impacto de preditores baseados em séries temporais na qualidade de serviço do detector de defeitos não significativo em relação a modelos bem mais simples, mas varia dependendo da margem de segurança adotada; e (v) que um serviço de detecção de defeitos pode possibilitar a fácil escolha de algoritmos de previsão e de margens de segurança, pois o preditor pode ser modelado como sendo um módulo dissociado do detector.
Resumo:
A área de Detecção de Intrusão, apesar de muito pesquisada, não responde a alguns problemas reais como níveis de ataques, dim ensão e complexidade de redes, tolerância a falhas, autenticação e privacidade, interoperabilidade e padronização. Uma pesquisa no Instituto de Informática da UFRGS, mais especificamente no Grupo de Segurança (GSEG), visa desenvolver um Sistema de Detecção de Intrusão Distribuído e com características de tolerância a falhas. Este projeto, denominado Asgaard, é a idealização de um sistema cujo objetivo não se restringe apenas a ser mais uma ferramenta de Detecção de Intrusão, mas uma plataforma que possibilite agregar novos módulos e técnicas, sendo um avanço em relação a outros Sistemas de Detecção atualmente em desenvolvimento. Um tópico ainda não abordado neste projeto seria a detecção de sniffers na rede, vindo a ser uma forma de prevenir que um ataque prossiga em outras estações ou redes interconectadas, desde que um intruso normalmente instala um sniffer após um ataque bem sucedido. Este trabalho discute as técnicas de detecção de sniffers, seus cenários, bem como avalia o uso destas técnicas em uma rede local. As técnicas conhecidas são testadas em um ambiente com diferentes sistemas operacionais, como linux e windows, mapeando os resultados sobre a eficiência das mesmas em condições diversas.
Resumo:
Empresas de manufatura alocam uma grande quantidade de recursos no projeto de produtos confiáveis. Quando adequadamente projetados, tais produtos apresentam um número mínimo de falhas operacionais durante seu período de garantia e, de forma geral, durante sua vida útil. Falhas incorridas durante o período de garantia do produto implicam em custos indesejáveis. Assim, a incidência dessas falhas, bem como sua natureza, são normalmente registradas pelas empresas, na busca de informações que permitam aprimorar o projeto de produtos. Modelos de confiabilidade apropriados para estudos de engenharia são freqüentemente desenvolvidos a partir da análise de informações de desempenho em campo dos produtos de interesse. Esta dissertação propõe e exemplifica uma metodologia de análise de confiabilidade de produtos manufaturados, utilizando as informações disponíveis de volume produzido em um período de tempo e dados de tempos-até-falha obtidos da utilização da garantia do produto analisado. Como aplicação, foi realizada a modelagem da distribuição de confiabilidade de um modelo de aparelho condicionador de ar individual. Além da definição do modelo de distribuição da confiabilidade do produto e seus parâmetros, foram identificados os componentes críticos do sistema, os quais apresentam maior impacto sobre a confiabilidade do produto, quando ocorre melhoria de suas distribuições individuais de confiabilidade O trabalho apresenta, também, uma introdução sobre a teoria e princípio de funcionamento de unidades condicionadoras de ar, bem como uma revisão sobre os conceitos teóricos de confiabilidade, estimativas de parâmetros de modelos de distribuições, métodos de modelagens de distribuições e avaliação de confiabilidade utilizados na metodologia proposta.
Resumo:
A confiabilidade de sistemas de processamento digital de sinais é, entre tantos fatores, diretamente proporcional à confiabilidade dos conversores analógico-digitais neles presentes para serem usados como interface com o mundo real. Este trabalho propõe um método novo de teste de conversores analógico-digitais baseado em ruído. O método proposto possibilita a detecção de falhas nos conversores em teste. Além disto, a técnica proposta é capaz de estimar simultaneamente características estáticas e dinâmicas tornando-se, portanto, inovador em relação aos demais métodos presentes na literatura. A proposta, a simulação e a implementação do método são apresentadas ao longo desta dissertação. A comparação dos resultados obtidos com um método padrão de teste de ADCs, o método do histograma, comprovam a eficácia do método.
Resumo:
Este trabalho é um estudo aplicado da implementação e utilização do gerenciamento do crescimento da confiabilidade no setor de máquinas agrícolas na empresa John Deere Brasil SA. O uso de técnicas e softwares de confiabilidade para monitorar o desenvolvimento do projeto da colheitadeira de grãos – modelo da série 1100 – foi fundamental para determinar o momento exato de introduzir o produto no mercado. A análise das falhas dos produtos existentes, sugestões dos clientes e informações da área de suporte e serviços, serviram como base para a introdução de diversas melhorias para o novo modelo de colheitadeira. As principais atividades referentes à confiabilidade foram, a previsão da confiabilidade, testes e planejamento do crescimento da confiabilidade, modelagem do crescimento da confiabilidade e a análise dos dados obtidos com os testes de campo. O objetivo da implementação das ferramentas do gerenciamento do crescimento da confiabilidade foi administrar as informações dos eventos de testes de campo, para que as falhas verificadas durante o período de testes fossem reprojetadas e as ações corretivas implementadas e verificadas suas melhorias.
Resumo:
O desenvolvimento desse trabalho trata da construção discursiva do imigrante hispano-americano no Brasil, principalmente na região sul do país. O marco teórico que orienta esse estudo inclui-se na Análise da Discurso de linha francesa. Destacam-se aspectos importantes do trajeto discursivo que os imigrantes hispano-americanos produziram a partir da década de 60 e que se estende até a década de 90. Grande parte desse período coincide com o aparecimento das ditaduras militares em América Latina, demarcando, assim, um espaço histórico-discursivo específico. Da mesma forma, ressaltam-se implicações desse percurso imigrante quando discutimos a inserção na língua portuguesa, o que exige uma “negociação” com a língua materna espanhol. Podemos identificar esse movimento quando encontramos resistências expostas no âmbito enunciativo. Quando assinalamos esses dois pontos: inserção histórico-discursiva e inserção na língua portuguesa, nos apoiamos em dois conceitos desenvolvidos por Pêcheux em sua teoria discursiva, sendo eles: real da história e real da língua, os quais comportam aspectos de um indecifrável que tanto na história como na língua produzem fendas, que traduzidas enquanto falhas permitem oxigenação e deslocamento de significações. Finalmente e, conforme o quadro aqui exposto, cabe dizer que o fio que orienta nossa pesquisa procura elucidação sobre o processo que o imigrante hispano-americano realiza nesse acontecimento migratório e nele identificar os elementos num discurso que o represente.
Resumo:
As empresas, cada vez mais, buscam a redução de custo, para serem mais competitivas. A necessidade de aumentar a vida útil dos equipamentos, através de técnicas apropriadas é prioritário para manutenção dos ativos. Neste trabalho estudou-se o método para implantação da análise e monitoramento da vibração em equipamentos rotativos, com base nos conceitos da manutenção centrada em confiabilidade, usando técnicas preditiva e pró-ativa de manutenção pela condição, com foco na tarefa. Primeiramente foi analisado o comportamento dos componentes em relação ao processo de falha, como as falhas atuam, os tipos de modos de falha, falhas funcionais e seus efeitos. Após foram analisados e selecionados os critérios de níveis de vibração para os equipamentos rotativos em função da potência e rotação. Também, foi determinado em que condições os espectros seriam analisados em função da amplitude e freqüência de rotação. Então, foram preparados os locais para coletas dos dados de vibração. Assim, os níveis de vibração global foram coletados em função das amplitudes, em cada posição específica do equipamento em seu plano. Isto faz com que, análise dos níveis globais de vibração e o diagnóstico através do espectro e a forma de onda, permitissem encontrar a causa do problema. Finalmente, são apresentados os resultados em níveis de amplitude, espectro após ações, a correção da causa do problema e os tipos de defeitos de tendência de falhas e a implementação do método.
Resumo:
Numerosas pesquisas estão introduzindo o conceito de grupo em padrões abertos para programação distribuída. Nestas, o suporte a grupo de objetos por meio de middlewares, apresentam diferentes abordagens de interligação com a aplicação. Segundo princípios defendidos na tese de Felber, essas abordagens vão ao encontro do objetivo de facilitar o desenvolvimento e proporcionar confiabilidade e desempenho. Neste contexto, localizou-se três enfoques básicos para a interligação com a aplicação, denominados integração, serviço, e interceptação, que utilizam a captura de mensagens para obtenção de informações ou como meio para adicionar novas funcionalidades às aplicações. A utilização dessas informações pode auxiliar no ajuste de parâmetros funcionais de serviços relacionados, na escolha de mecanismos, influindo em aspectos como, desempenho e segurança. Ao longo do estudo dessas abordagens, sentiu-se a necessidade de estudar detalhes e testar aspectos de implementação, suas premissas de uso e as conseqüências advindas da incorporação de seus mecanismos junto à aplicação. Este trabalho visa apresentar uma análise do comportamento das referidas abordagens por meio da implementação de protótipos, possibilitando assim, investigar problemas relacionados ao emprego da técnica e suas conseqüências quando integradas à aplicação. Os objetivos específicos reúnem a busca de informações qualitativas, tais como: modularidade, transparência, facilidade de uso e portabilidade; e informações quantitativas, fundamentalmente traduzidas pelo grau de interferência no desempenho da aplicação. O desenvolvimento dos protótipos teve como início a busca por um ambiente que ofereceria suporte as condições necessárias para a implementação das diferentes abordagens. Percebeu-se que definir os mecanismos diretamente sobre uma linguagem de programação, como C ou C++, não era viável. As versões padrões dessas linguagens não oferecem mecanismos capazes de suportar algumas características de implementação como, por exemplo, a captura de mensagens na abordagem de interceptação. A possibilidade é introduzida apenas por extensões dessas linguagens. Assim, a investigação de um ambiente de implementação voltou-se para mecanismos disponíveis em sistemas operacionais. A opção pela utilização do Linux visou atender alguns requisitos importantes para o desenvolvimento dos protótipos tais como: facilidade de instalação, boa documentação e código aberto. Este último é um ponto essencial, pois a construção de parte dos protótipos explora a programação em nível do sistema operacional. A linguagem de programação C foi escolhida como base para a implementação, já que as diferentes abordagens exploram tanto o nível do kernel como o nível do usuário, e é compatível com o Linux. A etapa de desenvolvimento dos protótipos possibilitou a coleta de informações sobre aspectos qualitativos. As demais informações que fazem parte do perfil levantado por este trabalho sobre as abordagens, foram obtidas através da utilização dos protótipos em experimentos com duas aplicações distribuídas denominadas de “Ping-Pong” e “Escolha de Líderes”, que têm como característica geral à troca de mensagens, utilizando comunicação através de sockets. A realização de medidas em múltiplas execuções, avaliadas após o tratamento estatístico necessário, permitiu definir um perfil das diferentes abordagens.
Resumo:
Neste trabalho apresenta-se um método de desenvolvimento integrado baseado no paradigma de orientação a objetos, que visa abordar todo o ciclo de desenvolvimento de uma aplicação tempo real. Na fase de especificação o método proposto baseia-se no uso de restrições temporais padronizadas pelo perfil da UML-TR, sendo que uma alternativa de mapeamento destas restrições para o nível de programação é apresentada. Este mapeamento serve para guiar a fase de projeto, onde utilizou-se como alvo a interface de programação orientada a objetos denominada TAFT-API, a qual foi projetada para atuar junto ao ambiente de execução desenvolvido no âmbito desta tese. Esta API é baseada na especificação padronizada para o Java-TR. Este trabalho também discute o ambiente de execução para aplicações tempo real desenvolvido. Este ambiente faz uso da política de escalonamento tolerante a falhas denominada TAFT (Time-Aware Fault- Tolerant). O presente trabalho apresenta uma estratégia eficiente para a implementação dos conceitos presentes no escalonador TAFT, que garante o atendimento a todos os deadlines mesmo em situações de sobrecarga transiente. A estratégia elaborada combina algoritmos baseados no Earliest Deadline, sendo que um escalonador de dois níveis é utilizado para suportar o escalonamento combinado das entidades envolvidas. Adicionalmente, também se apresenta uma alternativa de validação dos requisitos temporais especificados. Esta alternativa sugere o uso de uma ferramenta que permite uma análise qualitativa dos dados a partir de informações obtidas através de monitoração da aplicação. Um estudo de caso baseado em uma aplicação real é usado para demonstrar o uso da metodologia proposta.
Resumo:
Este trabalho tem como objetivo analisar os principais fatores envolvidos no desenvolvi- mento e funcionamento da indústria de gás natural, para então detectar e diagnosticar as principais falhas existentes no mercado brasileiro de gás. A análise é realizada a partir da caracterização dos diversos desenhos de mercado da indústria de gás natural presentes no mundo (desde a estrutura totalmente verticalizada até a mais competitiva, com a presença de mercados de atacado e varejo). Pontos importantes são ressaltados tais como os princípios de precificação do gás em cada modelo, as práticas regulatórias empregadas e as principais estruturas surgidas. Destas, destacam-se as relações entre os agentes nos mercados de varejo competitivos, o livre acesso, o bypass físico e comercial e o surgimento do mercado spot. Essa linha de trabalho culmina com a análise da atual estrutura do mercado de gás natural no Brasil, assim como possíveis desenhos que essa indústria poderá atingir a médio e longo prazos dependendo dos mecanismos regulatórios utilizados. Para isso, são apresentados os modelos de gás existentes e a interação entre eles. Ressalta-se, também, a importância do livre acesso para o desenvolvimento do setor no Brasil.
Resumo:
Este trabalho apresenta a proposta e a implementação de um sistema de gerência de energia para redes locais de computadores (Local Area Networks ou LANs). Desde sua introdução, no início dos anos 90, os mecanismos de gerência de energia para computadores têm contribuído de maneira significativa para a redução do consumo nos períodos de inatividade, mas podem ter seu efeito minimizado por uma série de fatores, dentre os quais destaca-se a conexão do equipamento a uma rede. Em linhas gerais, o objetivo do sistema proposto é, justamente, facilitar a gerência de energia em ambientes de rede. O funcionamento do sistema é baseado na aplicação de políticas de consumo definidas pelo administrador da rede. As políticas podem ser aplicadas em duas situações distintas: em horários pré-determinados (p. ex. depois do horário comercial), quando podem ajudar a reduzir o desperdício de energia, ou em resposta a alterações no fornecimento de energia, caso a rede seja protegida por no-breaks, quando a redução no consumo resulta em maior tempo de autonomia da fonte reserva (banco de baterias). As políticas são configuradas através de um mecanismo flexível, que permite não apenas desligar os equipamentos, mas colocá-los em estados intermediários de consumo e executar outros tipos de ações. A arquitetura do sistema é baseada no modelo SNMP (Simple Network Management Protocol) de gerência de redes. É composta, basicamente, de agentes, elementos de software que residem nos equipamentos da rede e detêm o conhecimento específico sobre suas características de consumo de eletricidade, e de um gerente, elemento central que contém a configuração das políticas de consumo e que é responsável pelo monitoramento e controle dos agentes. Gerente e agentes comunicam-se através do protocolo SNMP, trocando informações segundo uma base de informações (MIB) projetada especificamente para a gerência de energia. A ênfase da parte prática do trabalho está no gerente, que foi inteiramente implementado através da linguagem Java, utilizando bibliotecas disponíveis gratuitamente. Adicionalmente, foi implementado um agente-protótipo para a plataforma Windows, o que permitiu observar o sistema completo em execução. Os testes permitiram validar a praticabilidade da arquitetura e estimar o ganho potencial proporcionado pela utilização do sistema. São apresentadas medições que demonstram um aumento de até 6 vezes na autonomia do banco de baterias do no-break para uma configuração de rede pequena, utilizando o sistema para desligar automaticamente 90% dos computadores durante um corte no fornecimento externo. A economia decorrente da redução de consumo em horários de inatividade foi estimada em até R$0,63 por computador no período de um ano (tomando por base a tarifa média praticada no Brasil entre janeiro e maio de 2002).