34 resultados para Gerencia

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The purpose of this study was make an utterance of the managerial style of the public executive from Santa Catarina and compare it with public executives from Minas Gerais and United States, considering their capacity in giving and receiving feedback and their opening or auto-expositions in the interrelations with subordinates. It began with a review of the literature about functions and managerial style from several contributions that exist in the theory of the organizations. The theoric countersignement used in this essay was stablished in “Johari’s Window”, of Luft, that brought the possibility of the analysis of the interpersonal relations, considering the feedback variants and opening. The research is descriptive and still comparative, being applied to public executives from Santa Catarina, between the occupants of the first and the second hierarchic rungs. The instrument used was the questionnaire “Personel Relations Surwey”, of John Hall and Martha Williams, the same was applied at the researches that had been made in Minas Gerais and in United States. It was evident, by the statistic analysis in coherence with the theoric model, several conclusions, among them we detach: a) The unexistence of a standart managerial style between public executives from Santa Catarina; b) Executives from this state use more feedback than executives from Minas Gerais and the same as north-americans; c) The executives from Santa Catarina have more opening (overture) than mineiros and north-americans; d) Some personel variants interfere in the managerial style of the public executive from Santa Catarina.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho define e implementa um sistema de controle de consumo para redes de computadores, objetivando aumentar o tempo de operação da rede em caso de operação com recursos limitados e redução de consumo de energia em situações de fornecimento normal. Na definição do sistema, denominado NetPower, foi estabelecida uma estrutura através da qual um gerente (coordenador) monitora as atividades dos equipamentos vinculados à rede, e determina alterações nos estados de consumo respectivos, de acordo com as necessidades ou atendimento de padrões de otimização. Aos equipamentos podem ser atribuídos diferentes privilégios em uma hierarquia adaptável a diversos ambientes. Um reserva oferece opção às falhas do gerente. A implementação está baseada no protocolo SNMP (Simple Network Management Protocol) para a gerência e são considerados preponderantemente os padrões para controle de consumo dos equipamentos Advanced Power Management, APM, e Advanced Configuration and Power Interface Specification, ACPI. Além da arquitetura do gerente e dos agentes, foi definida também uma MIB (Management Information Base) para controle de consumo. No projeto do sistema, foi privilegiado o objetivo de utilização em qualquer ambiente de rede, sem preferência por equipamentos de algum fabricante específico ou por arquitetura de hardware. Tecnologias de domínio público foram utilizadas, quando possível. No futuro este sistema pode fazer parte da distribuição de sistemas operacionais, incorporando controle de consumo às redes. No texto é feita uma comparação entre os softwares existentes para controle de consumo, são apresentados os recursos de controle de consumo disponíveis nos equipamentos de computação, seguido da descrição do protocolo de gerência utilizado. Em seguida, é apresentada a proposta detalhada do sistema de controle e descrita da implementação do protótipo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As empresas rompem seus paradigmas porque a competitividade as obriga a isso em função do mundo globalizado, no qual estão inseridas hoje. Para uma empresa que vive nesse contexto, a tecnologia da informação é uma ferramenta auxiliar no processo de gerenciamento e tratamento das mesmas. Os Sistemas Gerenciais de Gestão Empresarial (ERP's) estão ajudando a suprir as carências demandadas pelas empresas no sentido de fazerem frente ao contexto atual. Mesmo assim, com tecnologias a ajudá- las, são as pessoas (gestores e equipe), as implementadoras desses sistemas. Tais sistemas em função da velocidade de implantação, fazem com que os gestores sofram demasiado peso de responsabilidades, pois não são suficientemente preparados para serem "coachs", ou seja, ensinarem sua equipe e participarem com a mesma, dos processos de transformações. Além disso, sofrem todos em função de que as atividades diárias da empresa não param diante de tais trans formações, gerando ao mesmo tempo dificuldades e embates naturais para serem administrados. Neste contexto a influência do gestor na mudança, competência que interessa neste estudo, é peça importante para a condução desse processo. Os objetivos que permearam esta pesquisa se baseiam na questão de como os gestores podem influenciar no nível de participação das pessoas num processo de mudança. No caso abordado, observa-se que em função dos problemas relatados na empresa em estudo, houve má condução na impleme ntação, causada pelo nível de envolvimento apresentado pelas pessoas não ter sido o suficiente. Para o levantamento dos dados utilizou-se fonte múltipla de coleta como observação participante, questionário, registros em arquivos e documentos. A análise foi efetuada com base nos dados coletados e no referencial teórico constante neste estudo. O resultado da análise apresentou 10 pontos críticos os quais estão compostos nos seguintes grandes enfoques: processo decisório, condução, desenvolvimento, cronograma do projeto e pessoas na organização. Para estes pontos críticos foram elaboradas sugestões, tais como políticas de envolvimento e comprometimento, visando através destas a construção de um referencial exploratório para futuras ações da organização em estudo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho investiga a aplicação de métodos e técnicas de correlação de alarmes na detecção e diagnóstico de falhas em sistemas supervisionados por computador. Atualmente, alguns centros de supervisão ainda não se utilizam destas técnicas para o tratamento das informações recebidas de suas redes de supervisão, ficando para os operadores a responsabilidade de identificar estas correlações. Com o crescente volume de informações recebidas pelos centros de supervisão, devido ao aumento da heterogeneidade e do número de equipamentos supervisionados, torna a identificação manual da correlação dos alarmes lenta e pouco precisa. Objetivando melhorar a qualidade do serviços prestados pelos centros de supervisões, este trabalho propõe o uso de uma rede Bayesiana como método de correlação de alarmes e uma técnica de limitação de escopo para atingir uma melhor performance na propagação desta correlação. Através dos conceitos desenvolvidos neste trabalho, foi implementado um protótipo de correlação de alarmes para um sistema de supervisão existente no mercado, neste protótipo modela-se a rede Bayesiana em um banco de dados relacional e, como resultado desta implementação apresenta-se a interface desenvolvida para a supervisão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O gerenciamento de redes de computadores é uma tarefa complexa de ser realizada porque a redes atualmente possuem muitos equipamentos, protocolos, serviços e usuários. Como regra geral, redes de computadores são heterogêneas e a introdução de facilidades para o fornecimento de qualidade de serviço (QoS) faz com que a gerência de redes se torne ainda mais complexa, e neste cenário as soluções tradicionais de gerenciamento podem falhar. O gerenciamento de redes com QoS vem sendo investigado por diversos grupos, e soluções comerciais para o problema já podem ser encontradas. Entretanto, a gerência de QoS possui aspectos diversos que são investigados separadamente. Do ponto de vista do administrador de redes, soluções pontuais são importantes, mas a integração entre os diversos aspectos de gerência de QoS também é uma necessidade. Tal necessidade, entretanto, não tem encontrado respaldo nas pesquisas desenvolvidas ou nos produtos de gerenciamento disponibilizados no mercado. Nesta situação, o administrador da rede é obrigado a trabalhar ao mesmo tempo com soluções disjuntas que não oferecem integração. Isso acaba por complicar a gerência de QoS, que por si só já é uma atividade complexa. QoS e discutida a necessidade de integração. As soluções existentes e pesquisas desenvolvidas são classificadas para que possam ser mais bem avaliadas em uma visão mais global. A classificação realizada organiza os aspectos de QoS em tarefas de gerência de QoS que devem ser executadas por um administrador de redes que possuam facilidades de QoS. Para que a integração das tarefas de gerência de QoS seja possível, um modelo para gerência integrada de QoS em redes de computadores é proposto. O modelo, definido em camadas, utiliza elementos distribuídos na rede para executar tarefas específicas e um ambiente de gerência central fornece uma interface única de acesso ao sistema de gerência ao administrador da rede. O modelo proposto é analisado de acordo com alguns aspectos (por exemplo, em relação à sua escalabilidade, flexibilidade e exeqüibilidade). Uma implementação do mesmo é apresentada para a gerência de redes baseadas em IP que possuam mecanismos para fornecimento de QoS. A avaliação do modelo mostra, ao final, que a gerência de QoS, além de ser uma necessidade real, é possível de ser executada de forma integrada, como desejam os administradores de rede.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As transformações sociais, políticas e econômicas verificadas em escala global têm influenciado sensivelmente na definição de um novo papel e nova conformação do município enquanto ente integrante da federação. Neste contexto, busca-se investigar, em particular, a efetiva adequação das estruturas de cargos de provimento efetivo vigentes numa amostra de três pequenos municípios situados na região da Grande Porto Alegre - RS. A verificação desta adequação toma por orientação as necessidades efetivas da administração pública, bem como as realidades observadas no ambiente local. Buscando captar a percepção de pessoas envolvidas diretamente com a formulação, gerenciamento e controle das estruturas de cargos vigentes nos municípios pesquisados, realiza-se um estudo que parte de uma coleta de dados baseada em fontes secundárias e avança para uma pesquisa in loco, que tem o propósito de levantar as necessidades e a natureza das atividades efetivamente desenvolvidas pelos servidores públicos nas prefeituras. O estudo evidencia contradições entre proposições legais e orientações teóricas, acerca da definição das estruturas de cargos, e necessidades reais das administrações municipais quanto a pessoas e postos de trabalho. Verifica-se, assim, um confronto entre as estruturas formais e as estruturas reais em vigor. Os resultados alcançados na pesquisa apontam para a existência de desconformidades entre as estruturas de cargos administrativos e operacionais definidas em lei e as reais necessidades dos municípios. Pôde-se perceber, nos três casos estudados, que a prática administrativa atual reflete um paradoxo. De um lado, existem sólidas orientações e pressupostos burocráticos e legalistas (princípio da legalidade administrativa) e, de outro, realidades permeadas de ilegalidades e desvios de função, que se justificam pela efetiva realidade dos governos municipais, que são pressionados por novas, muitas e diferentes demandas sociais. A partir da análise das realidades encontradas nos três casos estudados, sugeremse estruturas mais flexíveis e adequadas às necessidades dos respectivos municípios, evidenciando, assim, que os seus quadros de pessoal podem ser conformados a um novo e mais moderno papel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A área de gerência de rede cresce à medida que redes mais seguras e menos vulneráveis são necessárias, e as aplicações que concorrem pelo seu uso, necessitam de alta disponibilidade e qualidade de serviço. Quando estamos focando a gerência da infra-estrutura física das redes de computadores, por exemplo, a taxa de uso de um segmento de rede, podemos dizer que esse tipo de gerenciamento encontra-se em um patamar bastante sedimentado e testado. Por outro lado, há ainda lacunas para pesquisar na área de gerenciamento de protocolos de alto nível. Entender o comportamento da rede como um todo, conhecer quais hosts mais se comunicam, quais aplicações geram mais tráfego e, baseado nessas estatísticas, gerar uma política para a distribuição de recursos levando em consideração as aplicações críticas é um dever nas redes atuais. O grupo de trabalho IETF RMON padronizou, em 1997, a MIB RMON2. Ela foi criada para permitir a monitoração de protocolos das camadas superiores (rede, transporte e aplicação), a qual é uma boa alternativa para realizar as tarefas de gerenciamento recém mencionadas. Outro problema para os gerentes de rede é a proliferação dos protocolos de alto nível e aplicações corporativas distribuídas. Devido a crescente quantidade de protocolos e aplicações sendo executados sobre as redes de computadores, os softwares de gerenciamento necessitam ser adaptados para serem capazes de gerenciá-los. Isso, atualmente, não é fácil porque é necessário usar linguagens de programação de baixo nível ou atualizar o firmware dos equipamentos de monitoração, como ocorre com os probes RMON2. Considerando este contexto, esse trabalho propõe o desenvolvimento de um agente RMON2 que contemple alguns grupos dessa MIB. O agente baseia-se na monitoração protocolos de alto nível e aplicações que são executados sobre o IP (Internet Protocol) e Ethernet (na camada de enlace). Além da implementação do agente, o trabalho apresenta um estudo de como obter estatísticas do agente RMON2 e usá-las efetivamente para gerenciar protocolos de alto nível e aplicações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho realiza uma validação experimental, através da técnica de injeção de falhas por software, de sistemas de informações que utilizam gerenciadores de banco de dados distribuídos comerciais. Estes experimentos visam a obtenção de medidas da dependabilidade do SGBD utilizado, levantamento do custo de seus mecanismos de tolerância a falhas e a real aplicabilidade de SGBDs comerciais em sistemas de missão crítica. Procurou-se avaliar e validar as ferramentas de injeção de falhas utilizadas, no caso específico deste trabalho a ComFIRM e o FIDe. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho. Em seguida são apresentadas algumas ferramentas de injeção de falhas em sistemas distribuídos, bem como os modelos de falhas em banco de dados distribuídos. São analisados alguns estudos de aplicação de ferramentas de injeção de falhas em bancos de dados distribuídos. Concluída a revisão bibliográfica é apresentado o modelo de software e hardware que foi implementado, destacando o gerador de cargas de trabalho GerPro-TPC e o gerenciador de injeções e resultados GIR. O GerPro-TPC segue as especificações TPC-c para a simulação de um ambiente transacional comercial padrão e o GIR realiza a integração das ferramentas de injeção de falhas utilizadas, bem como a elaboração do cenário de falhas a injetar e a coleta dos resultados das falhas injetadas. Finalmente são descritos os experimentos realizados sobre o SGBD PROGRESS. São realizados 361 testes de injeções de falhas com aproximadamente 43.000 falhas injetadas em experimentos distintos. Utiliza-se dois modelos de falhas: um focado em falhas de comunicação e outro em falhas de hardware. Os erros resultantes das falhas injetadas foram classificados em erros ignorados/mascarados, erros leves, erros graves e erros catastróficos. Dos modelos de falhas utilizados as que mais comprometeram a dependabilidade do SGBD foram as falhas de hardware. As falhas de comunicação somente comprometeram a disponibilidade do sistema alvo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A sociedade vive atualmente a era da competitividade, na qual os desafios são mais difíceis e complexos. Os órgãos governamentais enfrentam terríveis déficits, aumento de demanda no campo de serviços tradicionais e, principalmente, na área da saúde pública para atender as necessidades da população. Cientes dessas dificuldades e com vistas a minimizar os desafios enfrentados pela Secretaria de Saúde de Pelotas, este trabalho de pesquisa aborda o gerenciamento na administração de medicamentos desta Secretaria. O trabalho visou analisar os processos que influenciam na dispensação de medicamentos pela Farmácia Municipal. Medicamentos da rede básica são distribuídos aos postos de saúde e medicamentos controlados aos usuários finais. O estudo atingiu quatro zonas urbanas e uma rural, sendo que na zona do centro encontra-se a Farmácia Municipal. A abordagem proposta identificou várias oportunidades de melhoria, revelando a necessidade de interferir em algumas zonas onde determinados itens e subitens obtiveram pontuação abaixo da faixa esperada. Essa situação conduziu o pesquisador a elaborar um plano de ação que permita, ao mesmo tempo, atender a demanda assim como reforçar a organização na dispensação de medicamentos básicos e controlados pela Farmácia Municipal, contribuindo para a melhoria dos serviços prestados ao município de Pelotas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho identifica os reflexos das reestruturações organizacionais implantadas em empresas de pequeno, médio e grande porte, pertencentes ao setor Metal-Mecânico, de Caxias do Sul, no perfil da liderança intermediária no que se refere a sua função de elo entre o capital e o trabalho. Por meio de uma investigação de natureza qualitativa, identifica-se, numa primeira fase, a visão da direção das empresas estudadas, sobre qual o perfil técnico e gerencial desejado da liderança intermediária, no que se refere a conhecimentos, habilidades e atitudes. Numa segunda fase, são entrevistados os próprios lideres intermediários, destas empresas, com o objetivo de verificar suas percepções sobre o perfil do líder, após as reestruturações implantadas, e de comparar com as expectativas da direção das empresas. Busca-se, com isto, estabelecer o vínculo entre estas percepções e os modelos teóricos sobre liderança com a intenção de identificar com qual destas abordagens a orientação dos entrevistados mais se aproxima. Conclui-se que há reflexos neste perfil, mas não acontecem somente devido às reestruturações organizacionais, mas, também do ambiente de trabalho e do quanto a direção das empresas assimilou a necessidade desta mudança, permitindo aos líderes uma abertura para manifestações que contribuam nas decisões estratégicas da empresa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As redes de computadores experimentam um grande crescimento não apenas em tamanho, mas também no número de serviços oferecidos e no número de protocolos de alto nível e aplicações que são executados sobre elas. Boa parte desses software (ex.: ICQ e Napster), em geral, não está diretamente ligada a aplicações críticas, mas o seu uso não controlado pode degradar o desempenho da rede. Para que se possa medir o impacto dos mesmos sobre a infra-estrutura, mecanismos de gerência ligados à contabilização e caracterização de tráfego são desejáveis. Por outro lado, alguns protocolos, serviços e aplicações (ex. servidores DNS e Web) suportam aplicações e precisam ser monitorados e gerenciados com maior atenção. Para essa classe de software de rede, a simples contabilização e caracterização de tráfego não é suficiente; tarefas de gerência como teste de serviços, detecção e manipulação de falhas, medição de desempenho e detecção de intrusão são importantes para garantir alta disponibilidade e eficiência da rede e aplicações. As ferramentas existentes para essa finalidade são, entre aspectos, (a) não integradas (necessidade de uma ferramenta para monitorar cada aplicação), (b) centralizadas (não oferecem suporte à distribuição de tarefas de gerenciamento) e (c) pouco flexíveis (dificuldade em gerenciar novos protocolos, serviços e aplicações). Nesse contexto, a tese propõe uma arquitetura, centrada na monitoração passiva em temporal do tráfego de rede, para gerenciamento distribuído de protocolos de alto nível, serviços e aplicações em rede. Baseada da MIB (Management Information Base) Script do IETF (Internet Engineering Task Force), a arquitetura Trace oferece mecanismos para a delegação de tarefas de gerenciamento a gerentes intermediários, que interagem com agentes de monitoração e agentes de ação para executá-las. A tese propõe também PTSL (Protocol Trace Specification Language), uma linguagem gráfica/textual criada para permitir que gerentes de rede especificam as interações de protocolos (traços) que lhes interessam monitorar. As especificações são usadas pelso gerentes intermediários para programar os agentes de monitoração. Uma vez programadas, esses agentes passam a monitorar a ocorrência dos traços.As informações obtidas são analisadas pelos agentes intermediários, que podem requisitar de ação a execução de procedimentos (ex: scripts Perl), possibilitando a automação de diversas tarefas de gerenciamento. A arquitetura proposta é validada por um protótipo: a plataforma de gerenciamento Trace.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em linhas gerais, este trabalho aborda os temas de armazenamento de grandes volumes de imagens no formato DICOM, e a recuperação das mesmas com base em informações associadas a estas imagens (metadados independentes do conteúdo), informações obtidas na fase da interpretação das imagens (metadados descritivos de conteúdo), ou usando informações visuais que foram anotadas nas imagens ou extraídas das mesmas, por médicos especialistas em imagens médicas (metadados dependentes do conteúdo). Este trabalho foi desenvolvido com o propósito de elaborar uma modelagem conceitual que permita a descrição dos dados relevantes de imagens no formato DICOM, de maneira a facilitar a recuperação das mesmas posteriormente. As classes pertencentes ao modelo conceitual, decorrentes dessa modelagem, viabilizam a documentação de imagens médicas estáticas no formato DICOM. Visando o armazenamento de um grande volume de imagens médicas por um longo período de tempo, e considerando o desenvolvimento de uma solução economicamente viável para as instituições que provêm diagnóstico médico por imagens, o modelo propõe o armazenamento das imagens em um ambiente separado do banco de dados. Portanto, este trabalho apresenta uma solução que gerencia a localização das imagens em mídias on-line, near-line e off-line. Este gerenciamento mantém o banco de dados atualizado quanto à localização atual das imagens, mantém as imagens armazenadas e distribuídas em mídias conforme a disponibilidade dos recursos físicos de armazenamento, e auxilia na recuperação das imagens. Este modelo serviu como base para a implementação de um sistema protótipo que possibilita a descrição e a recuperação de imagens DICOM. Os resultados obtidos através da implementação do sistema protótipo, em termos de armazenamento, recuperação e gerenciamento da localização das imagens nos diferentes ambientes (online, near-line e off-line), são apresentados e discutidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma arquitetura para Ambientes de Desenvolvimento de Software (ADS). Esta arquitetura é baseada em produtos comerciais de prateleira (COTS), principalmente em um Sistema de Gerência de Workflow – SGW (Microsoft Exchange 2000 Server – E2K) - e tem como plataforma de funcionamento a Internet, integrando também algumas ferramentas que fazem parte do grande conjunto de aplicativos que é utilizado no processo de desenvolvimento de software. O desenvolvimento de um protótipo (WOSDIE – WOrkflow-based Software Development Integrated Environment) baseado na arquitetura apresentada é descrito em detalhes, mostrando as etapas de construção, funções implementadas e dispositivos necessários para a integração de um SGW, ferramentas de desenvolvimento, banco de dados (WSS – Web Storage System) e outros, para a construção de um ADS. O processo de software aplicado no WOSDIE foi extraído do RUP (Rational Unified Process – Processo Unificado Rational). Este processo foi modelado na ferramenta Workflow Designer, que permite a modelagem dos processos de workflow dentro do E2K. A ativação de ferramentas a partir de um navegador Web e o armazenamento dos artefatos produzidos em um projeto de software também são abordados. O E2K faz o monitoramento dos eventos que ocorrem dentro do ambiente WOSDIE, definindo, a partir das condições modeladas no Workflow Designer, quais atividades devem ser iniciadas após o término de alguma atividade anterior e quem é o responsável pela execução destas novas atividades (assinalamento de atividades). A arquitetura proposta e o protótipo WOSDIE são avaliados segundo alguns critérios retirados de vários trabalhos. Estas avaliações mostram em mais detalhes as características da arquitetura proposta e proporcionam uma descrição das vantagens e problemas associados ao WOSDIE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é propor um modelo de gestão que integre Planejamento Estratégico, Gerenciamento de Processos e Avaliação de Desempenho, visando preencher uma lacuna identificada na gestão empresarial – a falta de integração entre as diretrizes estratégicas e a operação das empresas. Estes módulos são apresentados contemplando uma perspectiva histórica para a contextualização do problema, e suas inter-relações são discutidas. Considerando os indicadores de desempenho como elemento integrador dos outros dois módulos, faz-se a discussão e comparação de diversos modelos que se propõem a atender a necessidade atual de medição do desempenho organizacional. Da interação entre a revisão bibliográfica e aplicações práticas, chega-se ao modelo proposto, apresentando sua estrutura geral e seu procedimento para implantação, denominando-o “MEIO” – Modelo de Estratégia, Indicadores e Operações, com o qual se almeja estar contribuindo para a melhoria potencial da gestão das empresas. Este modelo se caracteriza por sua flexibilidade, permitindo que as empresas construam seu modelo de gestão por partes, começando por qualquer um dos módulos do MEIO, o que é importante dado que elas se encontram em estágios diferentes de desenvolvimento em termos de gestão. Além disso, como característica de sua proposta de integração, o próprio modelo induz a construção das outras partes que porventura não estejam devidamente implantadas ou em uso pela empresa. O modelo é aplicado em três empresas de diferentes segmentos, portes e estágios de maturidade em termos de gestão. Essas aplicações práticas do modelo MEIO, mesmo que parcialmente, mostram resultados quantitativos e qualitativos para as empresas, os quais são analisados e discutidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho propõe a utilização da arquitetura Trace como um sistema de detecção de intrusão. A arquitetura Trace oferece suporte ao gerenciamento de protocolos de alto nível, serviços e aplicações através de uma abordagem baseada na observação passiva de interações de protocolos (traços) no tráfego de rede. Para descrever os cenários a serem monitorados, é utilizada uma linguagem baseada em máquinas de estado. Esta linguagem permite caracterizar aspectos observáveis do tráfego capturado com vistas a sua associação com formas de ataque. O trabalho mostra, através de exemplos, que esta linguagem é adequada para a modelagem de assinaturas de ataques e propõe extensões para permitir a especificação de um número maior de cenários ligados ao gerenciamento de segurançaa. Em seguida, é descrita a implementação do agente de monitoração, componente-chave da arquitetura Trace, e sua utilização para detectar intrusões. Esse agente (a) captura o tráfego da rede, (b) observa a ocorrência dos traços programados e (c) armazena estatísticas sobre a sua ocorrência em uma base de informações de gerenciamento (MIB { Management Information Base). O uso de SNMP permite a recuperação destas informações relativas µa ocorrências dos ataques. A solução apresentada mostrou ser apropriada para resolver duas classes de problemas dos sistemas de detecção de intrusão: o excesso de falsos positivos e a dificuldade em se modelar certos ataques.