109 resultados para ANÁLISE DE SISTEMAS
Resumo:
A tomada de decisão é fator crucial nas organizações. As informações para subsidiar estes processos decisórios é que permitem ao decisor minimizar as incertezas e decidir melhor. Para que estas informações estejam disponíveis, devem ser construídos Sistemas de Informações (SI) com base nas necessidades dos decisores, através da adequada definição dos requisitos de informações. Este trabalho tem como objetivo a validação externa da metodologia Análise Focada na Decisão (AFD), desenvolvida por Santos, Becker e Fisher (1998) e que tem por objetivo definir os requisitos de informações para o desenvolvimento de SI. Tem como foco da análise o processo decisório e é composta por fases seqüenciais de atividades de análise e de modelagem de sistema, resultando um modelo integrado de fluxo de dados, onde os objetos estão centrados nas classes de decisões. A aplicação da AFD foi realizada em um hospital regional filantrópico, através de estudo de caso, sendo o Prontuário do Paciente (PP) o elemento central de integração. O objetivo da aplicação da metodologia é a definição das informações essenciais do PP, tendo como classes de decisão os usuários representativos das áreas médica, de enfermagem e administrativa e o modelo integrado resultante é a base para a definição das informações essenciais do PP. Pode-se concluir que a AFD é uma metodologia adequada para a definição de requisitos de informações, uma vez que os resultados de sua aplicação foram extremamente satisfatórios, pois, além do alcance dos objetivos propostos, propiciou mudanças na empresa.
Resumo:
Neste trabalho estudamos modelos teóricos que descrevem sistemas eletrônicos fortemente correlacionados, em especial o modelo t-J, e suas aplicações a compostos de óxidos de cobre, notadamente os compostos que apresentam supercondutividade de alta temperatura crítica e o composto Sr2CuO2Cl2. No primeiro capítulo do trabalho, fazemos uma exposição de três modelos que envolvem o tratamento das interações elétron-elétron, que são os modelos de Hubbard de uma banda, o modelo de Heisenberg e o modelo t-J. Na dedução deste último fazemos uma expansão canônica do hamiltoniano de Hubbard, no limite de acoplamento forte, levando-nos a obter um novo hamiltoniano que pode ser utilizado para descrever um sistema antiferromagnético bidimensional na presen- ça de lacunas, que é exatamente o que caracteriza os compostos supercondutores de alta temperatura crítica na sua fase de baixa dopagem.Após termos obtido o hamiltoniano que descreve o modelo t-J, aplicamos à este uma descrição de polarons de spin, numa representação de holons, que são férmions sem spin, e spinons, que são bósons que carregam somente os graus de liberdade de spin. Utilizando uma função de Green para descrever a propagação do polaron pela rede, obtemos uma equação para a sua autoenergia somando uma série de diagramas de Feynman, sendo que para este cálculo utilizamos a aproxima ção de Born autoconsistente[1]. Do ponto de vista numérico demonstramos que a equação integral de Dyson resultante do tratamento anterior não requer um procedimento iterativo para sua solução, e com isto conseguimos trabalhar com sistemas com grande número de partículas. Os resultados mostram, como um aspecto novo, que o tempo de vida média do holon tem um valor bastante grande no ponto (π,0 ) da rede recíproca, perto da singularidade de Van Hove mencionada na literatura[2]. Este aspecto, e suas implicações, é amplamente discutido neste capítulo. No capítulo 3 estudamos o modelo estendido t-t'-J, com tunelamento à segundos vizinhos e a incorporação dos termos de três sítios[3]. Fazemos a mesma formulação do capítulo anterior, e discutimos as aplicações dos nossos resultados ao óxido mencionado anteriormente. Finalmente, no último capítulo apresentamos uma aplicação original do modelo t-J à uma rede retangular, levemente distorcida, e demonstramos que os resultados do capítulo 3 são reproduzidos sem necessidade de introduzir termos de tunelamento adicionais no hamiltoniano. Esta aplicação pode se tornar relevante para o estudo das fases de tiras encontradas recentemente nesses materiais de óxidos de cobre.
Resumo:
Esta pesquisa tem como objetivo validar externamente a Metodologia da Análise Focada na Decisão (AFD) desenvolvida por Santos, Becker e Fisher (1998) a partir do estudo de atividades desenvolvidas por um grupo de funcionários da Secretaria de Estado da Agricultura do Paraná – SEAB. A AFD define os requisitos de informações para o desenvolvimento de Sistema de Informação (SI), com foco de análise no processo decisório e executada em fases seqüenciais de análise e de modelagem de sistema. A aplicação da AFD foi realizada na SEAB, através do estudo feito junto à Divisão de Produção de Sementes e Mudas, o foco das observações. Utilizando-se a AFD definiu-se as informações essenciais, tendo como classes de decisão aquelas geradas pelos funcionários que atuam direta e indiretamente com a citada Divisão. A AFD mostrou-se um método adequado para a definição de requisitos de informações, pois os resultados de sua aplicação foram relevantes não apenas dentro dos objetivos propostos, mas propiciou, também, grande interesse em outras áreas da SEAB. Validou-se a metodologia pela confirmação de sua eficácia junto aos especialistas da área conforme relatado.
Resumo:
Nos últimos 70 anos têm sido apresentadas várias propostas para caracteriza ção da noção intuitiva de computabilidade. O modelo de Computação mais conhecido para expressar a noção intuitiva de algoritmo é a Máquina de Turing. Esse trabalho apresenta máquinas abstratas que representam diferentes formas de comportamento computacional, sendo possível abordar a diversidade entre a Teoria da Computação Clássica (Máquina de Turing) e a Teoria da Computa- ção Interativa (Máquina de Turing Persistente). Com a evolução dos sistemas de computação, surgiu a necessidade de estender a de nição de Máquina de Turing para tratar uma diversidade de novas situações, esses problemas conduziram a uma mudança de paradigma. Neste contexto foi desenvolvido a Máquina de Turing Persistente, que é capaz de fundamentar a Teoria da Computação Interativa. Máquinas de Turing Persistentes (PeTM) são modelos que expressam comportamento interativo, esse modelo é uma extensão da Máquina de Turing. O presente trabalho tem como objetivo explorar paralelismo na Máquina de Turing Persistente, através da formalização de uma extensão paralela da PeTM e o estudo dos efeitos sobre essa extensão, variando o número de tas de trabalho. Contribui- ções desse trabalho incluem a de nição de uma máquina de Turing Persistente Paralela para modelar computação interativa e uma exposição de conceitos fundamentais e necessários para o entendimento desse novo paradigma. Os métodos e conceitos apresentados para formalização da computação na Máquina de Turing Persistente Paralela desenvolvidos nessa dissertação, podem servir como base para uma melhor compreensão da Teoria da Computação Interativa e da forma como o paralelismo pode ser especi cado em modelos teóricos.
Resumo:
A paralelização de métodos de resolução de sistemas de equações lineares e não lineares é uma atividade que tem concentrado várias pesquisas nos últimos anos. Isto porque, os sistemas de equações estão presentes em diversos problemas da computação cientí ca, especialmente naqueles que empregam equações diferenciais parciais (EDPs) que modelam fenômenos físicos, e que precisam ser discretizadas para serem tratadas computacionalmente. O processo de discretização resulta em sistemas de equações que necessitam ser resolvidos a cada passo de tempo. Em geral, esses sistemas têm como características a esparsidade e um grande número de incógnitas. Devido ao porte desses sistemas é necessária uma grande quantidade de memória e velocidade de processamento, sendo adequado o uso de computação de alto desempenho na obtenção da solução dos mesmos. Dentro desse contexto, é feito neste trabalho um estudo sobre o uso de métodos de decomposição de domínio na resolução de sistemas de equações em paralelo. Esses métodos baseiam-se no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções de cada subdomínio. Uma vez que diferentes subdomínios podem ser tratados independentemente, tais métodos são atrativos para ambientes paralelos. Mais especi camente, foram implementados e analisados neste trabalho, três diferentes métodos de decomposição de domínio. Dois desses com sobreposição entre os subdomínios, e um sem sobreposição. Dentre os métodos com sobreposição foram estudados os métodos aditivo de Schwarz e multiplicativo de Schwarz. Já dentre os métodos sem sobreposição optou-se pelo método do complemento de Schur. Todas as implementações foram desenvolvidas para serem executadas em clusters de PCs multiprocessados e estão incorporadas ao modelo HIDRA, que é um modelo computacional paralelo multifísica desenvolvido no Grupo de Matemática da Computação e Processamento de Alto Desempenho (GMCPAD) para a simulação do escoamento e do transporte de substâncias em corpos de águas.
Resumo:
O presente trabalho apresenta a investigação realizada sobre a utilização de indicadores de desempenho para tomada de decisões na implementação de projetos de sistemas. Para a realização desta pesquisa, utilizou-se como revisão da literatura a metodologia do Project Management Institute, que aborda o gerenciamento dos projetos de sistemas e o conceito do Balanced Scorecard, que trata da utilização de indicadores na implementação das estratégias. Utilizou-se o BSC para se enfatizar o relacionamento entre os resultados dos projetos e as estratégias. Com auxílio de uma metodologia de natureza qualitativa, buscou-se, através de entrevistas semiestruturadas, identificar as experiências dos entrevistados (quinze executivos) acerca da utilização de indicadores de desempenho. Estas contribuições foram estruturadas em quatro etapas: dificuldades encontradas na implementação de sistemas de indicadores, aspectos a serem monitorados nos projetos, indicadores nas perspectivas e lições aprendidas. A partir da revisão da literatura e resultado da análise das entrevistas, propõe-se no capítulo 5 um roteiro para identificação de projetos prioritários e identificação dos indicadores-chave para gestão dos projetos.
Resumo:
o presente trabalho avaliou a eficiência de cinco sistemas de reparo no combate à iniciação e à propagação da corrosão do aço por cloretos, os quais são: sistemas de reparo formados com argamassa e barras de aço sem pintura e um sistema de reparo formado com argamassa 1:3 a/c=O,5 com pintura de zinco nas barras de aço. A avaliação se deu através de ensaios de corrosão acelerada, usando ciclos de umedecimento e secagem, em corpos de prova prismáticos (45x80x90mm) confeccionados com as argamassas dos sistemas de reparo a serem testados, possuindo no seu interior duas séries de duas barras de 5mm de diâmetro distantes 5mm e 10mm das faces. Foram efetuados também ensaios complementares nas argamassas, classificados em ensaios de durabilidade: absorção por imersão (NBR 9778/87), absorção por capilaridade (NBR 9779/95), difusão de cloretos (usando fatias de 10mm de espessura de corpos de prova cilíndricos de 5mm de diâmetro) e determinação do teor de cloretos na argamassa, e ensaios mecânicos: módulo de elasticidade (NBR 8522/84) e resistência à compressão (NBR 5739/93). Além dos ensaios supracitados, elaborou-se uma análise do custo/beneficio da utilização dos sistemas de reparo em estudo. Todos os corpos de prova (cilíndricos e prismáticos) foram curados em câmara úmida por 7 dias e posteriormente em ambiente de laboratório até completarem 28 dias, idade onde se iniciou todos os ensaios. Os resultados apontam uma superioridade, no ensaio de corrosão acelerada e nos ensaios complementares de durabilidade, do sistema de reparo com adição de estireno-butadieno (SBR) seguido em ordem decrescente, do sistema com adição de sílica ativa, do sistema com adição de nitrito de sódio e do sistema com pintura de zinco nas barras. Nos ensaios complementares mecânicos, o sistema de reparo com adição de sílica ativa apresentou os melhores resultados, seguido do sistema de reparo com adição do inibidor de corrosão. A análise custo/beneficio aponta o sistema de reparo com adição de sílica ativa como o mais viável economicamente, seguido, em ordem decrescente de desempenho, dos sistemas com adição de nitrito de sódio, com adição de estireno-butadieno e com pintura de zinco nas barras.
Desenvolvimento de um programa de simulação computacional de sistemas de aquecimento solar para água
Resumo:
Esta Tese apresenta uma análise do comportamento térmico de um sistema de aquecimento solar operando por termossifão. Neste tipo de sistema o fluido no coletor solar é circulado por convecção natural, que acontece devido à diferença de massa específica da água ao longo circuito. Nestes sistemas a vazão mássica varia ao longo do dia e do ano, dependendo, dentre outros fatores, da irradiância solar absorvida, do perfil de temperaturas da água no sistema, da geometria, do volume e do perfil de demanda de água quente. Para uma avaliação detalhada do comportamento térmico de aquecedores solares operando por termossifão foram realizados ensaios experimentais e cálculos teóricos. Os resultados dos experimentos concordaram com aqueles apresentados na literatura e sua análise fundamentou o desenvolvimento do aplicativo TermoSim, um programa de simulação computacional do comportamento térmico de sistemas de aquecimento de água com energia solar. O tratamento matemático adotado no TermoSim compreende a modelagem dos coletores solares de acordo com a teoria de Hottel-Bliss-Whillier. O reservatório térmico é modelado com estratificação térmica, convecção e condução entre as camadas. A vazão mássica é obtida a partir do balanço da quantidade de movimento no circuito. Os modelos matemáticos empregados na construção do aplicativo TermoSim foram validados através do confronto dos resultados simulados com medidas experimentais. Foi demonstrado que a utilização destes modelos é adequada e permite reproduzir com precisão o comportamento térmico dos coletores solares e do reservatório térmico. Além do programa TermoSim, foi também desenvolvido o programa TermoDim, que é uma ferramenta para o dimensionamento de sistemas de aquecimento solar, que requer apenas o conhecimento dos parâmetros geométricos do sistema, dados meteorológicos em média mensal e informação a respeito do volume de demanda. O TermoDim é apropriado para estimar o desempenho de aquecedores solares operando por termossifão com tanques verticais e horizontais. O método de dimensionamento do TermoDim é baseado na correlação para a eficiência média mensal obtida neste trabalho a partir de um grande número de simulações.
Resumo:
O presente trabalho visa definir um modelo de alocação dos recursos da produção para centros de trabalho em sistemas baseados em job shop, usando a abordagem heurística para garantir uma boa alocação dos recursos. São levados em conta a complexidade de um ambiente de produção, seus aspectos temporais e os modelos de Job Shop Scheduling atualmente em uso. Com isso são examinados os aspectos conceituais deste ambiente e proposto um modelo de alocação de recursos para auxiliar no planejamento operacional do mesmo. Pode-se definir os recursos como todos os elementos necessários à execução das diversas atividades de um processo produtivo, tais como equipamentos, máquinas, mão-de-obra, etc. Por sua vez, os recursos são limitados por natureza, quanto à quantidade de unidades disponíveis, às suas funcionalidades e à capacidade produtiva. O processo de alocação dos recursos pressupõe a designação dos recursos mais satisfatórios para a execução de cada uma das atividades que fazem parte de um projeto. O modelo proposto é baseado no uso de heurísticas para resolver o escalonamento nos centros de trabalho, também chamados de células de produção, usando restrições e regras entre as ordens de fabricação (peças) e as máquinas, para encontrar uma solução satisfatória ao problema. O resultado final é uma ferramenta de apoio à decisão no processo de manufatura, permitindo a visualização do melhor escalonamento de produção, visando a redução do ciclo e setup de produção no processo, com base nas informações locais do ambiente fabril. O sistema está implementado numa empresa de componentes hidráulicos, inicialmente no centro de trabalho de corte, composto por quatro máquinas que realizam o corte de diversos tipos de matérias-primas.
Resumo:
Esta Dissertação de Mestrado tem por finalidade apresentar a Análise da Estabilidade de Um Corte Ferroviário e Proposta de Solução para Estabilização de Taludes de um segmento da linha férrea Cacequi – Rio Grande (RS), Sub-trecho entre São Gabriel e Bagé, localizado entre os km 111 + 600 e km 112 + 800. Este trecho de variante foi implantado por volta de 1975, em substituição ao traçado da linha velha que comprometia o tráfego das composições ferroviárias. Tal segmento está assente sobre a formação Rio Bonito, constituída de paraortoconglomerados, arenitos quartzosos, arenitos feldspáticos, siltitos, folhelhos carbonosos, diamictitos e carvão. O corte em questão é tipo caixão, de altura variável, em torno de 12,00 m na sua parte mais alta. Quando da sua implantação foi concebido com valetões de pé de corte aberto e recobertos com leiva. Desde sua construção, os taludes apresentaram forte erosão superficial e instabilidade geral, ocorrendo, no ano de 1982, uma ruptura circular no lado esquerdo, a qual provocou um deslocamento de cerca de 4,0m da linha férrea da sua posição original em direção ao talude do lado direito (sentido da quilometragem). A massa de solo envolvida apresenta deslocamentos mais evidentes junto ao pé do talude, provocando uma manutenção constante corretiva do nivelamento da via férrea. Também se observa que os valetões estão assoreados, o que ocasiona obstruções e provoca a retenção d´água superficial e o encharcamento do solo, contribuindo na instabilidade do talude Além da instabilidade global, existem instabilidades localizadas (escorregamentos superficiais) que são devidos à erosão superficial dos taludes em razão do inadequado direcionamento das águas de escoamento superficial e da fraca proteção vegetal nos taludes. Nas sondagens foi descoberta uma fina camada de argilito cinza-escuro numa cota muito próxima da cota em que foi definida a plataforma. Esta camada provocou a mobilização da resistência ao cisalhamento residual, ocasionando a instabilização do talude. A proposta de estabilização prevê, a um baixo custo, melhorar em aproximadamente 70% as condições locais, mediante a execução de uma trincheira drenante no pé do talude, em toda a extensão do corte, a instalação de drenos sub-horizontais na região mais afetada e a correção dos sistemas de drenagem existentes, acompanhados de um gerenciamento da execução dos serviços. O monitoramento posterior definirá a necessidade ou não da execução de um muro de contenção em solo reforçado na região mais crítica.
Resumo:
Mesmo depois de todas as novidades tecnológicas nos últimos anos, ainda existem muitos sistemas desenvolvidos com tecnologias antigas, muitas vezes ultrapassadas e obsoletas denominados sistemas legados. O problema do bug do ano 2000 funcionou como um excelente despertador para o fato de que não podemos nos esquecer do grande número de sistemas ainda em produção, e que são importantes para a empresa. Não se pode simplesmente descartar estes sistemas e é muito difícil migrar sistemas legados rapidamente para novas plataformas. Mais ainda, as regras de negócio que regem qualquer empresa são muito complexas para poderem ser modeladas e remodeladas em poucos meses e em seguida automatizadas porque a maior dificuldade em desenvolver sistemas não é escrever código nesta ou naquela linguagem, mas entender o que o sistema deve fazer. Este trabalho enfoca uma solução possível para o problema referente à migração de sistemas legados: a tradução destes sistemas legados da forma mais automatizada possível para que possam se beneficiar das novas tecnologias existentes deve ser o resultado final produzido. Assim, o objetivo desta dissertação é a investigação do problema de migração de sistemas legados e suas soluções assim como o desenvolvimento de uma ferramenta que traduz um sistema legado escrito na linguagem COBOL para PROGRESS, visando o aproveitamento do código e principalmente o aproveitamento de soluções de análise e projeto, que exigiram bastante esforço para serem elaboradas e poderiam ser reutilizadas em novos desenvolvimentos.
Resumo:
Este trabalho visa abordar um aspecto de grande importância em um sistema de gestão empresarial – os indicadores que devem orientar a tomada de decisão na organização. Os indicadores podem cumprir duas funções administrativas: planejamento e controle. Por suas origens históricas, a ênfase no controle ainda prevalece sobre o planejamento. Porém, o ambiente competitivo dos dias atuais não permite atrasos na tomada de decisão gerencial. Portanto, se os indicadores auxiliarem na função de planejamento – orientando e permitindo inferir sobre possíveis consequências de uma ou outra decisão - estariam possibilitando ações mais focalizadas, com melhores resultados para a empresa. Diminuiriam, assim, eventuais correções no rumo da gestão. Consequentemente, diminuiria também o tempo necessário para o alcance dos resultados planejados. Esta dissertação buscou analisar os pr incipais modelos teóricos de sistemas de indicadores, explicitando quais os indicadores sugeridos e o modo como devem ser tratados. Realizou-se, também, uma pesquisa de campo em 20 empresas do Rio Grande do Sul, a fim de identificar os indicadores que estavam sendo efetivamente utilizados para a tomada de decisão, bem como problemas decorrentes do uso destes. Com isso, pôde-se confrontar os modelos teóricos e a prática atual das empresas pesquisadas, o que permitiu extrair as conclusões do trabalho. Além disso, permitiu verificar a correlação existente entre um uso eficiente de indicadores e o desempenho destas empresas, comparando-se com uma pesquisa realizada com este objetivo em empresas americanas. Como conclusão final, constatou-se a importância central dos indicadores em um sistema de gestão, constituindo uma base sólida na busca por um melhor desempenho empresarial.
Resumo:
A característica de autogestão existente em uma cooperativa faz com que o processo administrativo e gerencial seja diferenciado das demais organizações. Mas, independentemente dessas características, informações são necessárias em qualquer um dos níveis decisórios desse tipo de organização. Sendo assim, o presente trabalho tem como objetivo pesquisar a influência do sistema de informações existente na Cooperativa Regional Tritícola Santiaguense Ltda, em seu processo decisório, e, também, descrever a estrutura de poder e o sistema de informações existente, verificando como este se articula com a estrutura do poder, visando à tomada de decisão. Para isso, foi feita uma análise do ambiente da organização em estudo, uma revisão de literatura, englobando os aspectos referentes ao cooperativismo, à gestão em cooperativas, aos sistemas de informações, à tecnologia da informação e à tomada de decisão. A pesquisa aplicada para a obtenção dos dados analisados foi de natureza exploratória e descritiva, configurando-se como um estudo de caso. A coleta dos dados para a obtenção das evidências que definiram o resultado da pesquisa foi feita através de entrevistas, documentação, observações diretas e observação participante. Os resultados obtidos demonstram que, apesar de a cooperativa possuir uma estrutura adequada ao tipo de atividade, precisa, ainda, melhorar alguns aspectos referentes à obtenção das informações bem como ao seu uso. Os gestores dessa organização possuem deficiências para compreender e analisar as informações disponíveis no Sistema de Informações, o que dificulta a análise das mesmas. Fica, neste trabalho, a constatação de que a cooperativa deve possuir recursos gerenciais baseados em informações, permitindo que sua administração seja feita de forma a mantê-la competitiva no mercado onde atua. Uma cooperativa tem, efetivamente, características diferenciadas, mas não pode deixar de utilizar, de forma eficiente, informações que irão dar subsídios para a tomada de decisão e conseqüente gerenciamento e manutenção do negócio. Para isso, precisa prover-se de recursos, tanto materiais, como humanos, baseados nos modelos científicos existentes e confirmados pelos autores que fundamentam esta pesquisa.
Resumo:
Este trabalho trata de uma pesquisa junto aos soldadores de três empresas do setor metal-mecânico, em diferentes estágios tecnológicos, para levantamento e avaliação de sua demanda ergonômica por meio de método participativo, como contribuição para o projeto de seus postos de trabalho. Verificou-se que os problemas mais críticos para estes profissionais são de natureza ambiental, tendo sido questionada a validade dos valores limites estabelecidos de exposição a fumos de soldagem. Além disso, foi constatada a maior influência do fator empresa sobre a opinião e satisfação dos soldadores, com exceção da empresa onde está estabelecido um programa de ergonomia: nesta o nível de exigência dos soldadores é maior, portanto, os fatores pessoais representam maior impacto sobre sua opinião e satisfação. Também foi avaliado o impacto do nível tecnológico da empresa sobre os soldadores, concluindo-se que os que trabalham com sistemas de produção mais manual têm maior envolvimento com seu trabalho, enquanto os soldadores que participam de sistema mais automatizado não estão, necessariamente, livres de problemas relacionados a questões ambientais. Assim, é tão importante considerar as questões ambientais desde a concepção de uma fábrica, quanto as questões de organização do trabalho, pois ambas impactam no bemestar e, conseqüentemente, na produtividade de seus trabalhadores.
Resumo:
A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.