33 resultados para Sistema de Detecção e Diagnóstico de Falhas. Árvore de Decisão.Observador de Estado
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Este trabalho investiga a aplicação de métodos e técnicas de correlação de alarmes na detecção e diagnóstico de falhas em sistemas supervisionados por computador. Atualmente, alguns centros de supervisão ainda não se utilizam destas técnicas para o tratamento das informações recebidas de suas redes de supervisão, ficando para os operadores a responsabilidade de identificar estas correlações. Com o crescente volume de informações recebidas pelos centros de supervisão, devido ao aumento da heterogeneidade e do número de equipamentos supervisionados, torna a identificação manual da correlação dos alarmes lenta e pouco precisa. Objetivando melhorar a qualidade do serviços prestados pelos centros de supervisões, este trabalho propõe o uso de uma rede Bayesiana como método de correlação de alarmes e uma técnica de limitação de escopo para atingir uma melhor performance na propagação desta correlação. Através dos conceitos desenvolvidos neste trabalho, foi implementado um protótipo de correlação de alarmes para um sistema de supervisão existente no mercado, neste protótipo modela-se a rede Bayesiana em um banco de dados relacional e, como resultado desta implementação apresenta-se a interface desenvolvida para a supervisão.
Resumo:
Este trabalho propõe a utilização da arquitetura Trace como um sistema de detecção de intrusão. A arquitetura Trace oferece suporte ao gerenciamento de protocolos de alto nível, serviços e aplicações através de uma abordagem baseada na observação passiva de interações de protocolos (traços) no tráfego de rede. Para descrever os cenários a serem monitorados, é utilizada uma linguagem baseada em máquinas de estado. Esta linguagem permite caracterizar aspectos observáveis do tráfego capturado com vistas a sua associação com formas de ataque. O trabalho mostra, através de exemplos, que esta linguagem é adequada para a modelagem de assinaturas de ataques e propõe extensões para permitir a especificação de um número maior de cenários ligados ao gerenciamento de segurançaa. Em seguida, é descrita a implementação do agente de monitoração, componente-chave da arquitetura Trace, e sua utilização para detectar intrusões. Esse agente (a) captura o tráfego da rede, (b) observa a ocorrência dos traços programados e (c) armazena estatísticas sobre a sua ocorrência em uma base de informações de gerenciamento (MIB { Management Information Base). O uso de SNMP permite a recuperação destas informações relativas µa ocorrências dos ataques. A solução apresentada mostrou ser apropriada para resolver duas classes de problemas dos sistemas de detecção de intrusão: o excesso de falsos positivos e a dificuldade em se modelar certos ataques.
Resumo:
A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.
Resumo:
A área de Detecção de Intrusão, apesar de muito pesquisada, não responde a alguns problemas reais como níveis de ataques, dim ensão e complexidade de redes, tolerância a falhas, autenticação e privacidade, interoperabilidade e padronização. Uma pesquisa no Instituto de Informática da UFRGS, mais especificamente no Grupo de Segurança (GSEG), visa desenvolver um Sistema de Detecção de Intrusão Distribuído e com características de tolerância a falhas. Este projeto, denominado Asgaard, é a idealização de um sistema cujo objetivo não se restringe apenas a ser mais uma ferramenta de Detecção de Intrusão, mas uma plataforma que possibilite agregar novos módulos e técnicas, sendo um avanço em relação a outros Sistemas de Detecção atualmente em desenvolvimento. Um tópico ainda não abordado neste projeto seria a detecção de sniffers na rede, vindo a ser uma forma de prevenir que um ataque prossiga em outras estações ou redes interconectadas, desde que um intruso normalmente instala um sniffer após um ataque bem sucedido. Este trabalho discute as técnicas de detecção de sniffers, seus cenários, bem como avalia o uso destas técnicas em uma rede local. As técnicas conhecidas são testadas em um ambiente com diferentes sistemas operacionais, como linux e windows, mapeando os resultados sobre a eficiência das mesmas em condições diversas.
Resumo:
O presente trabalho tem por objetivo desenvolver e implantar um sistema gerencial voltado à manutenção. Atualmente, é inadmissível imaginar que seja possível gerenciar um setor sem haver criado um sistema que gere informações e meios de se atingir metas – pré-definidas. Para fundamentar o projeto, foi realizada uma revisão bibliográfica nas ferramentas gerenciais, nos sistemas de gestão da manutenção e na relação entre a estratégia produtiva e a estratégia de atuação da manutenção. Primeiramente, será apresentada uma proposta do sistema gerencial da manutenção, demonstrando sua lógica de estruturação. A idéia consiste em criá-lo levando-se em consideração alguns aspectos básicos que agem como pilares, dando suporte ao modelo gerencial. Os denominados pilares do Sistema de Implantação e Gestão da Manutenção são os 5S’s, o fluxo organizado de informações, a manutenção planejada, a padronização, os colaboradores capacitados e motivados, a determinação de indicadores e metas e o aplicativo. A partir dos pilares foi desenvolvida a Estrutura o Sistema Gerencial em forma de diagrama de árvore, contendo todas as tarefas necessárias a sua implantação. Posteriormente, apresentar-se-á a aplicação prática do sistema através de um estudo de caso em um hospital. Este estudo de caso contém a descrição minuciosa do realizado em cada tarefa, esclarecendo e ampliando a compreensão do leitor diante do sistema gerencial.
Resumo:
Objetivo: Avaliar a acurácia da colposcopia utilizando a Classificação Colposcópica Internacional de 2002. Métodos: 3040 pacientes de população geral foram rastreadas para patologia cervical através de exame citopatológico, captura híbrida para HPV de alto risco e inspeção cervical. As colposcopias que resultaram em biópsia (n=468) executadas no rastreamento e acompanhamento destas pacientes foram gravadas, revistas por dois colposcopistas cegados e incluídas para análise. Resultados: Os observadores apresentaram excelente concordância (Kappa=0.843) no relato dos achados pela nova nomenclatura. A colposcopia apresentou sensibilidade de 86% e especificidade de 30.3% em diferenciar colo normal de colo anormal (LSIL, HSIL ou carcinoma); quando a colposcopia objetivava diferenciar colo normal ou LSIL de HSIL ou carcinoma, apresentou sensibilidade de 61.1% e especificidade de 94.4%. Os achados colposcópicos classificados como “maiores” pela nova classificação apresentaram valores preditivos positivos elevados para HSIL. Presença do achado colposcópico na zona de transformação e tamanho da lesão estavam associados a HSIL. Bordas externas definidas, associação de múltiplos achados distintos e presença de zona iodo negativa não estavam relacionados à gravidade das lesões. Conclusão: A colposcopia utilizando a Classificação Internacional de 2002 mostra-se um bom método de rastreamento, mas como método diagnóstico apresenta falhas, não podendo substituir a avaliação histológica. A categorização em achados colposcópicos “maiores” e “menores” apresentada pela nova classificação é adequada. Na realização da colposcopia, é importante também que a lesão seja situada em relação à zona de transformação e que seu tamanho seja indicado, já que estes foram fatores associados a lesões de alto grau.
Resumo:
A aplicação de uma diferença de potencial entre os extremos de um capilar de material dielétrico, preenchido com solução aquosa, provoca um fluxo eletroosmótico através deste. As moléculas, de um pequeno volume de uma amostra injetada neste fluxo, se separam umas das outras devido a diferença entre suas mobilidades eletroforéticas. Este método de separação é conhecido como Eletroforese Capilar. Ele tem se mostrado muito eficiente na separação de moléculas orgânicas complexas e é um método complementar à Cromatografia Líquida. Os sistemas de detecção mais comumente utilizados são do tipo eletroquímico ou ópticos, estes últimos podem ser de absorção ou fluorimétricos. Alta sensibilidade tem sido obtida com sistemas de detecção com fluorescência induzida a lazer, como o de Argônio, Hélio-Cádmio e de semicondutor. Neste trabalho testamos o desempenho de um laser ultravioleta pulsado, usando o mini-laser de N2 (337 nm), para induzir a fluorescência em moléculas marcadas com marcadores moleculares fluorogênicos apropriados. Para aminoácidos obtivemos limites de detecção da ordem de alguns attomóis(10-18 mol).Em condições otimizadas a quantidade mínima detectável de melatonina e serotonina, usando o marcador molecular fluorogênico isotiocianato de fluoresceÍna, foi de 150 attomóis, que corresponde a um limite de detecção em concentração de 50 nM. Os peptídeos bradicinina, lisil-bradicinina e metionil-lisil-bradicinina foram separados entre si e detectados no limite de detecção em concentração de 1,2 fmóis quando marcados com fluorescamina e a 90 attomóis quando com orto"ftaldialdeído. Do nosso conhecimento, esta é a primeira vez que um laser pulsado (N2) é usado num sistema de detecção de eletroforese capilar.
Resumo:
As empresas estão procurando por um rápido desenvolvimento de acordo com as necessidades de sobrevivência e competição do mercado. Neste contexto é importante desencadear relações duradouras entre clientes e fornecedores. Portanto a gestão de suprimentos, não pode ser considerada como um custo para a estrutura da empresa, mas um sistema capaz de desenvolver métodos e processos administrativos e operacionais agregando valor para a organização. Melhorar a performance da gestão de suprimentos, é uma importante meta. Neste processo está a administração da necessidades de aquisição, a qual pode representar um diferencial competitivopara as empresas, se mantido por fornecedor capacitado e qualificado.Um desafio das empresas é o desenvolvimento de um sistema adequado e capaz de mensurar o potencial do desempenhodos fornecedores.Este trabalho apresenta uma proposta para o aprimoramento do sistema de avaliação do potencial do desempenho dos fornecedores de uma empresa encarroçadora de ônibus. O sistema proposto foi aplicado em fornecedores habituais, sendo seus resultados comparados com o sistema anterior. A proposta também foi comparado com outros três sistemas de avaliação de fornecedores da cadeia automotiva. Os principais resultados apresentam níveis de desempenho, que até então, não eram conhecidos pela empresa. O sistema fornece informações estratégicas para alicerçar a tomada de decisão dos negociadores de aquisição no desempenhode suas atividade.
Resumo:
As redes de computadores experimentam um grande crescimento não apenas em tamanho, mas também no número de serviços oferecidos e no número de protocolos de alto nível e aplicações que são executados sobre elas. Boa parte desses software (ex.: ICQ e Napster), em geral, não está diretamente ligada a aplicações críticas, mas o seu uso não controlado pode degradar o desempenho da rede. Para que se possa medir o impacto dos mesmos sobre a infra-estrutura, mecanismos de gerência ligados à contabilização e caracterização de tráfego são desejáveis. Por outro lado, alguns protocolos, serviços e aplicações (ex. servidores DNS e Web) suportam aplicações e precisam ser monitorados e gerenciados com maior atenção. Para essa classe de software de rede, a simples contabilização e caracterização de tráfego não é suficiente; tarefas de gerência como teste de serviços, detecção e manipulação de falhas, medição de desempenho e detecção de intrusão são importantes para garantir alta disponibilidade e eficiência da rede e aplicações. As ferramentas existentes para essa finalidade são, entre aspectos, (a) não integradas (necessidade de uma ferramenta para monitorar cada aplicação), (b) centralizadas (não oferecem suporte à distribuição de tarefas de gerenciamento) e (c) pouco flexíveis (dificuldade em gerenciar novos protocolos, serviços e aplicações). Nesse contexto, a tese propõe uma arquitetura, centrada na monitoração passiva em temporal do tráfego de rede, para gerenciamento distribuído de protocolos de alto nível, serviços e aplicações em rede. Baseada da MIB (Management Information Base) Script do IETF (Internet Engineering Task Force), a arquitetura Trace oferece mecanismos para a delegação de tarefas de gerenciamento a gerentes intermediários, que interagem com agentes de monitoração e agentes de ação para executá-las. A tese propõe também PTSL (Protocol Trace Specification Language), uma linguagem gráfica/textual criada para permitir que gerentes de rede especificam as interações de protocolos (traços) que lhes interessam monitorar. As especificações são usadas pelso gerentes intermediários para programar os agentes de monitoração. Uma vez programadas, esses agentes passam a monitorar a ocorrência dos traços.As informações obtidas são analisadas pelos agentes intermediários, que podem requisitar de ação a execução de procedimentos (ex: scripts Perl), possibilitando a automação de diversas tarefas de gerenciamento. A arquitetura proposta é validada por um protótipo: a plataforma de gerenciamento Trace.
Resumo:
Neste trabalho é avaliada a aplicação da técnica de ICP OES (Espectrometria de Emissão com Plasma Indutivamente Acoplado) para a determinação de elementos traço em amostras ambientais. Foram investigados os comportamentos de As, Ba, Cd, Co, Cu, Cr, Mn, Ni, Pb, V e Zn, utilizando-se espectrômetro com vista de observação axial/radial do plasma e sistema de detecção baseado em dispositivos de carga acoplada (CCD). No presente estudo, foi avaliado o desempenho dos nebulizadores pneumáticos do tipo concêntrico (Meinhard), “cross flow” e GemCone® acoplados às câmaras de nebulização de duplo passo (Scott) e ciclônica, bem como do nebulizador ultra-sônico para a introdução de amostras no plasma. Investigou-se a robustez do plasma, potência de radiofreqüência (RF), vazão dos gases de nebulização e auxiliar, bem como a altura de observação, para ambas as vistas de observação do plasma. Sob condições otimizadas os limites de detecção (LD), em ng mL-1, para os elementos As, Ba, Cd, Co, Cr, Cu, Mn, Ni, Pb, V e Zn, em solução aquosa de HNO3 5% (v/v), utilizando-se a configuração axial do plasma, foram: 1,1 - 16; 0,002 - 0,32; 0,03 - 1,2; 0,02 - 0,72; 0,03 - 0,82; 0,04 - 3,0; 0,003 - 0,76; 0,08 - 3,8; 0,22 - 8,9; 0,04 - 2,6; e 0,02 - 1,2 respectivamente. Utilizando-se a configuração radial, os LDs (ng mL-1) dos mesmos elementos foram: 10 - 87; 0,01 - 0,91; 0,07 - 3,8; 0,16 - 4,3; 0,13 - 8,1; 0,16 - 4,3; 0,01 - 0,81; 0,43 - 7,6; 1,4 - 37; 0,28 - 6,0 e 0,77 - 9,5 respectivamente. Com relação à nebulização pneumática, os LDs são relativamente mais baixos quando é utilizado o nebulizador concêntrico acoplado à câmara de nebulização ciclônica. LDs ainda melhores são obtidos mediante o uso de nebulização ultra-sônica mas, neste caso, foi observado que o plasma é menos robusto. As metodologias foram desenvolvidas mediante o uso de materiais de referência certificados sendo analisados os seguintes materiais: sedimento marinho (PACS-2/NRCC), folhas de maçã (apple leaves – 1515/NIST) e água (natural water – 1640/NIST), obtendo-se concentrações concordantes com as certificadas, com exceção do Ni em folha de maçã, que não foi detectado utilizando-se a nebulização pneumática e também não pôde ser determinado com exatidão mediante o uso de nebulizador ultra-sônico. Interferências não espectrais observadas na análise de sedimento marinho foram contornadas através da diluição da amostra, ou através da lavagem da câmara de nebulização com solução de HNO3 5% (v/v), por 60 s entre cada ciclo de leitura. Estas interferências não puderam ser contornadas com o uso de padrão interno (PI). A interferência espectral do As sobre o Cd não foi observada fazendo-se a medição do sinal em área de pico, demarcado com somente 3 pontos/pico. Após serem estabelecidas as metodologias de análise, foram analisadas as seguintes amostras não certificadas: água de rio, água subterrânea (poço artesiano), água tratada e de chuva, folhas de eucalipto e bambu, acículas de pinus e infusão de chá preto, sendo possível quantificar baixas concentrações dos elementos investigados, utilizando-se a calibração externa.
Resumo:
O fácil acesso às tecnologias prediais e o seu barateamento contribuíram para seu uso em grandes empresas que acreditam no retorno desse investimento através do aumento em sua produtividade e eficiência. Diante de um grande número de componentes tecnológicos na edificação, surge a necessidade de administrar e operar este novo ambiente construído, assegurando um perfeito funcionamento do edifício. Busca-se, portanto, destacar que esta sofisticação da edificação retrata ainda a imagem corporativa da empresa e sua gestão é responsabilidade de engenheiros e arquitetos. Para que esse ambiente funcione adequadamente, a gestão do edifício deve estar intimamente ligada ao planejamento estratégico da empresa, unindo forças para melhor servir a organização. O sucesso da função de gestão facilities depende da habilidade de identificar, comunicar e administrar oportunidades para ajudar a suportar os objetivos organizacionais. Um modelo eficiente de gestão deve contar com o apoio de um sistema de informação eficaz para agilizar a tomada de decisão como também armazenar dados de controle. A eficiência dos processos de planejamento estratégico e operacional depende mais da qualidade da informação utilizada do que dos próprios processos empregados para planejar. Novas soluções, que surgem no mercado internacional, ajudam os administradores organizacionais a solucionar os desafios diários de maximizar retornos no espaço físico organizacional. Uma investigação em um conjunto de empresa dos setores industrial, comercial e de serviços inseridas na região metropolitana de Porto Alegre é realizada a fim de conhecer o tipo de gestão do ambiente construído que acontece no Brasil e o entendimento por parte dos gestores de como melhorar a efetividade da organização através do ambiente construído A falta de um modelo de gestão da edificação na maioria destas empresas e de ferramentas que suportem esta atividade levam a acreditar que o Brasil deve evoluir na área de operação predial a fim de otimizar o espaço físico das organizações. O desconhecimento por partes dos gestores de que uma gestão estratégica pode agregar valor ao negócio das organizações foi outro aspecto observado, necessitando, portanto, uma maior interação entre gestores do ambiente construído.
Resumo:
Este trabalho apresenta um método para detectar falhas no funcionamento de máquinas rotativas baseado em alterações no padrão de vibração do sistema e no diagnóstico da condição de operação, por Lógica Fuzzy. As modificações ocorridas são analisadas e servem como parâmetros para predizer falhas incipientes bem como a evolução destas na condição de operação, possibilitando tarefas de manutenção preditiva. Utiliza-se uma estrutura mecânica denominada de Sistema Rotativo (Figura 1), apropriada para as simulações das falhas. Faz-se a aquisição de dados de vibração da máquina usando-se um acelerômetro em chip biaxial de baixa potência. As saídas são lidas diretamente por um contador microprocessador não requerendo um conversor A/D. Um sistema de desenvolvimento para processamento digital de sinais, baseado no microprocessador TMS320C25, o Psi25, é empregado na aquisição dos sinais de vibração (*.dat), do Sistema Rotativo. Os arquivos *.dat são processados através da ferramenta matemática computacional Matlab 5 e do programa SPTOOL. Estabelece-se o padrão de vibração, denominado assinatura espectral do Sistema Rotativo (Figura 2) Os dados são analisados pelo sistema especialista Fuzzy, devidamente calibrado para o processo em questão. São considerados, como parâmetros para a diferenciação e tomada de decisão no diagnóstico do estado de funcionamento pelo sistema especialista, a freqüência de rotação do eixo-volante e as amplitudes de vibração inerentes a cada situação de avaria. As falhas inseridas neste trabalho são desbalanceamentos no eixovolante (Figura 1), através da inserção de elementos desbalanceadores. A relação de massa entre o volante e o menor elemento desbalanceador é de 1:10000. Tomando-se como alusão o conhecimento de especialistas no que se refere a situações normais de funcionamento e conseqüências danosas, utilizam-se elementos de diferentes massas para inserir falhas e diagnosticar o estado de funcionamento pelo sistema fuzzy, que apresenta o diagnóstico de formas qualitativa: normal; falha incipiente; manutenção e perigo e quantitativa, sendo desta maneira possível a detecção e o acompanhamento da evolução da falha.
Resumo:
Nos ultimos anos, com a crescente popularização das redes de computadores baseadas no protocolo IP, desde pequenas redes até metropolitanas começaram a se agrupar e a fazer do que hoje se conhece como a rede mundial de computadores.Apesar dos benefícios de comunicação e troca de informação da Internet, esse feômeno global também trouxe problemas de segurança, pois a origem e estrutura dos protocolos utilizados na comunicação entre as diversas máquinas limitam as possibilidades de prevenir, identificar ou detectar possíveis ataques ou intrusos. Assim, várias ferramentas surgiram para prevenir e auxiliar na tarefa de identicar problemas de segurança nas redes como firewalls, sniffers e sistemas de detecção de intrusão. Apesar dos benefícios trazidos por essas novas tecnologias, surgiram muitas dúvidas referentes a segurança que esses recursos proporcionam. Afinal, o desenvolvimento e validação desses sistemas são procedimentos bastante complexos e, freqüentemente, esses sitemas têm se tornado o alvo primário de um atacante. O resultado disso, não raramente, é uma falsa noção de segurança devido à utilização inadequada desses mecanismos, o que é, normalmente, mais prejudicial do que a simples inexistência de segurança em uma organização, mas cujas falhas são conhecidas por seus administradores. A realização de testes para verificação da segurança de uma organização é uma atividade fundamental a fim de alcançar um ambiente operacional seguro e de verificar a correta aplicação dos requisitos de segurança de uma organização.O uso de testes permite a uma empresa verificar com precisão a postura de segurança utilizada em seus sistemas ao mesmo tempo em que permite visualizar a sua rede da mesma maneira que um atacante a visualizaria. Ao visualizar a rede como atacante, pode-se verificar com que facilidade obtém-se informações da rede, quais suas fragilidades e a dificuldade que se tem para invadí-la. Assim, obtém-se uma visão mais realista da segurança de uma organização. Além de técnicas para a avaliação, é muito importante que se possua ferramentas para a realização desses testes. Assim, é possível automotizar a realização de testes e verificar com maior facilidade a existência de problemas em uma rede. A existência de ferramentas que testem sistemas de segurnaça é extremamente importante e necessária, pois, afinal, a segurança de toda uma rede pode depender fortemente de algum desses sistemas. Este trabalho apresenta as técncias existentes para a injecção de falhas visando verificar as que são mais eficientes para a valiação de sistemas de segurança de rede. Adicionalmente são apresentadas algumas técnicas para o teste de mecanismos de segurança e algumas ferramentas existentes para a realizão de tais testes. A partir desses estudos, é apresentado um modelo de ferramenta adequando as funções de um sistema de injeção de falhas ao teste de mecanismos de segurança em rede. Um protótipo essa ferramenta foi desenvolvido e é apresentado neste trabalho. Esse protótipo permite o envio e o recebimento de pacotes da pilha TCP/IP, podendo testar problemas em protocolos e sistemas utilizados na rede. E, através da utilização de plug-ins, permite que diversos tipos de ataque mais sofisticados possam ser realizados.
Resumo:
A aquisição do ciclo pressão-volume é de grande importância para diagnóstico de cardiopatias e principalmente para o acompanhamento de intervenções terapêuticas, porém os métodos hoje utilizados são caros e agressivos ao paciente, reduzindo por estes motivos sua aplicação. Este estudo pretende obter, por métodos não-invasivos, o ciclo pressão-volume do ventrículo esquerdo de pacientes humanos. Isto consiste na aquisição dos sinais P(t) e V(t) simultaneamente e a apresentação de um gráfico P(V). Para tanto, após a revisão bibliográfica, decidiu-se utilizar a ecocardiografia com detecção automática de bordos, para obtenção do volume ventricular e a medição da onda de pressão transmitida através da artéria braquial para um manguito inflado com ar, conectado a um transdutor piezo-resistivo em ponte. A aquisição da pressão pelo método não-invasivo é comparada a dados resultantes da aquisição invasiva da pressão arterial por catéter intra-aórtico que é considerado padrãoouro. Os sinais são condicionados e digitalizados em uma placa de aquisição com conversor A/D de 8 bits e micro controlador 80c196. Os dados digitalizados são então enviados serialmente para um computador onde são gerados os gráficos. Obteve-se de cinco pacientes nove aquisições simultâneas da pressão invasiva através de catéter intra-aórtico e do protótipo desenvolvido resultando concordância segundo o método de Bland e Altman (1986) (r=0,989; d + 2s= 6,52; d - 2s =-6,07), comprovando a eficiência do método de aquisição. Obteve-se resultado satisfatório também quanto à operação sistema desenvolvido pois foram realizadas dez aquisições em cinco pacientes, registrando-se gráficos bastante similares aos apresentados na literatura disponível.
Resumo:
O presente trabalho explora a aplicação de técnicas de injeção de falhas, que simulam falhas transientes de hardware, para validar o mecanismo de detecção e de recuperação de erros, medir os tempos de indisponibilidade do banco de dados após a ocorrência de uma falha que tenha provocado um FUDVK. Adicionalmente, avalia e valida a ferramenta de injeção de falhas FIDe, utilizada nos experimentos, através de um conjunto significativo de testes de injeção de falhas no ambiente do SGBD. A plataforma experimental consiste de um computador Intel Pentium 550 MHz com 128 MB RAM, do sistema operacional Linux Conectiva kernel versão 2.2.13. O sistema alvo das injeções de falhas é o SGBD centralizado InterBase versão 4.0. As aplicações para a carga de trabalho foram escritas em VFULSWV SQL e executadas dentro de uma sessão chamada LVTO. Para a injeção de falhas foram utilizadas três técnicas distintas: 1) o comando NLOO do sistema operacional; 2) UHVHW geral no equipamento; 3) a ferramenta de injeção de falhas FIDe, desenvolvida no grupo de injeção de falhas do PPGC da UFRGS. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho e são necessários para a compreensão deste estudo. Em seguida é apresentada a ferramenta de injeção de falhas Xception e são também analisados alguns experimentos que utilizam ferramentas de injeção de falhas em bancos de dados. Concluída a revisão bibliográfica é apresentada a ferramenta de injeção de falhas – o FIDe, o modelo de falhas adotado, a forma de abordagem, a plataforma de hardware e software, a metodologia e as técnicas utilizadas, a forma de condução dos experimentos realizados e os resultados obtidos com cada uma das técnicas. No total foram realizados 3625 testes de injeções de falhas. Com a primeira técnica foram realizadas 350 execuções, com a segunda técnica foram realizadas 75 execuções e com a terceira técnica 3200 execuções, em 80 testes diferentes. O modelo de falhas proposto para este trabalho refere-se a falhas de crash baseadas em corrupção de memória e registradores, parada de CPU, aborto de transações ou reset geral. Os experimentos foram divididos em três técnicas distintas, visando a maior cobertura possível de erros, e apresentam resultados bastante diferenciados. Os experimentos com o comando NLOO praticamente não afetaram o ambiente do banco de dados. Pequeno número de injeção de falhas com o FIDe afetaram significativamente a dependabilidade do SGBD e os experimentos com a técnica de UHVHW geral foram os que mais comprometeram a dependabilidade do SGBD.