1000 resultados para Sistemas de detecção de intrusão
Resumo:
Dissertação apresentada como requisito parcial para a obtenção do grau de Mestre em Estatística e Gestão da Informação
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Electrotécnica e de Computadores
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Electrotécnica e de Computadores
Resumo:
Visando a otimização do uso da técnica de imuno-histoquímica (IHQ) na detecção de Aspergillus spp. e zigomicetos (membros da família Mucoraceae), utilizaram-se dois anticorpos monoclonais fungo-específicos em fragmentos de tecidos de animais (fixados em formol e embebidos em parafina) com diagnóstico histomorfológico prévio de aspergilose e zigomicose, os quais foram submetidos a três sistemas de detecção diferentes (dois biotinilados e um não biotinilado). Os dois anticorpos apresentaram alta especificidade e sensibilidade nos tecidos examinados. Não ocorreram reações cruzadas entre os anticorpos utilizados e os agentes etiológicos avaliados (incluindo casos de aspergilose, zigomicose, candidíase e pitiose). No entanto, reações inespecíficas foram observadas nas hifas em alguns casos, as quais puderam ser eliminadas através de um dos métodos de detecção utilizados. Para a aspergilose, o método da estreptavidina-biotina-fosfatase alcalina não apresentou reações inespecíficas nas hifas. Enquanto que nos casos de zigomicoses, as reações inespecíficas não ocorreram no método por polímero (não biotinilado). A técnica de IHQ mostrou-se uma ferramenta muito útil na detecção e confirmação dos casos de aspergilose e zigomicose neste estudo retrospectivo.
Resumo:
The transport of fluids through pipes is used in the oil industry, being the pipelines an important link in the logistics flow of fluids. However, the pipelines suffer deterioration in their walls caused by several factors which may cause loss of fluids to the environment, justifying the investment in techniques and methods of leak detection to minimize fluid loss and environmental damage. This work presents the development of a supervisory module in order to inform to the operator the leakage in the pipeline monitored in the shortest time possible, in order that the operator log procedure that entails the end of the leak. This module is a component of a system designed to detect leaks in oil pipelines using sonic technology, wavelets and neural networks. The plant used in the development and testing of the module presented here was the system of tanks of LAMP, and its LAN, as monitoring network. The proposal consists of, basically, two stages. Initially, assess the performance of the communication infrastructure of the supervisory module. Later, simulate leaks so that the DSP sends information to the supervisory performs the calculation of the location of leaks and indicate to which sensor the leak is closer, and using the system of tanks of LAMP, capture the pressure in the pipeline monitored by piezoresistive sensors, this information being processed by the DSP and sent to the supervisory to be presented to the user in real time
Resumo:
The increasing of the number of attacks in the computer networks has been treated with the increment of the resources that are applied directly in the active routers equip-ments of these networks. In this context, the firewalls had been consolidated as essential elements in the input and output control process of packets in a network. With the advent of intrusion detectors systems (IDS), efforts have been done in the direction to incorporate packets filtering based in standards of traditional firewalls. This integration incorporates the IDS functions (as filtering based on signatures, until then a passive element) with the already existing functions in firewall. In opposite of the efficiency due this incorporation in the blockage of signature known attacks, the filtering in the application level provokes a natural retard in the analyzed packets, and it can reduce the machine performance to filter the others packets because of machine resources demand by this level of filtering. This work presents models of treatment for this problem based in the packets re-routing for analysis by a sub-network with specific filterings. The suggestion of implementa- tion of this model aims reducing the performance problem and opening a space for the consolidation of scenes where others not conventional filtering solutions (spam blockage, P2P traffic control/blockage, etc.) can be inserted in the filtering sub-network, without inplying in overload of the main firewall in a corporative network
Resumo:
In a real process, all used resources, whether physical or developed in software, are subject to interruptions or operational commitments. However, in situations in which operate critical systems, any kind of problem may bring big consequences. Knowing this, this paper aims to develop a system capable to detect the presence and indicate the types of failures that may occur in a process. For implementing and testing the proposed methodology, a coupled tank system was used as a study model case. The system should be developed to generate a set of signals that notify the process operator and that may be post-processed, enabling changes in control strategy or control parameters. Due to the damage risks involved with sensors, actuators and amplifiers of the real plant, the data set of the faults will be computationally generated and the results collected from numerical simulations of the process model. The system will be composed by structures with Artificial Neural Networks, trained in offline mode using Matlab®
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
The transport of fluids through pipes is used in the oil industry, being the pipelines an important link in the logistics flow of fluids. However, the pipelines suffer deterioration in their walls caused by several factors which may cause loss of fluids to the environment, justifying the investment in techniques and methods of leak detection to minimize fluid loss and environmental damage. This work presents the development of a supervisory module in order to inform to the operator the leakage in the pipeline monitored in the shortest time possible, in order that the operator log procedure that entails the end of the leak. This module is a component of a system designed to detect leaks in oil pipelines using sonic technology, wavelets and neural networks. The plant used in the development and testing of the module presented here was the system of tanks of LAMP, and its LAN, as monitoring network. The proposal consists of, basically, two stages. Initially, assess the performance of the communication infrastructure of the supervisory module. Later, simulate leaks so that the DSP sends information to the supervisory performs the calculation of the location of leaks and indicate to which sensor the leak is closer, and using the system of tanks of LAMP, capture the pressure in the pipeline monitored by piezoresistive sensors, this information being processed by the DSP and sent to the supervisory to be presented to the user in real time
Resumo:
A Realidade Aumentada veio alterar a percepção que o ser humano tem do mundo real. A expansão da nossa realidade à Realidade Virtual possibilita a criação de novas experiencias, cuja aplicabilidade é já tida como natural em diversas situações. No entanto, potenciar este tipo de interacção pode ser um processo complexo, quer por limitações tecnológicas, quer pela gestão dos recursos envolvidos. O desenvolvimento de projectos com realidade aumentada para fins comerciais passa assim muitas vezes pela optimização dos recursos utilizados tendo em consideração as limitações das tecnologias envolventes (sistemas de detecção de movimento e voz, detecção de padrões, GPS, análise de imagens, sensores biométricos, etc.). Com a vulgarização e aceitação das técnicas de Realidade Aumentada em muitas áreas (medicina, educação, lazer, etc.), torna-se também necessário que estas técnicas sejam transversais aos dispositivos que utilizamos diariamente (computadores, tablets, telemóveis etc.). Um dominador comum entre estes dispositivos é a internet uma vez que as aplicações online conseguem abarcar um maior número de pessoas. O objectivo deste projecto era o de criar uma aplicação web com técnicas de Realidade Aumentada e cujos conteúdos fossem geridos pelos utilizadores. O processo de investigação e desenvolvimento deste trabalho passou assim por uma fase fundamental de prototipagem para seleccionar as tecnologias que melhor se enquadravam no tipo de arquitectura pretendida para a aplicação e nas ferramentas de desenvolvimento utilizadas pela empresa onde o projecto foi desenvolvido. A aplicação final é composta por um FrontOffice, responsável por mostrar e interpretar as aplicações criadas e possibilitar a integração com outras aplicações, e um BackOffice que possibilita aos utilizadores, sem conhecimentos de programação, criar novas aplicações de realidade aumentada e gerir os conteúdos multimédia utilizados. A aplicação desenvolvida pode servir de base para outras aplicações e ser reutilizável noutros âmbitos, sempre com o objectivo de reduzir custos de desenvolvimento e de gestão de conteúdos, proporcionando assim a implementação de uma Framework que permite a gestão de conteúdos em diferentes áreas (medicina, educação, lazer, etc.), onde os utilizadores podem criar as suas próprias aplicações, jogos e ferramentas de trabalho. No decorrer do projecto, a aplicação foi validada por especialistas garantindo o cumprimento dos objectivos propostos.
Resumo:
Trabalho de projecto apresentado como requisito parcial para obtenção do grau de Mestre em Ciência e Sistemas de Informação Geográfica
Resumo:
Inúmeros sistemas de detecção remota, com resoluções espaciais e espectrais elevadas, estão projectados para as próximas décadas. Tais sistemas permitirão aceder a informação com resoluções nunca antes disponibilizadas para a comunidade civil de detecção remota permitirão a emersão de novos tipos de aplicações dos dados gerados. Este documento identifica algum do potencial associado à nova era comercial dos sensores de alta resolução, no contexto da detecção remota e dos sistemas de observação da Terra.
Resumo:
A aplicação de uma diferença de potencial entre os extremos de um capilar de material dielétrico, preenchido com solução aquosa, provoca um fluxo eletroosmótico através deste. As moléculas, de um pequeno volume de uma amostra injetada neste fluxo, se separam umas das outras devido a diferença entre suas mobilidades eletroforéticas. Este método de separação é conhecido como Eletroforese Capilar. Ele tem se mostrado muito eficiente na separação de moléculas orgânicas complexas e é um método complementar à Cromatografia Líquida. Os sistemas de detecção mais comumente utilizados são do tipo eletroquímico ou ópticos, estes últimos podem ser de absorção ou fluorimétricos. Alta sensibilidade tem sido obtida com sistemas de detecção com fluorescência induzida a lazer, como o de Argônio, Hélio-Cádmio e de semicondutor. Neste trabalho testamos o desempenho de um laser ultravioleta pulsado, usando o mini-laser de N2 (337 nm), para induzir a fluorescência em moléculas marcadas com marcadores moleculares fluorogênicos apropriados. Para aminoácidos obtivemos limites de detecção da ordem de alguns attomóis(10-18 mol).Em condições otimizadas a quantidade mínima detectável de melatonina e serotonina, usando o marcador molecular fluorogênico isotiocianato de fluoresceÍna, foi de 150 attomóis, que corresponde a um limite de detecção em concentração de 50 nM. Os peptídeos bradicinina, lisil-bradicinina e metionil-lisil-bradicinina foram separados entre si e detectados no limite de detecção em concentração de 1,2 fmóis quando marcados com fluorescamina e a 90 attomóis quando com orto"ftaldialdeído. Do nosso conhecimento, esta é a primeira vez que um laser pulsado (N2) é usado num sistema de detecção de eletroforese capilar.
Resumo:
As redes de computadores experimentam um grande crescimento não apenas em tamanho, mas também no número de serviços oferecidos e no número de protocolos de alto nível e aplicações que são executados sobre elas. Boa parte desses software (ex.: ICQ e Napster), em geral, não está diretamente ligada a aplicações críticas, mas o seu uso não controlado pode degradar o desempenho da rede. Para que se possa medir o impacto dos mesmos sobre a infra-estrutura, mecanismos de gerência ligados à contabilização e caracterização de tráfego são desejáveis. Por outro lado, alguns protocolos, serviços e aplicações (ex. servidores DNS e Web) suportam aplicações e precisam ser monitorados e gerenciados com maior atenção. Para essa classe de software de rede, a simples contabilização e caracterização de tráfego não é suficiente; tarefas de gerência como teste de serviços, detecção e manipulação de falhas, medição de desempenho e detecção de intrusão são importantes para garantir alta disponibilidade e eficiência da rede e aplicações. As ferramentas existentes para essa finalidade são, entre aspectos, (a) não integradas (necessidade de uma ferramenta para monitorar cada aplicação), (b) centralizadas (não oferecem suporte à distribuição de tarefas de gerenciamento) e (c) pouco flexíveis (dificuldade em gerenciar novos protocolos, serviços e aplicações). Nesse contexto, a tese propõe uma arquitetura, centrada na monitoração passiva em temporal do tráfego de rede, para gerenciamento distribuído de protocolos de alto nível, serviços e aplicações em rede. Baseada da MIB (Management Information Base) Script do IETF (Internet Engineering Task Force), a arquitetura Trace oferece mecanismos para a delegação de tarefas de gerenciamento a gerentes intermediários, que interagem com agentes de monitoração e agentes de ação para executá-las. A tese propõe também PTSL (Protocol Trace Specification Language), uma linguagem gráfica/textual criada para permitir que gerentes de rede especificam as interações de protocolos (traços) que lhes interessam monitorar. As especificações são usadas pelso gerentes intermediários para programar os agentes de monitoração. Uma vez programadas, esses agentes passam a monitorar a ocorrência dos traços.As informações obtidas são analisadas pelos agentes intermediários, que podem requisitar de ação a execução de procedimentos (ex: scripts Perl), possibilitando a automação de diversas tarefas de gerenciamento. A arquitetura proposta é validada por um protótipo: a plataforma de gerenciamento Trace.