982 resultados para Seguranca : Computadores


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta dissertação apresenta o desenvolvimento de um novo algoritmo de criptografia de chave pública. Este algoritmo apresenta duas características que o tornam único, e que foram tomadas como guia para a sua concepção. A primeira característica é que ele é semanticamente seguro. Isto significa que nenhum adversário limitado polinomialmente consegue obter qualquer informação parcial sobre o conteúdo que foi cifrado, nem mesmo decidir se duas cifrações distintas correspondem ou não a um mesmo conteúdo. A segunda característica é que ele depende, para qualquer tamanho de texto claro, de uma única premissa de segurança: que o logaritmo no grupo formado pelos pontos de uma curva elíptica de ordem prima seja computacionalmente intratável. Isto é obtido garantindo-se que todas as diferentes partes do algoritmo sejam redutíveis a este problema. É apresentada também uma forma simples de estendê-lo a fim de que ele apresente segurança contra atacantes ativos, em especial, contra ataques de texto cifrado adaptativos. Para tanto, e a fim de manter a premissa de que a segurança do algoritmo seja unicamente dependente do logaritmo elíptico, é apresentada uma nova função de resumo criptográfico (hash) cuja segurança é baseada no mesmo problema.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A área de Detecção de Intrusão, apesar de muito pesquisada, não responde a alguns problemas reais como níveis de ataques, dim ensão e complexidade de redes, tolerância a falhas, autenticação e privacidade, interoperabilidade e padronização. Uma pesquisa no Instituto de Informática da UFRGS, mais especificamente no Grupo de Segurança (GSEG), visa desenvolver um Sistema de Detecção de Intrusão Distribuído e com características de tolerância a falhas. Este projeto, denominado Asgaard, é a idealização de um sistema cujo objetivo não se restringe apenas a ser mais uma ferramenta de Detecção de Intrusão, mas uma plataforma que possibilite agregar novos módulos e técnicas, sendo um avanço em relação a outros Sistemas de Detecção atualmente em desenvolvimento. Um tópico ainda não abordado neste projeto seria a detecção de sniffers na rede, vindo a ser uma forma de prevenir que um ataque prossiga em outras estações ou redes interconectadas, desde que um intruso normalmente instala um sniffer após um ataque bem sucedido. Este trabalho discute as técnicas de detecção de sniffers, seus cenários, bem como avalia o uso destas técnicas em uma rede local. As técnicas conhecidas são testadas em um ambiente com diferentes sistemas operacionais, como linux e windows, mapeando os resultados sobre a eficiência das mesmas em condições diversas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O presente trabalho apresenta um novo esquema de criptografia de chave pública baseado no emprego de funções para representar as mensagens original e cifrada. No esquema proposto – denominado Rafaella -, o processo de cifração consiste na aplicação de um deslocamento no argumento da função que representa a mensagem, de modo que se f(x) descreve a mensagem original, então f(x+z) representa a respectiva mensagem cifrada. O deslocamento z representa um número complexo que, no esquema proposto, representa a forma das chaves privadas dos participantes. A dificuldade da resolução do problema inversos concentra-se na obtenção das partes real e imaginária do deslocamento z, que pode ser efetuada através de método de força bruta, ou da resolução de um problema de contorno. A segunda alternativa envolve a resolução de equações diferenciais. Dentre os métodos disponíveis para a resolução de equações diferenciais, o emprego dos chamados grupos de Lie constitui, via de regra, a estratégia mais apropriada para a obtenção de soluções analíticas, que demandam menor tempo de processamento do que as formulações numéricas. Mesmo assim, a solução obtida através da utilização dos grupos de Lie requer elevado número de operações simbólicas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Alta disponibilidade (muitas vezes referenciada como HA, de High Availability) é uma característica de sistemas computacionais que são projetados para evitar ao máximo as interrupções, planejadas ou não, na prestação de serviços. Em alta disponibilidade, o ideal é haver poucas falhas e, mesmo quando estas acontecerem, que o seu tempo médio de reparo (ou MTTR, de Mean Time To Repair) seja tão pequeno quanto possível. Sistemas operacionais têm um papel importante em alta disponibilidade, sendo preferível o uso daqueles que possuam sistemas de arquivos seguros e relativamente independentes de ações por agentes humanos para a recuperação. Uma das abordagens para auxiliar a obter-se uma alta disponibilidade em sistemas de arquivos é a do tipo journaling, ou meta-data logging. Existe uma série de sistemas de arquivos para o sistema operacional Linux baseando-se nela, tais como ext3, JFS, ReiserFS e XFS. Este trabalho tem por objetivo propor uma metodologia de validação experimental para avaliar a eficiência do mecanismo para recuperação de sistemas de arquivos baseados em journaling, na ocorrência de falhas. Para isso, a técnica de validação empregada é a da injeção de falhas e o sistema sob teste é uma implementação do XFS. Foram utilizados os recursos de depuração do sistema operacional Linux (que permitem a utilização de métodos para interceptação e manipulação de chamadas de sistema) para a implementação de um injetor de falhas específico para sistemas de arquivos baseados em journaling, o qual foi chamado de FIJI (Fault Injector for Journaling fIlesystems). Manipular os parâmetros de chamadas de sistema (ou system calls) através do FIJI equivale a alterar as requisições feitas ao sistema operacional. A eficiência do mecanismo de journaling é medida injetando-se falhas e medindose o MTTR e a cobertura de falhas. Basicamente, o que procura-se fazer através do injetor de falhas FIJI é ignorar os logs do journaling e manipular uma quantidade de informações diferente daquela que foi solicitada originalmente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Duración (en horas): Más de 50 horas. Destinatario: Estudiante y Docente

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Capítulo 3 del libro: Guisasola, Jenaro ; Garmendia, Mikel (eds.) "Aprendizaje basado en problemas, proyectos y casos: diseño e implementación de experiencias en la universidad" (ISBN: 978-84-9860-959-2)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Grados recientes como el de Ingeniería Informática de Gestión y Sistemas de Información, y dada la orientación profesional que va a obtener el/la egresado/a para su incorporación en el mundo de la industria, requieren una revisión del enfoque de determinadas materias relativas a, por ejemplo, cómo está estructurado un computador, qué elementos lo conforman, cómo interactúan, etc.; dando al alumnado una visión amplia sin buscar la exhaustividad (propia de otras titulaciones) pero manteniendo un rigor tanto técnico como científico según la materia tratada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este documento foi concebido com o intuito de ressaltar a importância do acompanhamento da disponibilidade dos recursos de uma rede de computadores. O presente trabalho consiste de um procedimento para a implementação da ferramenta CACTI, que é um software para monitoramento da disponibilidade de máquinas e serviços de uma rede de computadores, e também para a inserção dos ativos de rede que se deseja gerenciar por meio dessa ferramenta. Antes da apresentação da ferramenta CACTI, é feita uma breve explanação de alguns entre os muitos softwares de monitoramento existentes no mercado. Este trabalho destina-se a facilitar a tarefa de gerenciamento de uma rede de computadores a todos os usuários, que de alguma forma necessitem, de forma clara e objetiva, saber da disponibilidade de seus recursos, seja de forma imediata ou ao longo de um período de tempo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen tomado del autor

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A utilização das Tecnologias de Informação e Comunicação (TIC), quer na sala de aula quer em casa, tem crescido de uma forma quase exponencial. É possível dividir a história da utilização dos computadores na educação em dois períodos: antes e depois do aparecimento dos computadores pessoais. Estes aparecem no final da década de 70 do século XX, sendo responsáveis pelas alterações no processo de ensino e aprendizagem, na organização do trabalho na universidade e no próprio sistema educacional. A introdução destas tecnologias é acompanhada de expectativas demasiado optimistas, tais como um maior sucesso escolar, tornar o ensino mais apelativo e o trabalho do docente menos repetitivo. Contudo, mesmo havendo o reconhecimento da necessidade do uso do computador e de programas computacionais como ferramentas educacionais, estes instrumentos são pouco familiares para estudantes e docentes. Pretende-se, com recurso a questionários, conhecer qual a utilização que os estudantes de uma Escola de Ciências da Saúde e do Ensino Superior Privado fazem das TIC,em especial do computador. Observou-se que o computador é bastante familiar a todos os estudantes, pois recorrem a este instrumento para realizar múltiplas tarefas, tanto em casa como na instituição. Os trabalhos académicos e a pesquisa na Internet revelaram-se como sendo as actividades que mais ocupam os estudantes no computador.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho define e implementa um sistema de controle de consumo para redes de computadores, objetivando aumentar o tempo de operação da rede em caso de operação com recursos limitados e redução de consumo de energia em situações de fornecimento normal. Na definição do sistema, denominado NetPower, foi estabelecida uma estrutura através da qual um gerente (coordenador) monitora as atividades dos equipamentos vinculados à rede, e determina alterações nos estados de consumo respectivos, de acordo com as necessidades ou atendimento de padrões de otimização. Aos equipamentos podem ser atribuídos diferentes privilégios em uma hierarquia adaptável a diversos ambientes. Um reserva oferece opção às falhas do gerente. A implementação está baseada no protocolo SNMP (Simple Network Management Protocol) para a gerência e são considerados preponderantemente os padrões para controle de consumo dos equipamentos Advanced Power Management, APM, e Advanced Configuration and Power Interface Specification, ACPI. Além da arquitetura do gerente e dos agentes, foi definida também uma MIB (Management Information Base) para controle de consumo. No projeto do sistema, foi privilegiado o objetivo de utilização em qualquer ambiente de rede, sem preferência por equipamentos de algum fabricante específico ou por arquitetura de hardware. Tecnologias de domínio público foram utilizadas, quando possível. No futuro este sistema pode fazer parte da distribuição de sistemas operacionais, incorporando controle de consumo às redes. No texto é feita uma comparação entre os softwares existentes para controle de consumo, são apresentados os recursos de controle de consumo disponíveis nos equipamentos de computação, seguido da descrição do protocolo de gerência utilizado. Em seguida, é apresentada a proposta detalhada do sistema de controle e descrita da implementação do protótipo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O gerenciamento de redes de computadores é uma tarefa complexa de ser realizada porque a redes atualmente possuem muitos equipamentos, protocolos, serviços e usuários. Como regra geral, redes de computadores são heterogêneas e a introdução de facilidades para o fornecimento de qualidade de serviço (QoS) faz com que a gerência de redes se torne ainda mais complexa, e neste cenário as soluções tradicionais de gerenciamento podem falhar. O gerenciamento de redes com QoS vem sendo investigado por diversos grupos, e soluções comerciais para o problema já podem ser encontradas. Entretanto, a gerência de QoS possui aspectos diversos que são investigados separadamente. Do ponto de vista do administrador de redes, soluções pontuais são importantes, mas a integração entre os diversos aspectos de gerência de QoS também é uma necessidade. Tal necessidade, entretanto, não tem encontrado respaldo nas pesquisas desenvolvidas ou nos produtos de gerenciamento disponibilizados no mercado. Nesta situação, o administrador da rede é obrigado a trabalhar ao mesmo tempo com soluções disjuntas que não oferecem integração. Isso acaba por complicar a gerência de QoS, que por si só já é uma atividade complexa. QoS e discutida a necessidade de integração. As soluções existentes e pesquisas desenvolvidas são classificadas para que possam ser mais bem avaliadas em uma visão mais global. A classificação realizada organiza os aspectos de QoS em tarefas de gerência de QoS que devem ser executadas por um administrador de redes que possuam facilidades de QoS. Para que a integração das tarefas de gerência de QoS seja possível, um modelo para gerência integrada de QoS em redes de computadores é proposto. O modelo, definido em camadas, utiliza elementos distribuídos na rede para executar tarefas específicas e um ambiente de gerência central fornece uma interface única de acesso ao sistema de gerência ao administrador da rede. O modelo proposto é analisado de acordo com alguns aspectos (por exemplo, em relação à sua escalabilidade, flexibilidade e exeqüibilidade). Uma implementação do mesmo é apresentada para a gerência de redes baseadas em IP que possuam mecanismos para fornecimento de QoS. A avaliação do modelo mostra, ao final, que a gerência de QoS, além de ser uma necessidade real, é possível de ser executada de forma integrada, como desejam os administradores de rede.