982 resultados para Seguranca : Computadores


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A procura por uma forma de, fácil e rapidamente, retirar conhecimento de um especialista e transmiti-lo a outros profissionais tem levado ao desenvolvimento de diversas pesquisas que unem metodologias de raciocínio com o atendimento a problemas. Os ambientes corporativos demonstram sua eficiência baseados na maneira como desenvolvem suas tarefas. Cada vez mais, buscam alternativas que os ajudem a responder por atividades e problemas ocorridos, as quais podem significar um processo de manutenção que pode decidir o nível de eficiência e competência da organização. Estas alternativas compreendem ferramentas ou profissionais, os quais transformaram-se em especialistas por adquirirem conhecimento e capacidade em prover soluções a problemas. As características de um problema podem ser alteradas sob alguns aspectos mas, mesmo em domínios mais complexos como a gerência de redes de computadores ou a medicina, algo que foi aprendido sempre tem utilidade em novas situações. Este é o tipo de conhecimento e raciocínio próprios de um especialista, ou seja, o uso de suas experiências. Raciocínio Baseado em Casos (case-based reasoning) é uma metodologia de inteligência artificial que apresenta a forma de raciocínio semelhante à de um especialista, onde o raciocínio é obtido por um processo de recordar um exemplo concreto. Porém, as pesquisas que a utilizam, geralmente, desenvolvem trabalhos para um específico tipo de domínio de problema, o que resulta em alterações de programação, caso estes desejem ser adaptados para outros domínios. Este procedimento, muitas vezes, é tido como difícil e trabalhoso Baseando-se neste contexto, o presente trabalho apresenta um mecanismo que fornece inclusões de conhecimento de especialistas, independente do tipo de domínio de problema, e raciocínio sobre este conhecimento, de forma a auxiliar usuários com problemas referentes ao domínio cadastrado. Para tanto, a implementação baseou-se na união de sistemas de registros de problemas (trouble ticket systems) com raciocínio baseado em casos, propondo uma forma auxiliar no conhecimento e busca de soluções em domínios de problema. O estudo, além de fazer uso das metodologias citadas acima, usa o domínio de gerenciamento de segurança em redes de computadores para exercitar suas funções, provar sua utilidade e dificuldades. Assim, um estudo mais detalhado sobre os problemas que cercam o domínio de segurança em redes TCP/IP foi desenvolvido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Análise do processo e do modelo de administração participativa definido para a COBRA Computadores por uma comissão paritária em 1987. A Introdução, dissertação é constituida de 5 partes: na primeira, são explicitadas as razões da escolha do tema. Na segunda são participativa Na terceira apresentados conceitos sobre administração e relatadas experiências no Brasil e no parte é feita a análise institucional da exterior. COBRA no momento em que a experiência foi realizada. Na quarta parte é analisada a experiência de definição do modelo de administração participativa. Finalmente, na quinta parte, são apresentadas as conclusões, onde são enfatizadas as tendências dos modelos de administração participativa no contexto atual e realizadas as considerações finais sobre a experiência realizada na COBRA.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A execução de testes é um passo essencial na adoção de novos protocolos de comunicação e sistemas distribuídos. A forma com que estes se comportam na presença de falhas, tão comuns em ambientes geograficamente distribuídos, deve ser conhecida e considerada. Testes sob condições de falha devem ser realizados e as implementações devem trabalhar dentro de sua especificação nestas condições, garantindo explicitamente o funcionamento dos seus mecanismos de detecção e recuperação de erros. Para a realização de tais testes, uma técnica poderosa é a injeção de falhas. Ferramentas de injeção de falhas permitem ao projetista ou engenheiro de testes medir a eficiência dos mecanismos de um sistema antes que o mesmo seja colocado em operação efetiva. Este trabalho apresenta o projeto, desenvolvimento e teste do injetor de falhas FIRMAMENT. Esta ferramenta executa, dentro do núcleo do sistema operacional, microprogramas, ou faultlets, sobre cada mensagem processada para a emulação de situações de falha de comunicação, utilizando uma abordagem de scripts. A ferramenta é implementada como um módulo de núcleo do sistema operacional Linux, tendo acesso total aos fluxos de entrada e saída de pacotes de forma limpa e não intrusiva, permitindo o teste de sistemas baseados nos protocolos IPv4 e IPv6. Seu desempenho é significativo, já que a ferramenta evita que os mecanismos de injeção de falhas sejam invocados nos fluxos que não sejam de interesse aos testes, bem como dispensa a cópia de dados dos pacotes de comunicação a serem inspecionados e manipulados. A aplicabilidade da ferramenta, dada pela sua facilidade de integração a um ambiente de produção, é conseqüência de sua disponibilidade como um módulo de núcleo, podendo ser carregada como um plugin em um núcleo não modificado. As instruções por FIRMAMENT suportadas lhe dão alto poder de expressão dos cenários de falhas. Estas instruções permitem a inspeção e seleção de mensagens de forma determinística ou estatística. Além disso, fornecem diversas ações a serem realizadas sobre os pacotes de comunicação e sobre as variáveis internas do injetor, fazendo-o imitar o comportamento de falhas reais, como descarte e duplicação de mensagens, atraso na sua entrega e modificação de seu conteúdo. Estas características tornam a ferramenta apropriada para a realização de experimentos sobre protocolos e sistemas distribuídos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação está dividida em 6 (seis) capítulos, um dos quais é esta própria introdução, com a qual se pretendeu, além de mostrar a importância do problema que será analisado, também realçar o seu papel no panorama de Processamento de Dados brasileiro de hoje. O capítulo seguinte apresenta o trabalho alvo deste estudo, ou seja, programação de computadores, situando-o em relação ao todo da função de processamento de dados na em presa e caracterizando-se também os aspectos organizacionais dessa função além de realçar-se os aspectos básicos do ciclo de vida dos sistemas automatizados. Em seguida, no terceiro capítulo, são enumerados e analisados os vários fatores que atuam sobre a tarefa de programação de computadores os quais encontram-se separados em três categorias; Fatores ambientais, Variáveis Inerentes a Cada Programa e Experiência do Programador. No quarto capítulo são consideradas vá- rias técnicas de Medida do Trabalho, examinando-se cada uma sob a ótica de uma possível aplicação com programadores de computador. A metodologia proposta para se estabelecer padrões de tempo e produtividade para esses profissionais está apresentada no quinto capítulo. Resumidamente ela consiste em se escolher e observar um grupo de programas de computador, quantificando simultaneamente suas variáveis peculiares conforme conceituadas no terceiro capítulo e o esforço dispendido em cada um. Através do uso da análise de regressão múltipla são então obtidas as equações que darão os tempos normais necessários para se produzir cada tipo de programa em função das variáveis relevantes em cada tipo. Finalmente no último capítulo são mostrados os principais benefícios obtidos com a aplicação da metodologia sugerindo-se possibilidades para se expandir o estudo

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta animação descreve as representações de números binários sem sinal, representação de sinal e magnitude, complemento de 1, complemento de 2. Também são apresentadas a adição de números sem sinal, a subtração em complemento de 2, o conceito de overflow e exceção. O projeto de uma unidade lógica e aritmética (ULA) é descrito, assim como alguns exemplos das operações: slt e beq. Três versões da operação de multiplicação, que é mais complicada que a de soma, são apresentadas por meio de figuras e algoritmos. A representação de ponto flutuante e o padrão IEEE 754 também são descritos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta um levantamento dos problemas associados à influência da observabilidade e da visualização radial no projeto de sistemas de monitoramento para redes de grande magnitude e complexidade. Além disso, se propõe a apresentar soluções para parte desses problemas. Através da utilização da Teoria de Redes Complexas, são abordadas duas questões: (i) a localização e a quantidade de nós necessários para garantir uma aquisição de dados capaz de representar o estado da rede de forma efetiva e (ii) a elaboração de um modelo de visualização das informações da rede capaz de ampliar a capacidade de inferência e de entendimento de suas propriedades. A tese estabelece limites teóricos a estas questões e apresenta um estudo sobre a complexidade do monitoramento eficaz, eficiente e escalável de redes

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A maioria da soluções apresentadas como candidatas à implementação de serviços de distribuição de áudio e vídeo, têm sido projetadas levando-se em consideração determinadas condições de infra-estrutura, formato dos fluxos de vídeo a serem transmitidos, ou ainda os tipos de clientes que serão atendidos pelo serviço. Aplicações que utilizam serviços de distribuição de vídeo normalmente precisam lidar com grandes oscilações na demanda pelo serviço devido a entrada e saída de usuários do serviço. Com exemplo, basta observar a enorme variação nos níveis de audiência de programas de televisão. Este comportamento coloca um importante requisito para esta classe de sistemas distribuídos: a capacidade de reconfiguração como conseqüência de variações na demanda. Esta dissertação apresenta um estudo que envolveu o uso de agentes móveis para implementar os servidores de um serviço de distribuição de vídeo denominada DynaVideo. Uma das principais características deste serviço é a capacidade de ajustar sua configuração em conseqüência de variações na demanda. Como os servidores DynaVideo podem replicar-se e são implementados como código móvel, seu posicionamento pode ser otimizado para atender uma dada demanda e, como conseqüência, a configuração do serviço pode ser ajustada para minimizar o consumo de recursos necessários para distribuir vídeo para seus usuários. A principal contribuição desta dissertação foi provar a viabilidade do conceito de servidores implementados como agentes móveis Java baseados no ambiente de desenvolvimento de software Aglet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: em decorrência dos questionamentos sobre o efeito deletério das radiações emitidas pelo campo eletromagnético (CEM) dos tipos ELF (extremely low frequency) e VLF (very low frequency) transmitidas pelos monitores de vídeo dos computadores (CRT), foi avaliada a freqüência de anomalias cromossômicas estruturais e a cinética do ciclo celular em indivíduos expostos por seu trabalho à radiação dos CRT. MÉTODOS: A pesquisa de aberrações cromossômicas foi realizada em 2.000 metáfases de primeira divisão celular obtidas de culturas de 48h de linfócitos de sangue venoso periférico de dez indivíduos expostos ao CRT (grupo E) e de dez controles (grupo C). A cinética do ciclo celular foi pesquisada pelos índices mitótico (IM) e de proliferação celular (IPC). RESULTADOS: A análise estatística evidenciou freqüências significativamente maiores de metáfases com anomalias cromossômicas (E=5,9%; C=3,7%) e anomalias/célula (E=0,066±0,026; C=0,040±0,026) nos indivíduos expostos aos CRTs. As alterações citogenéticas mais comuns foram as quebras cromatídicas, com freqüência de 0,034±0,016 no grupo E e de 0,016±0,015 no grupo C. As freqüências de IM e IPC não apresentaram diferenças significantes entre os grupos avaliados. CONCLUSÕES: Os resultados sugerem um efeito genotóxico do CEM emitido pelos CRTs devido à freqüência mais elevada de quebras cromatídicas, enfatizando a necessidade de haver um número maior de estudos com diferentes técnicas que vise a investigar a ação do CEM sobre o material genético.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Purpose: To evaluate the antihypertensive efficacy and safety of cilazapril compared to nifedipine retard in mild to moderate hypertension. Methods: Forty randomized out-patients with mild moderate hypertension, diastolic pressure (DP) between 95 and 115 mmg/Hg, with placebo for 15 days were randomized and allocated for treatment, double-blind, once daily with cilazapril 2.5 mg (n = 20) or nifedipine retard 20 mg (20 = n) for four weeks. The non-responders (DP > 90 mmHg) had the dosage increased twice, b.i.d., while responders were maintained up to 10 weeks. Clinical visits were performed before, at baseline and every two weeks and the laboratory test was performed after placebo run-in, 4th and 10th weeks of treatment. Results: The blood pressure (BP) were similar between groups at the end of the placebo (cilazapril 151 ± 14/103 ± 5 - nifedipine 157 ± 17/108 ± 7 mmHg, p > 0.05). DP decreased already at second weeks (cilazapril 95 ± 9 - nifedipine 96 ± 11 mmHg, p < 0.05, compared to week 0) in both groups at the end of study with no differences inter groups. BP normalization was obtained in 58% of the patients with cilazapril and in 61% in the nifedipine group. Adverse biochemical effects were not observed in any group. Six (16%) patients of the cilazapril and 15 (39%) of nifedipine related collateral events, although no difference were observed between groups. Conclusion: Cilazapril 2.5 to 5 mg normalized BP in 58% of mild and moderate hypertension patients, and this efficacy was similar to sustained-release nifedipine 20 to 40 mg. Cilazapril had no adverse effects on the biochemical parameters with low incidence of collateral effects.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper presents a methodology for solving a set of linear sparse equations on vector computers. The new methodology is able to exploit the matrix and vector sparsities. The implementation was made on a CRAY Y-MP 2E/232 computer and the results were taken from electric power systems with 118, 320, 725 and 1729 buses. The proposed methodology was compared with three previous methods and the results show the superior performance of the new one.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This work presents an algorithm for the security control of electric power systems using control actions like generation reallocation, determined by sensitivity analysis (linearized model) and optimization by neural networks. The model is developed taking into account the dynamic network aspects. The preventive control methodology is developed by means of sensitivity analysis of the security margin related with the mechanical power of the system synchronous machines. The reallocation power in each machine is determined using neural networks. The neural network used in this work is of Hopfield type. These networks are dedicated electric circuits which simulate the constraint set and the objective function of an optimization problem. The advantage of using these networks is the higher speed in getting the solutions when compared to conventional optimization algorithms due to the great convergence rate of the process and the facility of the method parallelization. Then, the objectives are: formulate and investigate these networks implementations in determining. The generation reallocation in digital computers. Aiming to illustrate the proposed methodology an application considering a multi-machine system is presented.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this paper, we present GPIMEM, a group that has been developing research in Mathematics Education related to computers and other media since 1993 to understand how mathematical knowledge can be produced with these technological resources, in face-to-face as well as online distance education. Members of the group dialogue with different fields of knowledge such as philosophy, history, psychology, anthropology, sociology, arts and technology, among others, to inform their research. The research addresses various topics relevant to Mathematics Education, including methodological and epistemological aspects of teaching and learning, of mathematical modeling and teacher education, always within a qualitative research perspective. We begin with the historical presentation of the group, revealing its dynamics and organization of work, followed by reflections on qualitative research methodology and description of research conducted over the past five years. Finally, we present a synthesis of the theories developed by the group and expectations for the future.