895 resultados para Jornalismo - Redes de computadores
Resumo:
A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.
Resumo:
O comércio eletrônico já é uma realidade brasileira. Contudo, esta modalidade de negócio eletrônico ainda não atingiu o seu pleno potencial, especialmente nas negociações orientadas para o consumidor (B2C). Vários fatores são apontados como restrições ao seu crescimento, mas nenhum deles é tão destacado e controvertido quanto a segurança na Internet, especialmente nas transações eletrônicas. Este trabalho analisa a questão da segurança do ponto de vista dos usuários de Internet, uma vez que a percepção de segurança dos internautas determina a sua confiança, e a sua confiança influencia a sua decisão de compra eletrônica e a abrangência das compras realizadas através da Internet. A segurança, vista freqüentemente como a grande vilã no mundo digital, passa a ser entendida alternativamente como um dos fundamentos do comércio eletrônico e, conseqüentemente, uma grande vantagem competitiva para os negócios eletrônicos.
Resumo:
Esta tese tem por objetivo aprofundar o conhecimento acadêmico sobre a maneira como as empresas do setor industrial estão se utilizando da Internet e outras tecnologias da informação para agregar valor para os seus clientes e/ou reduzir seus próprios custos, com foco na possibilidade de virtualização dos produtos/serviços oferecidos e dos processos utilizados na sua obtenção, incluindo o relacionamento com os parceiros comerciais. O estudo foi realizado com base em dados levantados a partir de pesquisa de campo, com aplicação de questionário, e na utilização de métodos quantitativos para a análise das informações obtidas. Responderam ao questionário 665 empresas industriais do estado de São Paulo.
Resumo:
As questões ligadas a gestão de riscos associados a segurança da informação já é uma realidade no cenário empresarial brasileiro. O crescimento das operações de negócios em direção aos sistemas de informação baseados em tecnologia fez com que os números de ameaças e de vulnerabilidades sobre as redes de computadores e comunicações aumentassem. Vários são os desafios de estruturação e implementação de uma área de segurança da informação dentro das empresas. Este trabalho analisa as diversas formas de construção de uma infra-estrutura de gestão de risco em segurança de informação, não só no âmbito tecnológico, mas também, no operacional e no mercadológico, de forma a estabelecer uma relação transparente às demais áreas internas da organização, aos clientes e a todo o mercado. A segurança da informação, vista freqüentemente como um assunto ligado a tecnologia, passa a ser entendida cada vez mais como um processo de negócio, e conseqüentemente, uma grande vantagem competitiva para o mundo empresarial.
Resumo:
Notificações enviadas por dispositivos são essenciais para ajudar no gerenciamento de redes de computadores, pois podem alertar sobre, por exemplo, situações anormais ou indesejadas. Porém, em muitos casos, múltiplas notificações relacionadas ao mesmo problema podem ser recebidas por uma estação gerente. Isso faz com que a visualização das notificações se torne confusa. Uma forma possível de diminuir a quantidade de notificações recebidas é através da sua correlação. Atualmente, os Web Services têm sido um importante tema de pesquisa na área de gerenciamento de redes de computadores. Contudo, não há pesquisas propriamente relacionadas à notificação de eventos usando Web Services. O protocolo SNMP, que é a solução mais aceita e utilizada, possui suporte à notificação de eventos através de suas mensagens trap. Porém, esse suporte é limitado e, raramente, consegue cruzar domínios administrativos diferentes. Unindo a necessidade de correlação com a necessidade de cruzar domínios administrativos diferentes, uma arquitetura de correlação de notificações baseada em Web Services e políticas é apresentada. As políticas são utilizadas no trabalho, como mecanismo para definição das regras de correlação de notificações. A arquitetura proposta e sua implementação são apresentadas, permitindo a investigação do uso de Web Services como ferramenta no gerenciamento de redes, considerando o caso específico de suporte a notificações. Este estudo complementa as investigações em andamento do Grupo de Pesquisa de Redes da Universidade Federal do Rio Grande do Sul, mostrando aspectos dosWeb Services no gerenciamento de redes, que eram desconhecidos no campo de notificações, além de mostrar o gerenciamento baseado em políticas aplicado a notificações, assunto também inexplorado até o momento.
Resumo:
A procura por uma forma de, fácil e rapidamente, retirar conhecimento de um especialista e transmiti-lo a outros profissionais tem levado ao desenvolvimento de diversas pesquisas que unem metodologias de raciocínio com o atendimento a problemas. Os ambientes corporativos demonstram sua eficiência baseados na maneira como desenvolvem suas tarefas. Cada vez mais, buscam alternativas que os ajudem a responder por atividades e problemas ocorridos, as quais podem significar um processo de manutenção que pode decidir o nível de eficiência e competência da organização. Estas alternativas compreendem ferramentas ou profissionais, os quais transformaram-se em especialistas por adquirirem conhecimento e capacidade em prover soluções a problemas. As características de um problema podem ser alteradas sob alguns aspectos mas, mesmo em domínios mais complexos como a gerência de redes de computadores ou a medicina, algo que foi aprendido sempre tem utilidade em novas situações. Este é o tipo de conhecimento e raciocínio próprios de um especialista, ou seja, o uso de suas experiências. Raciocínio Baseado em Casos (case-based reasoning) é uma metodologia de inteligência artificial que apresenta a forma de raciocínio semelhante à de um especialista, onde o raciocínio é obtido por um processo de recordar um exemplo concreto. Porém, as pesquisas que a utilizam, geralmente, desenvolvem trabalhos para um específico tipo de domínio de problema, o que resulta em alterações de programação, caso estes desejem ser adaptados para outros domínios. Este procedimento, muitas vezes, é tido como difícil e trabalhoso Baseando-se neste contexto, o presente trabalho apresenta um mecanismo que fornece inclusões de conhecimento de especialistas, independente do tipo de domínio de problema, e raciocínio sobre este conhecimento, de forma a auxiliar usuários com problemas referentes ao domínio cadastrado. Para tanto, a implementação baseou-se na união de sistemas de registros de problemas (trouble ticket systems) com raciocínio baseado em casos, propondo uma forma auxiliar no conhecimento e busca de soluções em domínios de problema. O estudo, além de fazer uso das metodologias citadas acima, usa o domínio de gerenciamento de segurança em redes de computadores para exercitar suas funções, provar sua utilidade e dificuldades. Assim, um estudo mais detalhado sobre os problemas que cercam o domínio de segurança em redes TCP/IP foi desenvolvido.
Resumo:
Baseado no referencial teórico existente se pode constatar que as principais funções da TI que são comumente terceirizadas são: as operações de infraestrutura; o desenvolvimento e a manutenção de aplicações (fábrica de software); e o gerenciamento de redes e computadores (service desk). Dentre as funções comumente terceirizadas, uma que parece ter menor potencial de contribuição diferencial quanto ao seu valor para o negócio é a de infraestrutura, uma atividade bastante estruturada que normalmente é uma das primeiras a serem terceirizadas, parecendo ser corriqueiro que empresas optem por essa terceirização. Este trabalho teve como principal objetivo identificar a associação que pode existir entre o anúncio de terceirização da TI, especialmente infraestrutura, e o valor de mercado das empresas, e para tanto teve como foco empresas brasileiras de capital aberto. Já é sabido que investidores levam em consideração tanto as informações financeiras como não financeiras das empresas que pretendem investir, o que resulta em menor ou maior valorização dessas empresas. O valor da ação no mercado representa o retorno superior esperado em certos momentos, como reflexo da expectativa futura de desempenho que a empresa possa ter. Neste estudo queremos verificar se o anúncio da terceirização da TI levando a essa expectativa de desempenho superior, ou geração de valor futuro, leva também a alguma alteração no valor da ação no mercado. Isto foi feito por meio da comparação da variação do valor de mercado de algumas empresas antes e após o anúncio da realização da terceirização da TI. A metodologia utilizada foi o Estudo de Eventos e, para mensuração dos retornos normais e anormais, utilizamos um modelo de retornos ajustados ao risco e ao mercado, adotando o Capital Asset Pricing Model (CAPM) como modelo econômico para precificação de ativos. O tratamento dos dados das 11 empresas que compuseram a nossa amostra apontou que o anúncio da terceirização da TI parece ter afetado o comportamento das ações dessas empresas. Tomando por base a amostra escolhida, pudemos identificar que houve um impacto positivo no valor de mercado das empresas estudadas, o que pode ter ocorrido em função dos anúncios publicados.
Resumo:
Esta tese apresenta uma arquitetura de Sumarização Automática de Textos Consciente de Contexto que visa contribuir como fator de adaptação em dispositivos de computação móvel. O processo de sumarização proposto baseia-se em informações contextuais, especificamente localização espacial, temporalidade e perfis de usuário, em uma extensão do algoritmo de sumarização extrativa TF-ISF pela inclusão de níveis de relevância adicionais representados por Palavras-Contextuais. A necessidade de adaptação no processo de visualização de textos em dispositivos de computação móvel advém tanto do crescimento da disponibilização de informações em redes de computadores sem fio quanto das características e restrições intrínsecas da plataforma computacional móvel, bem como da baixa capacidade de armazenamento e processamento e interfaces restritas em termos de tamanho e possibilidades de interação. Como um dos possíveis fatores de adaptação sugere-se a utilização da sumarização automática de textos. Esta possibilita a seleção e apresentação das sentenças consideradas mais relevantes dos documentos originais produzindo, com isso, documentos compactos e mais apropriados para a materialização em dispositivos móveis. Entretanto, considera-se que os métodos de sumarização automática atualmente disponíveis na literatura não atendem plenamente a questão proposta porque não consideram, quando do processo de sumarização, as importantes informações contextuais fornecidas pela computação móvel. Como resultado do processo proposto de adaptação através da Sumarização Consciente de Contexto espera-se que os extratos obtidos sejam mais úteis aos usuários dos dispositivos de computação móvel pela sua maior adequação tanto ao contexto quanto ao perfil, bem como da efetiva consideração das limitações intrínsecas a estes. Esta solução visa contribuir fortemente para a disponibilização de informações adequadas e personalizadas, no momento oportuno, para o local adequado.
Resumo:
While pursuing the objective to investigate the potential for the P2P innovation to enhance financial inclusion in Brazil, the P2P industry and the current market environment were analyzed in order to highlight the factors that can facilitate this desired enhancement. There seems to be no doubt that there is substantial potential for the P2P industry worldwide and in Brazil but, beyond this, a considerable part of this industry could be providing financially inclusive products. The P2P industry in Brazil needs to recognize the potential for growing, not only the industry itself, but also the market for financially inclusive P2P products. The first section of this thesis focuses on financial inclusion briefly in order to establish the frame of what is being addressed. Subsequently the P2P industry is analyzed globally, locally in Brazil and with regard to financial inclusion. The study is conducted through an interview with the founder of a P2P platform in Brazil and its data collection is used to build a case study which allowed for an analysis of the potential for financial inclusion of the P2P industry and the development of key success factors with regard to converting this potential into results.
Resumo:
New multimedia applications that use the Internet as a communication media are pressing for the development of new technologies, such as: MPLS (Multiprotocol Label Switching) and DiffServ. These technologies introduce new and powerful features to the Internet backbone, as the provision of QoS (Quality of Service) capabilities. However, to obtain a true end-to-end QoS, it is not enough to implement such technologies in the network core, it becomes indispensable to extend such improvements to the access networks, what is the aim of the several works presently under development. To contribute to this process, this Thesis presents the RSVP-SVC (Resource Reservation Protocol Switched Virtual Connection) that consists in an extension of RSVP-TE. The RSVP-SVC is presented herein as a mean to support a true end-to-end QoS, through the extension of MPLS scope. Thus, it is specified a Switched Virtual Connection (SVC) service to be used in the context of a MPLS User-to-Network Interface (MPLS UNI), that is able to efficiently establish and activate Label Switched Paths (LSP), starting from the access routers that satisfy the QoS requirements demanded by the applications. The RSVP-SVC was specified in Estelle, a Formal Description Technique (FDT) standardized by ISO. The edition, compilation, verification and simulation of RSVP-SVC were made by the EDT (Estelle Development Toolset) software. The benefits and most important issues to be considered when using the proposed protocol are also included
Resumo:
The increasing of the number of attacks in the computer networks has been treated with the increment of the resources that are applied directly in the active routers equip-ments of these networks. In this context, the firewalls had been consolidated as essential elements in the input and output control process of packets in a network. With the advent of intrusion detectors systems (IDS), efforts have been done in the direction to incorporate packets filtering based in standards of traditional firewalls. This integration incorporates the IDS functions (as filtering based on signatures, until then a passive element) with the already existing functions in firewall. In opposite of the efficiency due this incorporation in the blockage of signature known attacks, the filtering in the application level provokes a natural retard in the analyzed packets, and it can reduce the machine performance to filter the others packets because of machine resources demand by this level of filtering. This work presents models of treatment for this problem based in the packets re-routing for analysis by a sub-network with specific filterings. The suggestion of implementa- tion of this model aims reducing the performance problem and opening a space for the consolidation of scenes where others not conventional filtering solutions (spam blockage, P2P traffic control/blockage, etc.) can be inserted in the filtering sub-network, without inplying in overload of the main firewall in a corporative network
Resumo:
It s notorious the advance of computer networks in recent decades, whether in relation to transmission rates, the number of interconnected devices or the existing applications. In parallel, it s also visible this progress in various sectors of the automation, such as: industrial, commercial and residential. In one of its branches, we find the hospital networks, which can make the use of a range of services, ranging from the simple registration of patients to a surgery by a robot under the supervision of a physician. In the context of both worlds, appear the applications in Telemedicine and Telehealth, which work with the transfer in real time of high resolution images, sound, video and patient data. Then comes a problem, since the computer networks, originally developed for the transfer of less complex data, is now being used by a service that involves high transfer rates and needs requirements for quality of service (QoS) offered by the network . Thus, this work aims to do the analysis and comparison of performance of a network when subjected to this type of application, for two different situations: the first without the use of QoS policies, and the second with the application of such policies, using as scenario for testing, the Metropolitan Health Network of the Federal University of Rio Grande do Norte (UFRN)