998 resultados para Segurança da informação


Relevância:

70.00% 70.00%

Publicador:

Resumo:

The information technology - IT- benefits have been more perceived during the last decades. Both IT and business managers are dealing with subjects like governance, IT-Business alignment, information security and others on their top priorities. Talking about governance, specifically, managers are facing it with a technical approach, that gives emphasis on protection against invasions, antivirus systems, access controls and others technical issues. The IT risk management, commonly, is faced under this approach, that means, has its importance reduced and delegated to IT Departments. On the last two decades, a new IT risk management perspective raised, bringing an holistic view of IT risk to the organization. According to this new perspective, the strategies formulation process should take into account the IT risks. With the growing of IT dependence on most of organizations, the necessity of a better comprehension about the subject becomes more clear. This work shows a study in three public organizations of the Pernambuco State that investigates how those organizations manage their IT risks. Structured interviews were made with IT managers, and later, analyzed and compared with conceptual categories found in the literature. The results shows that the IT risks culture and IT governance are weakly understood and implemented on those organizations, where there are not such an IT risk methodology formally defined, neither executed. In addition, most of practices suggested in the literature were found, even without an alignment with an IT risks management process

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Com esta dissertação de mestrado pretende-se chegar a um modelo que permita alinhar os diferentes planos organizacionais de uma organização ou de um domínio pertencente a esta. A metodologia utilizada na condução desta dissertação foi proposta por Raymond Quivy e LucVan Campenhoudt. Esta ajuda o autor e o leitor, a acompanhar gradualmente o desenvolvimento através das várias fases que a metodologia prevê. Para garantir a coerência de um modelo é necessário um estudo prévio do tema em questão, por este motivo foi necessária uma revisão bibliográfica que abrangesse: os conceitos mais generalistas da área de engenharia organizacional, a linguagem e termos técnicos da segurança computacional, o estado atual da problemática da segurança de informação na Força Aérea e possíveis modelos que poderiam revelar-se úteis no desenvolvimento do objetivo desta dissertação como o Bussiness Motivation Model. Durante o desenvolvimento do modelo surgiu a necessidade de definir o conceito de «Plano Organizacional» pois este estava pouco explorado na comunidade científica e fazia parte integrante do tema desta dissertação, definindo-o como tendo um conjunto de atributos que o identifica e universais a qualquer plano da organização. Identificados os atributos dos planos organizacionais foi possível concluir quais os fatores de alinhamento entre eles, a partir deste ponto surgiu a proposta de modelo capaz satisfazer o objetivo desta dissertação. A validação é atingida através de uma instanciação do modelo no domínio da segurança computacional na Força Aérea, com algumas propostas de alinhamento. No último capítulo é feita uma revisão de todo o trabalho, destacando alguns pontos mais importantes e possibilitando assim ao leitor terminar com uma visão global de toda a dissertação.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

As ameaças à segurança da informação, (INFOSEC) atentam contra a perda da respectiva confidencialidade, integridade e disponibilidade, pelo que as organizações são impelidas a implementar políticas de segurança, quer ao nível físico quer ao nível lógico, utilizando mecanismos específicos de defesa. O projecto Network Air Gap Controller (NAGC) foi concebido no sentido de contribuir para as questões da segurança, designadamente daquelas que se relacionam directamente com a transferência de informação entre redes de classificação de segurança diferenciadas ou de sensibilidades distintas, sem requisitos de comunicação em tempo real, e que mereçam um maior empenho nas condições de robustez, de disponibilidade e de controlo. Os organismos que, em razão das atribuições e competências cometidas, necessitam de fazer fluir informação entre este tipo de redes, são por vezes obrigados a realizar a transferência de dados com recurso a um processo manual, efectuado pelo homem e não pela máquina, que envolve dispositivos amovivéis, como sejam o CD, DVD, PEN, discos externos ou switches manuais. Neste processo, vulgarmente designado por Network Air Gap (NAG), o responsável pela transferência de dados deverá assumir de forma infalível, como atribuições intrínsecas e inalienáveis da função exercida, as garantias do cumprimento de um vasto conjunto de normas regulamentares. As regras estabelecidas desdobram-se em ferramentas e procedimentos que se destinam, por exemplo, à guarda em arquivo de todas as transferências efectuadas; à utilização de ferramentas de segurança (ex: antivírus) antes da colocação da informação na rede de classificação mais elevada; ao não consentimento de transferência de determinados tipos de ficheiro (ex: executáveis) e à garantia de que, em consonância com a autonomia que normalmente é delegada no elemento responsável pela operação das comunicações, apenas se efectuam transferências de informação no sentido da rede de classificação inferior para a rede de classificação mais elevada. Face ao valor da informação e do impacto na imagem deste tipo de organizações, o operador de comunicações que não cumpra escrupulosamente o determinado é inexoravelmente afastado dessas funções, sendo que o processo de apuramento de responsabilidades nem sempre poderá determinar de forma inequívoca se as razões apontam para um acto deliberado ou para factores não intencionais, como a inépcia, o descuido ou a fadiga. Na realidade, as actividades periódicas e rotineiras, tornam o homem propenso à falha e poderão ser incontornavelmente asseguradas, sem qualquer tipo de constrangimentos ou diminuição de garantias, por soluções tecnológicas, desde que devidamente parametrizadas, adaptadas, testadas e amadurecidas, libertando os recursos humanos para tarefas de manutenção, gestão, controlo e inspecção. Acresce que, para este tipo de organizações, onde se multiplicam o número de redes de entrada de informação, com diferentes classificações e actores distintos, e com destinatários específicos, a utilização deste tipo de mecanismos assume uma importância capital. Devido a este factor multiplicativo, impõe-se que o NAGC represente uma opção válida em termos de oferta tecnológica, designadamente para uma gama de produtos de baixíssimo custo e que possa desenvolver-se por camadas de contributo complementar, em função das reais necessidades de cada cenário.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

São muitas as organizações que por todo o mundo possuem instalações deste tipo, em Portugal temos o exemplo da Portugal Telecom que recentemente inaugurou o seu Data Center na Covilhã. O desenvolvimento de um Data Center exige assim um projeto muito cuidado, o qual entre outros aspetos deverá garantir a segurança da informação e das próprias instalações, nomeadamente no que se refere à segurança contra incêndio.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

RESUMO: O Registo de Saúde Electrónico (RSE) detém uma importância vital para a melhoria dos cuidados e segurança do doente, para o acesso à sua informação, por profissionais de saúde, independentemente do momento e local de prestação dos cuidados clínicos, para a garantia da confidencialidade dos dados e para a redução da despesa dos serviços de saúde. É com base nesta sua importância que, no âmbito do Mestrado em Gestão da Saúde, da Escola Nacional de Saúde Pública, desenvolvemos um trabalho de investigação, que tem como objectivos descrever o “estado da arte” dos sistemas de informação em saúde e do RSE em Portugal, Europa e América do Norte, identificar a importância do RSE para os profissionais de saúde e para o doente, e avaliar a influência de determinados factores na aceitação do RSE por parte dos profissionais de saúde. Para certos autores, os factores condicionantes da aprovação do RSE podem ser: a idade, a formação, os conhecimentos informáticos, o tempo de exercício profissional e a compreensão dos benefícios do RSE por parte dos profissionais de saúde. Desta forma, elegemos estes factores para determinar se de facto são estes os que incitam a aceitação do RSE. O estudo foi dirigido a directores de serviço, médicos, enfermeiros e enfermeiroschefes, de cinco hospitais nacionais. Aos 20 participantes deste estudo foi aplicado um questionário, constituído por questões fechadas, questões factuais, de opinião e de informação. A metodologia utilizada foi do tipo descritivo e os dados foram analisados quantitativamente. Foi utilizado o coeficiente de Spearman para avaliar a existência de relação entre as variáveis, e com o seu uso foi possível depreender que: não há evidência de relação entre a idade e a aceitação do RSE; o tempo de exercício profissional não determina a aprovação do RSE; há evidência de relação entre os conhecimentos informáticos e a aceitação do RSE; a formação na área de digitalização de dados condiciona a aprovação do sistema; há evidência de relação entre a opinião dos profissionais de saúde acerca da actuação do RSE e a sua aceitação por parte destes.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Os maiores ativos de uma instituição seguradora são os dados dos clientes, pois através destes as políticas e objetivos da empresa são planeados e alargados. Esses dados são considerados críticos ou confidenciais, como o caso de nomes, moradas, dados de saúde e sinistros, que devem ser protegidos contra ameaças internas (fraude, erros de utilização) e externas (roubo de informação). A fuga de informação representa graves perdas de uma instituição, cujos danos vão desde perda de reputação ao afastamento de clientes, parceiros e até mesmo colaboradores, processos jurídicos e danos financeiros. Assim, a utilização de palavras-passe fortes, com regras rígidas para a sua gestão, do conhecimento de toda a empresa é importante para manter a Segurança da Informação. Regra geral, para um colaborador autorizado a consultar determinada informação entrar nessas bases de dados, autentica-se através da inserção de um Nome de Utilizador e de uma Palavra-passe num sistema. A gestão de palavras-chave insere-se no Risco Operacional, associado às atividades diárias de uma organização, envolvendo processos, pessoas e sistemas, que hoje em dia é considerado importante para uma gestão empresarial saudável e não apenas todo o risco não quantificável, como era considerado há alguns anos atrás. O objetivo deste trabalho será analisar o processo de gestão de palavras-chave numa seguradora a atuar em Portugal, ou seja, que processos e regras a empresa tem para que os seus colaboradores criem as suas palavras-chave. Será também analisado as ameaças que os sistemas de palavras-passe enfrentam, no geral, e verificar-se-á de que maneiras esta organização protege-se dessas ameaças e como será possível mitigar os riscos existentes, através da melhoria dos processos existentes ou da implementação de novas soluções.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este artigo apresenta uma proposta de um modelo de gestão contendo requisitos relacionados com a confiabilidade dos sistemas no ambiente de Computação em Nuvem (CN). A proposta teve como base uma revisão da literatura sobre os problemas, desafios e estudos que estão em curso relacionados com a segurança e confiabilidade de aplicações e Sistemas de Informações (SI) neste ambiente tecnológico. Nesta revisão bibliográfica são abordados os entraves e desafios atualmente existentes na visão de conceituados autores sobre o tema. Estas questões foram abordadas e estruturadas na forma de um modelo, denominado de “Modelo de Confiança para o ambiente de Computação em Nuvem”. Trata-se de uma proposta proativa que tem por objetivo organizar e discutir soluções de gestão para o ambiente de CN com uma maior confiabilidade para a operacionalização das aplicações de SI, tanto por parte dos provedores como também dos seus clientes.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho apresenta relações entre a produtividade do trabalho e as capacitações que ocorreram nas Organizações Militares (OM) de telemática do Exército Brasileiro (EB), que representam o Sistema de Telemática do Exército (SisTEx). O período do estudo se dá entre janeiro de 2010 e julho de 2011. O SisTEx é melhor caracterizado pelo Centro Integrado de Telemática do Exército (CITEx), pelos Centros de Telemática de Área (CTA) e pelos Centros de Telemática (CT), subordinados ao Departamento de Ciência e Tecnologia (DCT) e dispostos ao longo de todo o território nacional. O estudo trata do conceito de produtividade do trabalho e do processo de capacitação no SisTEx. Fala sobre as áreas do conhecimento de interesse sistêmico e das áreas estratégicas que devem ser atendidas com capacitações, mostrando os resultados que surgiram em função das capacitações realizadas. Propõe sugestões para alinhar as necessidades de capacitação com as áreas estratégicas, destacando a importância das capacitações no planejamento estratégico, passando pelos interesses individuais. Relaciona estratégias que representam um diferencial competitivo na agregação de valor aos usuários. Traz comentários sobre a utilização do ensino a distância(EAD) e presencial para realização das capacitações. Trata da interferência das capacitações na produtividade e na percepção sobre o retorno do investimento (ROI). Relaciona, ainda, as capacidades do SisTEx com os estudos de inovação tecnológica no setor de serviços. Destaca as capacitações realizadas na áreas da segurança da informação e defesa cibernética. Considera que é possível melhorar a produtividade do trabalho em função das capacitações que ocorrem no SisTEx, que contribuem como um vetor de modernidade e transformação que agem diretamente no processo produtivo, proporcionando assim uma aceleração no desenvolvimento da qualidade dos serviços de TI prestados. Traz recomendações de estudos futuros para verificar a velocidade de acumulação das capacidades tecnológicas, o uso do EAD para capacitações de maior complexidade técnica e a criação de métricas para cálculo efetivo do ROI. Para tal, foi feito um estudo bibliográfico sobre a produtividade do trabalho e o processo de capacitação do SisTEx. O método adotado foi o do estudo de caso. Foram feitos questionamentos (survey) e enquetes/votações (poll) que foram aplicados nos chefes, exchefes de CTA/CT e nos discentes do SisTEx, militares que realizaram capacitações no período considerado.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O status tecnológico da sociedade contemporânea, imersa no mundo virtual, ao mesmo tempo que cria novas oportunidades para as empresas e mais comodidade aos usuários, também gera interesses conflitantes entre essas duas partes e incita ao surgimento de paradoxos na relação de ambas com a privacidade. Um dos reflexos desse cenário é a falta de confiança do consumidor em expor seus dados pessoais no ambiente on-line, o que, por sua vez, atua como um obstáculo ao pleno potencial do comércio eletrônico. Uma das possíveis saídas para o dilema, apontada por vários estudiosos, estaria na busca do chamado caminho virtuoso do meio, representado por soluções eficazes e satisfatórias para todas as instâncias envolvidas. Como parte de tal caminho, que configura um processo de conhecimento do sentido e do valor da privacidade nos dias atuais, encontram-se os estudos de tipologia, que, apesar de numericamente pequenos — sobretudo tendo a Internet como foco —, representam esforços para se chegar a uma conceituação sobre o que é a natureza do privado. Desse entendimento dependem a elaboração e a fundamentação de estratégias para o implemento de soluções em sintonia com as inúmeras demandas sociais de hoje. O objetivo do presente trabalho, portanto, é replicar um determinado modelo de tipologia de privacidade no cenário do Brasil após pesquisa do tema em nível global. A escolha recaiu sobre um estudo de Sheehan (2002), desenvolvido nos Estados Unidos junto a um público de intermautas. Na transposição do modelo para um grupo de 190 indivíduos no Brasil, verificou-se que, dentre as quatro variáveis abordadas no estudo original (gênero, idade, grau de escolaridade e renda familiar), apenas a idade teve significância para a privacidade, com pouco mais de 20% de variabilidade. Já o nível de escolaridade, que se mostrou importante no trabalho norte-americano, não apresentou qualquer relevância entre o público brasileiro. As divergências nos resultados podem ser atribuídas a diferentes fatores, com ênfase ao papel exercido pelos sistemas culturais. Considerá-las, pois, pode embasar futuros estudos que, à semelhança deste, procurem responder ao desafio da privacidade no campo virtual e beneficiem tanto indivíduos como o fortalecimento do e-commerce.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

RFID (Radio Frequency Identification) identifies object by using the radio frequency which is a non-contact automatic identification technique. This technology has shown its powerful practical value and potential in the field of manufacturing, retailing, logistics and hospital automation. Unfortunately, the key problem that impacts the application of RFID system is the security of the information. Recently, researchers have demonstrated solutions to security threats in RFID technology. Among these solutions are several key management protocols. This master dissertations presents a performance evaluation of Neural Cryptography and Diffie-Hellman protocols in RFID systems. For this, we measure the processing time inherent in these protocols. The tests was developed on FPGA (Field-Programmable Gate Array) platform with Nios IIr embedded processor. The research methodology is based on the aggregation of knowledge to development of new RFID systems through a comparative analysis between these two protocols. The main contributions of this work are: performance evaluation of protocols (Diffie-Hellman encryption and Neural) on embedded platform and a survey on RFID security threats. According to the results the Diffie-Hellman key agreement protocol is more suitable for RFID systems

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Os Sistemas de Detecção e Prevenção de Intrusão (Intrusion Detection Systems – IDS e Intrusion Prevention Systems - IPS) são ferramentas bastante conhecidas e bem consagradas no mundo da segurança da informação. Porém, a falta de integração com os equipamentos de rede como switches e roteadores acaba limitando a atuação destas ferramentas e exige um bom dimensionamento de recursos de hardware como processamento, memória e interfaces de rede de alta velocidade, utilizados para implementá-las. Diante de diversas limitações deparadas por pesquisadores e administradores de redes, surgiu o conceito de Rede Definida por Software (Software Defined Network – SDN), que ao separar os planos de controle e de dados, permite adaptar o funcionamento da rede de acordo com as necessidades de cada um. Desta forma, devido à padronização e flexibilidade propostas pelas SDNs, e das limitações apresentadas dos IPSs, esta dissertação de mestrado propõe o IPSFlow, um framework que utiliza uma rede baseada na arquitetura SDN e o protocolo OpenFlow para a criação de um IPS com ampla cobertura e que permite bloquear um tráfego caracterizado pelos IDS(s) como malicioso no equipamento mais próximo da origem. Para validar o framework, experimentos no ambiente virtual Mininet foram realizados utilizando-se o Snort como IDS para analisar tráfego de varredura (scan) gerado pelo Nmap de um host ao outro. Os resultados coletados apresentam que o IPSFlow funcionou conforme planejado ao efetuar o bloqueio de 85% do tráfego de varredura.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This work aims to give greater visibility to the issue of software security, due to people talk a lot in security conferences, that much of both IT (Information Technology) staff and, more specifically, IS (Information Security) staff does not know this, and, thanks to the spread of the mobile computing and of the cloud computing, this lack of deeper knowledge on this subject is increasingly becoming worrisome. It aims too, make applications to be developed in a security manner, priorizing the security of the information processed. It attempts to demonstrate the secure coding techniques, the principles of software security, the means to identify software vulnerabilities, the cutting-edge software exploitation techniques and the mechanisms of mitigation. Nowadays, the security guys are in charge of the most of the security tests in applications, audits and pentests, and it is undeniable that the so-called security experts, most often come from computer network field, having few experience in software development and programming. Therefore, the development process does not consider the security issue, thanks to the lack of knowledge on the subject by the developer, and the security tests could be improved whether security experts had a greater know-how on application development. Given this problem, the goal here is to integrate information security with software development, spreading out the process of secure software development. To achieve this, a Linux distribution with proof of concept applicati... (Complete abstract click electronic access below)

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Analisar os requisitos de segurança da informação para identificação de usuários na televisão digital interativa (TVDi). Dentre os diversos cenários emergentes das aplicações interativas, categorizamos as aplicaçoes em classificações. Para cada classificação são analisados os requisitos de segurança para a identificação do usuário.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This work aims to understand how cloud computing contextualizes the IT government and decision agenda, in the light of the multiple streams model, considering the current status of public IT policies, the dynamics of the agenda setting for the area, the interface between the various institutions, and existing initiatives on the use of cloud computing in government. Therefore, a qualitative study was conducted through interviews with a group of policy makers and the other group consists of IT managers. As analysis technique, this work made use of content analysis and analysis of documents, with some results by word cloud. As regards the main results to overregulation to the area, usually scattered in various agencies of the federal government, which hinders the performance of the managers. Identified a lack of knowledge of standards, government programs, regulations and guidelines. Among these he highlighted a lack of understanding of the TI Maior Program, the lack of effectiveness of the National Broadband Plan in view of the respondents, as well as the influence of Internet Landmark as an element that can jam the advances in the use of computing cloud in the Brazilian government. Also noteworthy is the bureaucratization of the acquisition of goods to IT services, limited, in many cases, technological advances. Regarding the influence of the actors, it was not possible to identify the presence of a political entrepreneur, and it was noticed a lack of political force. Political flow was affected only by changes within the government. Fragmentation was a major factor for the theme of weakening the agenda formation. Information security was questioned by the respondents pointed out that the main limitation coupled with the lack of training of public servants. In terms of benefits, resource economy is highlighted, followed by improving efficiency. Finally, the discussion about cloud computing needs to advance within the public sphere, whereas the international experience is already far advanced, framing cloud computing as a responsible element for the improvement of processes, services and economy of public resources