999 resultados para Segurança em redes de computadores
Resumo:
Delay Tolerant Network (DTN) é uma arquitetura de redes que procura resolver os problemas associados à conetividade intermitente de sistemas e possibilita a existência de comunicações em ambientes onde o conjunto de protocolos tradicionais TCP/IP não funciona. A arquitetura DTN é adequada a cenários com uma topologia de rede dinâmica, densidade de nós reduzida, conetividade intermitente e de curta duração entre os nós, e em que as aplicações são tolerantes ao atraso. Nesta dissertação é apresentada uma solução de baixo custo recorrendo ao conceito DTN que permite a utilizadores de embarcações utilizarem o serviço de correio eletrónico no mar. A solução estende o sistema de correio eletrónico ao cenário marítimo recorrendo a estações na costa, comunicação sem fios entre embarcações e entre estas e a estações na costa, e à capacidade das embarcações funcionarem como meios de transporte de dados. Para proceder à validação da proposta apresentada, foi implementado um protótipo com o sistema de correio eletrónico adaptado ao cenário marítimo. O protótipo é constituído por vários nós, configurados de forma a assumir o papel de embarcações, estação da costa e um servidor de e-mail presente na Internet. Os resultados dos testes experimentais realizados em ambiente controlado mostram que os objetivos do trabalho foram alcançados. O serviço de e-mail assente sobre a arquitetura DTN e adaptado ao cenário de comunicações marítimo foi testado em diferentes contextos, e em todos eles, as experiências tiveram resultados positivos.
Resumo:
Este trabalho tem como objetivo o estudo da segurança dos peões, com incidência na questão da circulação e travessias pedonais dentro de zonas urbanas. Pretendeu-se identificar as vias mais problemáticas, com maior incidência de atropelamentos dos peões, de modo a estudar as causas. Após esse estudo, e o estudo de soluções para o problema, pode-se garantir ao peão uma melhor qualidade na mobilidade dentro dos meios urbanos. Falando na segurança de peões, é impreterível falar da sinistralidade. Foi abordado o tema e executado um estudo para análise do posicionamento de Portugal na União Europeia. Fez-se um estudo entre os anos 2010 a 2014, constatando-se que Portugal teve uma melhoria de 2010 a 2013. Já em 2014 teve um ligeiro decréscimo no melhoramento dos resultados. Em relação ao número de peões mortos por milhão de habitantes, a análise fez-se no período de tempo compreendido de 2010 a 2014, e a nível europeu pôde-se verificar, que de 2010 a 2012 Portugal teve uma melhoria significativa. Já 2013 foi um ano com maus resultados e obteve-se um decréscimo na melhoria que se havia conseguido, mas em 2014 conseguiu-se uma boa recuperação ficando nesse ano na décima sexta posição. Foi também analisada a França, para se fazer uma comparação com Portugal, e concluímos que França tem os melhores resultados a nível da sinistralidade, sendo um País com melhores condições de transporte, melhorando assim o nível de sinistralidade. Foram referidos também alguns temas publicados, que são uma forma de dar a conhecer as consequências de alguns maus hábitos da população, assim como algumas doenças normais da sociedade em geral e como se refletem na condução. Para se melhorar a segurança dos peões, existem as técnicas de acalmia, tendo sido feita uma abordagem ao tema. No caso de estudo Cidade do Porto, foram analisados os resultados em relação aos anos de 2013, 2014 e os três primeiros meses de 2015. Os resultados obtidos e suas análises, apontam para a necessidade de uma maior formação quer do peão, quer do condutor, uma vez que grande parte dos sinistros são mortes por atravessamento fora do local de passagem ou excesso de velocidade dos condutores. Assim será necessário intervir também a nível da acalmia. Existem ainda muitas áreas a melhorar, para a obtenção de resultados brilhantes no nosso país, mas se todos caminharmos na mesma direção rapidamente chegaremos ao topo dos objetivos pretendidos que é salvar todos os dias mais vidas.
Resumo:
As Redes Sem Fios Enterradas (Wireless Underground Networks - WUN) são formadas por nós que comunicam entre si através de ligações sem fios e têm como meio de propagação o solo. Os sistemas de localização mais utilizados atualmente têm desvantagens ao nível da precisão e o custo. Nesta tese é proposta uma solução de localização de precisão que recorre à utilização de redes sem fios enterradas e um algoritmo de posicionamento baseados em Wi-Fi. O objetivo é estimar a localização de objetos, utilizando dispositivos Wi-Fi de baixo custo. Os resultados experimentais obtidos demonstram que o erro de localização é inferior a 0,40 m, e que esta solução é viável para, por exemplo, localizar jogadores num campo de futebol ou localizar um objeto num campo agrícola.
Resumo:
Um incêndio corresponde a fogo de grandes dimensões sem controlo, que mata e destrói o que atravessa o seu caminho, é um fogo que lavra e devora. Neste sentido, há muitos anos que são impostas leis e medidas preventivas e de controlo dos incêndios, cada vez mais exigentes, de modo a tentar evitar catástrofes, como as que infelizmente também fazem parte da história de Portugal. A proteção contra incêndio procura garantir a proteção das pessoas, dos bens e do ambiente, implicando a atuação em áreas muito distintas. O relatório de estágio aqui apresentado é o resultado de um estágio curricular realizado num gabinete de estudos e projetos de engenharia civil. Este estágio inseriu-se na unidade curricular de DIPRE, com duração de seis meses, durante os quais foi desenvolvido um projeto de segurança contra incêndio numa unidade industrial de tintas, de grandes dimensões. Será descrita a legislação aplicável ao caso de estudo, apresentado o projeto de segurança contra incêndio, bem como as peças desenhadas onde constam todas as exigências impostas pela legislação.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Mecânica
Resumo:
Na última década, verificou-se uma preocupação crescente dos profissionais e instituições de saúde, pelas questões associadas à segurança dos doentes e vários estudos revelaram ao mundo que nos hospitais os incidentes associados aos cuidados de saúde são frequentes. O relatório “To Err is Human” reforçou a evidência de que ocorriam cerca de dez eventos adversos, em cada 100 episódios de internamento e que 50% destes, poderiam ter sido evitados. Em Portugal um estudo epidemiológico sobre eventos adversos em contexto hospitalar levado a cabo pela Escola Nacional de Saúde Pública, evidenciou em 2010 uma taxa de incidência de 11,1%. Torna-se evidente a necessidade de uma intervenção global nas questões da segurança do doente, pelo que, a organização Mundial de Saúde lançou vários desafios, sendo um deles a criação e implementação de Sistemas de Relatos de Incidentes nas organizações de saúde. A principal finalidade destes sistemas é a partilha e aprendizagem com os erros de forma a encontrar soluções para a sua prevenção. Este artigo tem como objetivo apresentar a experiência do Centro Hospitalar de Lisboa Central na implementação de um sistema de relato de incidentes de segurança do doente ao longo de treze anos.
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.
Resumo:
O mercado de smartphones tem vindo a crescer massivamente nos últimos anos, bem como a diversi cação das suas funcionalidades no dia-a-dia de cada pessoa. O mercado aberto de aplicações para estes equipamentos também tem sofrido uma forte evolução o que permite uma maior qualidade e competitividade pela apresentação de produtos. O conceito de casas inteligentes está cada vez mais presente e é algo que as pessoas se estão a acomodar de forma gradual. Para acompanhar tal feito, é necessário desenvolver as capacidades dos equipamentos que estas pessoas mais usam para que estes possam dar resposta a estas necessidades. Para o caso atual irão ser estudadas as fechaduras inteligentes. Os sistemas comercializados atualmente, são tipicamente sistemas proprietários e apresentam algumas limitações ou faltas (ex: ao nível da segurança, incapacidade de abranger um largo número de dispositivos móveis ou mesmo ao nível do preço). Neste contexto, e com base na caracterização das soluções de controlo de acesso atuais, foi estudada a viabilidade de, usando uma abordagem assente em tecnologias não proprietárias (i.e., abertas), desenvolver soluções de controlo de acesso com características comparáveis com os sistemas proprietários actuais e, eventualmente, ultrapassando os limites e falhas identi cados. Dadas estas premissas o sistema de controlo de acesso móvel pensado envolve um computador BeagleBone Black e a tecnologia sem os Bluetooth. Este sistema permite a fácil integração do computador com qualquer smartphone atual e é dotado de fortes características de segurança e privacidade. O sistema foi concebido inicialmente para ser implementado em fechaduras de portas mas com possibilidade de expansão para outros equipamentos. Além disso, o sistema permitirá também o acesso a terceiros após a devida autorização do dono.
Resumo:
A Web aproximou a humanidade dos seus pares a um nível nunca antes visto. Com esta facilidade veio também o cibercrime, o terrorismo e outros fenómenos característicos de uma sociedade tecnológica, plenamente informatizada e onde as fronteiras terrestres pouco importam na limitação dos agentes ativos, nocivos ou não, deste sistema. Recentemente descobriu-se que as grandes nações “vigiam” atentamente os seus cidadãos, desrespeitando qualquer limite moral e tecnológico, podendo escutar conversas telefónicas, monitorizar o envio e receção de e-mails, monitorizar o tráfego Web do cidadão através de poderosíssimos programas de monitorização e vigilância. Noutros cantos do globo, nações em tumulto ou envoltas num manto da censura perseguem os cidadãos negando-lhes o acesso à Web. Mais mundanamente, há pessoas que coagem e invadem a privacidade de conhecidos e familiares, vasculhando todos os cantos dos seus computadores e hábitos de navegação. Neste sentido, após o estudo das tecnologias que permitem a vigilância constante dos utilizadores da Web, foram analisadas soluções que permitem conceder algum anónimato e segurança no tráfego Web. Para suportar o presente estudo, foi efetuada uma análise das plataformas que permitem uma navegação anónima e segura e um estudo das tecnologias e programas com potencial de violação de privacidade e intrusão informática usados por nações de grande notoriedade. Este trabalho teve como objetivo principal analisar as tecnologias de monitorização e de vigilância informática identificando as tecnologias disponíveis, procurando encontrar potenciais soluções no sentido de investigar a possibilidade de desenvolver e disponibilizar uma ferramenta multimédia alicerçada em Linux e em LiveDVD (Sistema Operativo Linux que corre a partir do DVD sem necessidade de instalação). Foram integrados recursos no protótipo com o intuito de proporcionar ao utilizador uma forma ágil e leiga para navegar na Web de forma segura e anónima, a partir de um sistema operativo (SO) virtualizado e previamente ajustado para o âmbito anteriormente descrito. O protótipo foi testado e avaliado por um conjunto de cidadãos no sentido de aferir o seu potencial. Termina-se o documento com as conclusões e o trabalho a desenvolver futuramente.
Resumo:
Muito se tem falado sobre revolução tecnológica e do aparecimento constante de novas aplicações Web, com novas funcionalidades que visam facilitar o trabalho dos utilizadores. Mas será que estas aplicações garantem que os dados transmitidos são tratados e enviados por canais seguros (protocolos)? Que garantias é que o utilizador tem que mesmo que a aplicação utilize um canal, que prevê a privacidade e integridade de dados, esta não apresente alguma vulnerabilidade pondo em causa a informação sensível do utilizador? Software que não foi devidamente testado, aliado à falta de sensibilização por parte dos responsáveis pelo desenvolvimento de software para questões de segurança, levam ao aumento de vulnerabilidades e assim exponenciam o número de potenciais vítimas. Isto aliado ao efeito de desinibição que o sentimento de invisibilidade pode provocar, conduz ao facilitismo e consequentemente ao aumento do número de vítimas alvos de ataques informáticos. O utilizador, por vezes, não sabe muito bem do que se deve proteger, pois a confiança que depõem no software não pressupõem que os seus dados estejam em risco. Neste contexto foram recolhidos dados históricos relativos a vulnerabilidades nos protocolos SSL/TLS, para perceber o impacto que as mesmas apresentam e avaliar o grau de risco. Para além disso, foram avaliados um número significativo de domínios portugueses para perceber se os mesmos têm uma vulnerabilidade específica do protocolo SSL/TLS.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Eletrotécnica e de Computadores
Resumo:
A segurança e a qualidade num sistema de saúde têm uma expressão individual e sistémica: o doente submete-se a cuidados progressivamente mais tecnológicos, invasivos e fragmentados numa organização que pretende garantir que o ganho em complexidade não se traduza simultaneamente em maior risco e lesão. Qualidade e segurança são habitualmente difíceis de quantificar. Que definições usar? Quais as medidas adequadas para avaliar lesão, erro ou fiabilidade? São necessárias medidas objetivas e úteis que permitam a monitorização, pelas equipas de saúde, dos ganhos obtidos na implementação de planos de melhoria da prática clínica. Nas equipas de saúde é frequente a incompreensão dos conceitos de qualidade e segurança. Com base na experiência de 12 anos da implementação de um programa de Qualidade e Gestão de Risco num Centro Hospitalar de Lisboa, tentamos aqui responder a algumas das questões que são habitualmente levantadas sobre o tema.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Electrotécnica e de Computadores
Resumo:
Tipicamente as redes elétricas de distribuição apresentam uma topologia parcialmente malhada e são exploradas radialmente. A topologia radial é obtida através da abertura das malhas nos locais que otimizam o ponto de operação da rede, através da instalação de aparelhos de corte que operam normalmente abertos. Para além de manterem a topologia radial, estes equipamentos possibilitam também a transferência de cargas entre saídas, aquando da ocorrência de defeitos. As saídas radiais são ainda dotadas de aparelhos de corte que operam normalmente fechados, estes têm como objetivo maximizar a fiabilidade e isolar defeitos, minimizando a área afetada pelos mesmos. Assim, na presente dissertação são desenvolvidos dois algoritmos determinísticos para a localização ótima de aparelhos de corte normalmente abertos e fechados, minimizando a potência ativa de perdas e o custo da energia não distribuída. O algoritmo de localização de aparelhos de corte normalmente abertos visa encontrar a topologia radial ótima que minimiza a potência ativa de perdas. O método é desenvolvido em ambiente Matlab – Tomlab, e é formulado como um problema de programação quadrática inteira mista. A topologia radial ótima é garantida através do cálculo de um trânsito de potências ótimo baseado no modelo DC. A função objetivo é dada pelas perdas por efeito de Joule. Por outro lado o problema é restringido pela primeira lei de Kirchhoff, limites de geração das subestações, limites térmicos dos condutores, trânsito de potência unidirecional e pela condição de radialidade. Os aparelhos de corte normalmente fechados são localizados ao longo das saídas radiais obtidas pelo anterior algoritmo, e permite minimizar o custo da energia não distribuída. No limite é possível localizar um aparelho de corte normalmente fechado em todas as linhas de uma rede de distribuição, sendo esta a solução que minimiza a energia não distribuída. No entanto, tendo em conta que a cada aparelho de corte está associado um investimento, é fundamental encontrar um equilíbrio entre a melhoria de fiabilidade e o investimento. Desta forma, o algoritmo desenvolvido avalia os benefícios obtidos com a instalação de aparelhos de corte normalmente fechados, e retorna o número e a localização dos mesmo que minimiza o custo da energia não distribuída. Os métodos apresentados são testados em duas redes de distribuição reais, exploradas com um nível de tensão de 15 kV e 30 kV, respetivamente. A primeira rede é localizada no distrito do Porto e é caraterizada por uma topologia mista e urbana. A segunda rede é localizada no distrito de Bragança e é caracterizada por uma topologia maioritariamente aérea e rural.