41 resultados para Autenticação


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Atualmente a popularidade das comunicações Wi-Fi tem crescido, os utilizadores acedem a partir de vários dispositivos como telemóveis, tablets, computadores portáteis sendo estes utilizados por qualquer pessoa nos mais variados locais. Com esta utilização massiva por parte dos utilizadores surgiram os hotspots Wi-Fi públicos (em aeroportos, estações de comboios, etc) que permitem a ligação de clientes recorrendo a ligações wireless não seguras (ou abertas). Tais hotspots utilizam, após a ligação de um cliente, um captive portal que captura o tráfego IP com origem no cliente e o redireciona para uma página Web de entrada. A página Web permite ao cliente comprar tempo de acesso à Internet ou, caso já seja um cliente da empresa, autenticar-se para ter acesso à Internet. A necessidade da ligação aberta assenta na possibilidade do operador do hotspot vender acesso à Internet a utilizadores não conhecidos (caso contrário teria de fornecerlhes uma senha previamente). No entanto, fornecer um acesso à Internet wireless sem qualquer tipo de segurança ao nível físico permite que qualquer outro utilizador consiga obter informação sobre a navegação Web dos utilizadores ligados (ex.: escuta de pedidos DNS). Nesta tese pretende-se apresentar uma solução que estenda um dos atuais mecanismos de autenticação Wi-Fi (WPA, WPA2) para que permita, após autenticação em captive portal, a migração de uma ligação aberta para uma ligação segura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pós-graduação em Ciência da Computação - IBILCE

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Experimental models composed by human and animal cell lines are simplified and informative, allowing them to be widely used for biomedical research. Most laboratories that use in vitro cultivated cells maintain a variation of cell lines stored and cultivated. Therefore, misidentification and cross-contamination events can happen during cell lines handling. This problem can generate a repertoire of dubious results and papers, which may prejudice biomedical research. Recently it was created the International Cell Line Authentication Committee (ICLAC), which aims to spread knowledge about cross-contamination and misidentification of in vitro cell lines. Despite of the efforts spent trying to aware scientific community about the importance of the correct identification of cells, the number of papers based on misidentified cell lines it´s still worrying, compromising the reliability of out coming results and conclusions regarding them. The present study aims to analyze and discuss the main advantages and limitations of eukaryote in vitro cell lines use, characterizing the cell lines authentication problems. Therefore, compilation and critical analyses of literature data was realized, aiming to improve the understanding about this subject. Based on information about 445 cell lines with issues published by ICLAC it´s clear that contamination in human cell lines represented 89,2 % of mentioned problems. HeLa cell line was the responsible for most contamination, especially in 92 normal tissue cell lines, representing 44,6% of the contamination. These results reinforce the importance of periodic maintenance of cell lines cultures by labs and implementation of authentication methods as polymorphic STRs, besides obtaining cell lines from reliable sources and cell banks

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A carne continua a ser a fonte proteica mais comum no quotidiano das pessoas. Além disso, os produtos cárneos processados apresentam-se como uma mais-valia nas suas vidas agitadas. Este tipo de produto torna difícil a diferenciação das carnes utilizadas na sua confecção, sendo por isso propícios a adulteração. A Reacção em Cadeia da Polimerase (PCR) tem ganho cada vez mais importância nos laboratórios de biologia molecular, revelando-se uma técnica de análise rápida, sensível e altamente específica na identificação de espécies em produtos alimentares. No entanto, vários factores podem interferir com o processo de amplificação, pelo que alguns cuidados devem ser implementados desde a aquisição da amostra a analisar, ao seu acondicionamento e posterior extração de ADN. Existem inúmeros protocolos de extração de ADN, devendo para cada estudo avaliar-se e optar-se pelo mais adequado, considerando a finalidade estabelecida para a amostra extraída. O trabalho laboratorial apresentado nesta dissertação baseou-se em três etapas principais. Inicialmente, avaliaram-se diferentes protocolos de extração de ADN, utilizando-se amostras de carne adquiridas num talho. Entre os protocolos testados, o método de Brometo de Cetil-Trimetil-Amónio (CTAB) modificado foi o que permitiu obter amostras de ADN com maior concentração e elevado nível de pureza. Posteriormente, foram testados e optimizados diferentes protocolos de amplificação, por PCR em tempo real, para a detecção das espécies Bos taurus (vaca), Sus scrofa (porco), Equus caballus (cavalo) e Ovis aries (ovelha). Foram empregues primers específicos de espécie para a detecção de genes mitocondriais e genómicos, consoante cada protocolo. Para o caso concreto do porco, foi efectuada a avaliação de dois protocolos, singleplex com EvaGreen® e tetraplex com AllHorse, para possível aplicação dos mesmos na sua quantificação. Os resultados demonstraram elevada especificidade e sensibilidade das reacções para esta espécie, permitindo a sua detecção até um limite de 0,001 ng e 0,1%, respectivamente. Somente a primeira metodologia se mostrou adequada para quantificação. Por último, as metodologias sugeridas foram aplicadas com sucesso na análise de 4 amostras comerciais de hambúrgueres, tendo-se verificado a consistência da rotulagem em todos os casos, no que concerne a composição em termos de espécies animais. O interesse de trabalhos neste âmbito recai na importância da autenticidade dos rótulos de produtos alimentares, principalmente nos produtos cárneos, para segurança dos consumidores e salvaguarda dos produtores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2016.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O reconhecimento de padões é uma área da inteligência computacional que apoia a resolução de problemas utilizando ferramentas computacionais. Dentre esses problemas podem ser citados o reconhecimento de faces, a identificação de impressões digitais e a autenticação de assinaturas. A autenticação de assinaturas de forma automática tem sua relevância pois está ligada ao reconhecimento de indivíduos e suas credenciais em sistemas complexos e a questões financeiras. Neste trabalho é apresentado um estudo dos parâmetros do Dynamic Time Warping, um algoritmo utilizado para alinhar duas assinaturas e medir a similaridade existente entre elas. Variando-se os principais parâmetros desse algoritmo, sobre uma faixa ampla de valores, foram obtidas as médias dos resultados de erros na classificação, e assim, estas médias foram avaliadas. Com base nas primeiras avaliação, foi identificada a necessidade de se calcular um desses parâmetros de forma dinâmica, o gap cost, a fim de ajustá-lo no uso de uma aplicação prática. Uma proposta para a realização deste cálculo é apresentada e também avaliada. É também proposta e avaliada uma maneira alternativa de representação dos atributos da assinatura, de forma a considerar sua curvatura em cada ponto adquirido no processo de aquisição, utilizando os vetores normais como forma de representação. As avaliações realizadas durante as diversas etapas do estudo consideraram o Equal Error Rate (EER) como indicação de qualidade e as técnicas propostas foram comparadas com técnicas já estabelecidas, obtendo uma média percentual de EER de 3,47%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo põe em evidência o valor formativo da reflexão pela escrita, estruturada em portfolios reflexivos, desenvolvidos durante a disciplina de Supervisão I, nas quatro turmas/cursos de formação complementar em Supervisão Pedagógica e Formação de Formadores, para o Exercício de Outras Funções, decorrida entre 1999-2004, na Escola Superior de Educação de Viseu, do Instituto Superior Politécnico de Viseu. Trata-se de uma investigação de índole qualitativa desenvolvida segundo a metodologia de estudo de caso, na vertente de estudo de casos múltiplos, dada a singularidade de que cada portfolio se reveste. A investigação foi perspectivada após a conclusão do referido curso com base na existência, ao tempo, de pouca investigação realizada no âmbito da utilização de portfolios na Formação Complementar de professores. As questões investigativas foram, por esse motivo, desenhadas a posteriori, o que podemos considerar uma limitação do estudo, ainda que os resultados obtidos confirmem as perspectivas desenvolvimentistas desta estratégia de formação, evidenciadas em investigações realizadas noutros contextos nacionais e internacionais. A adopção do portfolio reflexivo (Sá-Chaves, 2000) numa dupla dimensão – formativa e avaliativa – resultou de uma concepção de formação conducente ao desenvolvimento de professores reflexivos, capazes de exercer funções supervisivas alicerçadas na reflexão, no diálogo, na partilha e na intervenção. Pretendemos com a aplicação de portfolios reflexivos verificar até que ponto a construção de este tipo de narrativa autobiográfica podia contribuir para o desenvolvimento da profissionalidade docente de professores inseridos na carreira há já alguns/muitos anos, proporcionando-lhes a(s) ferramenta(s) reflexiva(s) necessária(s) a uma intervenção e/ou alteração de práticas mais adequadas às novas funções supervisivas que a legislação recente previa que viessem a exercer. Pudemos confirmar que a redacção do portfolio constituiu uma mais valia para os seus autores no que respeita ao seu desenvolvimento da sua profissionalidade, tendo-se verificado um crescimento evidente nas dimensões de conhecimento profissional, com especial incidência: no autoconhecimento; no conhecimento sobre estratégias reflexivas e supervisivas para o exercício de novas funções; no conhecimento de teorias práticas subjacentes às suas experiências supervisivas (passadas, presentes e futuras); no conhecimento sobre desenvolvimento curricular e sua flexibilização; no conhecimento sobre estratégias de avaliação alternativa e compreensiva; no conhecimento do Outro, no qual se incluem os alunos, os colegas de profissão e os restantes elementos da comunidade educativa; e no conhecimento sobre os contextos. Verificámos igualmente que a compreensão das competências supervisivas dos formandos também evoluiu. As reflexões vertidas neste estudo evidenciam que os formandos consciencializaram a necessidade de possuírem uma competência de intervenção fundamentada na reflexão, exercida sob uma perspectiva dialógica e humanista de supervisão e de adaptabilidade aos contextos profissionais. Acresce que alguns destes formandos manifestaram vontade e maior coragem para assumir essa intervenção, considerada imprescindível para que a escola evolua e se inove, como resposta à imprevisibilidade e à complexidade dos nossos tempos. Tornou-se igualmente evidente que os formandos desenvolveram as competências de integração da prática na teoria ou vice-versa e de autenticação das suas próprias teorias. Os professores são unânimes ao afirmar que a estratégia de portfolio contribuiu para o desenvolvimento da sua competência reflexiva e/ou de análise crítica, a qual, por sua vez, conduziu à auto-consciencialização da sua matriz identitária e à coragem para serem mais autênticos e interventivos/pró-activos. Terem sido capazes de ultrapassar as dificuldades e os receios colocados por uma estratégia que desconheciam, conferiu-lhes maior auto-estima e autonomia. Este aspecto está bem patente nas meta-análises realizadas por cada autor do portfolio, nas quais, aceitam a estratégia inicialmente combatida, reconhecendo-lhe valor formativo e a capacidade de revelação de conhecimento sobre si próprios. Pese embora o curto espaço de tempo em que a experiência de construção dos portfolios decorreu, tanto os formandos como nós consideramos que esta narrativa profissional autobiográfica é uma estratégia promotora de uma auto-supervisão contínua, que fornece e regista pistas de autodireccionamento profissional, sempre passíveis de avaliação e de redireccionamento. Com base nestas constatações consideramos que o portfolio reflexivo pode tornar-se no instrumento mais completo e diacrónico de auto-avaliação de professores, prevista no ECD, na medida em que permite retratar o desenvolvimento profissional e pessoal do seu autor e possibilita que este se reveja e redimensione a sua profissionalidade, sempre que acrescenta reflexões novas ou complementa anteriores, como resultado dos conselhos e/ou das discussões com o(s) Outro(s) e o próprio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the modern society, communications and digital transactions are becoming the norm rather than the exception. As we allow networked computing devices into our every-day actions, we build a digital lifestyle where networks and devices enrich our interactions. However, as we move our information towards a connected digital environment, privacy becomes extremely important as most of our personal information can be found in the network. This is especially relevant as we design and adopt next generation networks that provide ubiquitous access to services and content, increasing the impact and pervasiveness of existing networks. The environments that provide widespread connectivity and services usually rely on network protocols that have few privacy considerations, compromising user privacy. The presented work focuses on the network aspects of privacy, considering how network protocols threaten user privacy, especially on next generation networks scenarios. We target the identifiers that are present in each network protocol and support its designed function. By studying how the network identifiers can compromise user privacy, we explore how these threats can stem from the identifier itself and from relationships established between several protocol identifiers. Following the study focused on identifiers, we show that privacy in the network can be explored along two dimensions: a vertical dimension that establishes privacy relationships across several layers and protocols, reaching the user, and a horizontal dimension that highlights the threats exposed by individual protocols, usually confined to a single layer. With these concepts, we outline an integrated perspective on privacy in the network, embracing both vertical and horizontal interactions of privacy. This approach enables the discussion of several mechanisms to address privacy threats on individual layers, leading to architectural instantiations focused on user privacy. We also show how the different dimensions of privacy can provide insight into the relationships that exist in a layered network stack, providing a potential path towards designing and implementing future privacy-aware network architectures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante as ultimas décadas, os registos de saúde eletrónicos (EHR) têm evoluído para se adaptar a novos requisitos. O cidadão tem-se envolvido cada vez mais na prestação dos cuidados médicos, sendo mais pró ativo e desejando potenciar a utilização do seu registo. A mobilidade do cidadão trouxe mais desafios, a existência de dados dispersos, heterogeneidade de sistemas e formatos e grande dificuldade de partilha e comunicação entre os prestadores de serviços. Para responder a estes requisitos, diversas soluções apareceram, maioritariamente baseadas em acordos entre instituições, regiões e países. Estas abordagens são usualmente assentes em cenários federativos muito complexos e fora do controlo do paciente. Abordagens mais recentes, como os registos pessoais de saúde (PHR), permitem o controlo do paciente, mas levantam duvidas da integridade clinica da informação aos profissionais clínicos. Neste cenário os dados saem de redes e sistemas controlados, aumentando o risco de segurança da informação. Assim sendo, são necessárias novas soluções que permitam uma colaboração confiável entre os diversos atores e sistemas. Esta tese apresenta uma solução que permite a colaboração aberta e segura entre todos os atores envolvidos nos cuidados de saúde. Baseia-se numa arquitetura orientada ao serviço, que lida com a informação clínica usando o conceito de envelope fechado. Foi modelada recorrendo aos princípios de funcionalidade e privilégios mínimos, com o propósito de fornecer proteção dos dados durante a transmissão, processamento e armazenamento. O controlo de acesso _e estabelecido por políticas definidas pelo paciente. Cartões de identificação eletrónicos, ou certificados similares são utilizados para a autenticação, permitindo uma inscrição automática. Todos os componentes requerem autenticação mútua e fazem uso de algoritmos de cifragem para garantir a privacidade dos dados. Apresenta-se também um modelo de ameaça para a arquitetura, por forma a analisar se as ameaças possíveis foram mitigadas ou se são necessários mais refinamentos. A solução proposta resolve o problema da mobilidade do paciente e a dispersão de dados, capacitando o cidadão a gerir e a colaborar na criação e manutenção da sua informação de saúde. A arquitetura permite uma colaboração aberta e segura, possibilitando que o paciente tenha registos mais ricos, atualizados e permitindo o surgimento de novas formas de criar e usar informação clínica ou complementar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A família de especificações WS-* define um modelo de segurança para web services, baseado nos conceitos de claim, security token e Security Token Service (STS). Neste modelo, a informação de segurança dos originadores de mensagens (identidade, privilégios, etc.) é representada através de conjuntos de claims, contidos dentro de security tokens. A emissão e obtenção destes security tokens, por parte dos originadores de mensagens, são realizadas através de protocolos legados ou através de serviços especiais, designados de Security Token Services, usando as operações e os protocolos definidos na especificação WS-Trust. O conceito de Security Token Service não é usado apenas no contexto dos web services. Propostas como o modelo dos Information Cards, aplicável no contexto de aplicações web, também utilizam este conceito. Os Security Token Services desempenham vários papéis, dependendo da informação presente no token emitido. São exemplos o papel de Identity Provider, quando os tokens emitidos contêm informação de identidade, ou o papel de Policy Decision Point, quando os tokens emitidos definem autorizações. Este documento descreve o projecto duma biblioteca software para a realização de Security Token Services, tal como definidos na norma WS-Trust, destinada à plataforma .NET 3.5. Propõem-se uma arquitectura flexível e extensível, de forma a suportar novas versões das normas e as diversas variantes que os Security Token Services possuem, nomeadamente: o tipo dos security token emitidos e das claims neles contidas, a inferência das claims e os métodos de autenticação das entidades requerentes. Apresentam-se aspectos de implementação desta arquitectura, nomeadamente a integração com a plataforma WCF, a sua extensibilidade e o suporte a modelos e sistemas externos à norma. Finalmente, descrevem-se as plataformas de teste implementadas para a validação da biblioteca realizada e os módulos de extensão da biblioteca para: suporte do modelo associado aos Information Cards, do modelo OpenID e para a integração com o Authorization Manager.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As ameaças à segurança da informação, (INFOSEC) atentam contra a perda da respectiva confidencialidade, integridade e disponibilidade, pelo que as organizações são impelidas a implementar políticas de segurança, quer ao nível físico quer ao nível lógico, utilizando mecanismos específicos de defesa. O projecto Network Air Gap Controller (NAGC) foi concebido no sentido de contribuir para as questões da segurança, designadamente daquelas que se relacionam directamente com a transferência de informação entre redes de classificação de segurança diferenciadas ou de sensibilidades distintas, sem requisitos de comunicação em tempo real, e que mereçam um maior empenho nas condições de robustez, de disponibilidade e de controlo. Os organismos que, em razão das atribuições e competências cometidas, necessitam de fazer fluir informação entre este tipo de redes, são por vezes obrigados a realizar a transferência de dados com recurso a um processo manual, efectuado pelo homem e não pela máquina, que envolve dispositivos amovivéis, como sejam o CD, DVD, PEN, discos externos ou switches manuais. Neste processo, vulgarmente designado por Network Air Gap (NAG), o responsável pela transferência de dados deverá assumir de forma infalível, como atribuições intrínsecas e inalienáveis da função exercida, as garantias do cumprimento de um vasto conjunto de normas regulamentares. As regras estabelecidas desdobram-se em ferramentas e procedimentos que se destinam, por exemplo, à guarda em arquivo de todas as transferências efectuadas; à utilização de ferramentas de segurança (ex: antivírus) antes da colocação da informação na rede de classificação mais elevada; ao não consentimento de transferência de determinados tipos de ficheiro (ex: executáveis) e à garantia de que, em consonância com a autonomia que normalmente é delegada no elemento responsável pela operação das comunicações, apenas se efectuam transferências de informação no sentido da rede de classificação inferior para a rede de classificação mais elevada. Face ao valor da informação e do impacto na imagem deste tipo de organizações, o operador de comunicações que não cumpra escrupulosamente o determinado é inexoravelmente afastado dessas funções, sendo que o processo de apuramento de responsabilidades nem sempre poderá determinar de forma inequívoca se as razões apontam para um acto deliberado ou para factores não intencionais, como a inépcia, o descuido ou a fadiga. Na realidade, as actividades periódicas e rotineiras, tornam o homem propenso à falha e poderão ser incontornavelmente asseguradas, sem qualquer tipo de constrangimentos ou diminuição de garantias, por soluções tecnológicas, desde que devidamente parametrizadas, adaptadas, testadas e amadurecidas, libertando os recursos humanos para tarefas de manutenção, gestão, controlo e inspecção. Acresce que, para este tipo de organizações, onde se multiplicam o número de redes de entrada de informação, com diferentes classificações e actores distintos, e com destinatários específicos, a utilização deste tipo de mecanismos assume uma importância capital. Devido a este factor multiplicativo, impõe-se que o NAGC represente uma opção válida em termos de oferta tecnológica, designadamente para uma gama de produtos de baixíssimo custo e que possa desenvolver-se por camadas de contributo complementar, em função das reais necessidades de cada cenário.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho de Projeto realizado para obtenção do grau de Mestre em Engenharia Informática e de Computadores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho de Projeto realizado para obtenção do grau de Mestre em Engenharia Informática e de Computadores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A área de Detecção de Intrusão, apesar de muito pesquisada, não responde a alguns problemas reais como níveis de ataques, dim ensão e complexidade de redes, tolerância a falhas, autenticação e privacidade, interoperabilidade e padronização. Uma pesquisa no Instituto de Informática da UFRGS, mais especificamente no Grupo de Segurança (GSEG), visa desenvolver um Sistema de Detecção de Intrusão Distribuído e com características de tolerância a falhas. Este projeto, denominado Asgaard, é a idealização de um sistema cujo objetivo não se restringe apenas a ser mais uma ferramenta de Detecção de Intrusão, mas uma plataforma que possibilite agregar novos módulos e técnicas, sendo um avanço em relação a outros Sistemas de Detecção atualmente em desenvolvimento. Um tópico ainda não abordado neste projeto seria a detecção de sniffers na rede, vindo a ser uma forma de prevenir que um ataque prossiga em outras estações ou redes interconectadas, desde que um intruso normalmente instala um sniffer após um ataque bem sucedido. Este trabalho discute as técnicas de detecção de sniffers, seus cenários, bem como avalia o uso destas técnicas em uma rede local. As técnicas conhecidas são testadas em um ambiente com diferentes sistemas operacionais, como linux e windows, mapeando os resultados sobre a eficiência das mesmas em condições diversas.