903 resultados para Signal Authentication
Resumo:
This paper investigated using lip movements as a behavioural biometric for person authentication. The system was trained, evaluated and tested using the XM2VTS dataset, following the Lausanne Protocol configuration II. Features were selected from the DCT coefficients of the greyscale lip image. This paper investigated the number of DCT coefficients selected, the selection process, and static and dynamic feature combinations. Using a Gaussian Mixture Model - Universal Background Model framework an Equal Error Rate of 2.20% was achieved during evaluation and on an unseen test set a False Acceptance Rate of 1.7% and False Rejection Rate of 3.0% was achieved. This compares favourably with face authentication results on the same dataset whilst not being susceptible to spoofing attacks.
Resumo:
Triple negative (TNBCs) and the closely related Basal-like (BLBCs) breast cancers are a loosely defined collection of cancers with poor clinical outcomes. Both show strong similarities with BRCA1-mutant breast cancers and BRCA1 dysfunction, or 'BRCAness', is observed in a large proportion of sporadic BLBCs. BRCA1 expression and function has been shown in vitro to modulate responses to radiation and chemotherapy. Exploitation of this knowledge in the treatment of BRCA1-mutant patients has had varying degrees of success. This reflects the significant problem of accurately detecting those patients with BRCA1 dysfunction. Moreover, not all BRCA1 mutations/loss of function result in the same histology/pathology or indeed have similar effects in modulating therapeutic responses. Given the poor clinical outcomes and lack of targeted therapy for these subtypes, a better understanding of the biology underlying these diseases is required in order to develop novel therapeutic strategies.We have discovered a consistent NFκB hyperactivity associated with BRCA1 dysfunction as a consequence of increased Reactive Oxygen Species (ROS). This biology is found in a subset of BRCA1-mutant and triple negative breast cancer cases and confers good outcome. The increased NFκB signalling results in an anti-tumour microenvironment which may allow CD8+ cytotoxic T cells to suppress tumour progression. However, tumours lacking this NFκB-driven biology have a more tumour-promoting environment and so are associated with poorer prognosis. Tumour-derived gene expression data and cell line models imply that these tumours may benefit from alternative treatment strategies such as reprogramming the microenvironment and targeting the IGF and AR signalling pathways.
Resumo:
In order to protect user privacy on mobile devices, an event-driven implicit authentication scheme is proposed in this paper. Several methods of utilizing the scheme for recognizing legitimate user behavior are investigated. The investigated methods compute an aggregate score and a threshold in real-time to determine the trust level of the current user using real data derived from user interaction with the device. The proposed scheme is designed to: operate completely in the background, require minimal training period, enable high user recognition rate for implicit authentication, and prompt detection of abnormal activity that can be used to trigger explicitly authenticated access control. In this paper, we investigate threshold computation through standard deviation and EWMA (exponentially weighted moving average) based algorithms. The result of extensive experiments on user data collected over a period of several weeks from an Android phone indicates that our proposed approach is feasible and effective for lightweight real-time implicit authentication on mobile smartphones.
Resumo:
This study introduces an inexact, but ultra-low power, computing architecture devoted to the embedded analysis of bio-signals. The platform operates at extremely low voltage supply levels to minimise energy consumption. In this scenario, the reliability of static RAM (SRAM) memories cannot be guaranteed when using conventional 6-transistor implementations. While error correction codes and dedicated SRAM implementations can ensure correct operations in this near-threshold regime, they incur in significant area and energy overheads, and should therefore be employed judiciously. Herein, the authors propose a novel scheme to design inexact computing architectures that selectively protects memory regions based on their significance, i.e. their impact on the end-to-end quality of service, as dictated by the bio-signal application characteristics. The authors illustrate their scheme on an industrial benchmark application performing the power spectrum analysis of electrocardiograms. Experimental evidence showcases that a significance-based memory protection approach leads to a small degradation in the output quality with respect to an exact implementation, while resulting in substantial energy gains, both in the memory and the processing subsystem.
Resumo:
As plantas utilizam diversas estratégias de sinalização para reconhecer e responder aos stresses ambientais. A maioria das vias de transdução de sinais partilham um sinal genérico, normalmente a modulação dos níveis intracelulares de Ca2+. Esta por sua vez pode iniciar uma cascata de fosforilação proteica que finalmente afecta as proteínas directamente envolvidas na protecção celular ou culmina em factores de transcrição que vão determinar a resposta fisiológica ao stresse. A percepção destes sinais e a compreensão de como estes podem activar as respostas adaptativas são factores-chave para a tolerância das plantas a stresses abióticos. Um dos principais stresses abóticos que restrigem o crescimento das plantas é a presença de metais pesados. A produção de fitoquelatinas e a subsequente quelação dos metais é o mecanismo mais conhecido de tolerância ao stresse metálico em plantas. Fitoquelatinas (PCs) são péptidos com grupos tiol que são sintetizados através da transpeptidação da glutationa (GSH), pela acção da enzima fitoquelatina sintase (PCS). No entanto, até ao momento, as vias de sinalização que levam à síntese de fitoquelatinas e à percepção do stresse metálico são pouco compreendidas. Dentro deste contexto, o presente trabalho foi elaborado com o intuito de elucidar a via de sinalização através da qual o cádmio é detectado pelas células vegetais e induz a síntese de PCs. Quase todos, os estudos de stresses abióticos em plantas apontam para o facto de a sua sinalização se basear nos mesmos tipos de sinais moleculares, nomeadamente a sinalização por cálcio, a fosforilação proteica e a indução de espécies reactivas de oxigénio (ROS). Trabalhos recentes sugerem que a sinalização de PCs poderá envolver todos estes parâmetros. Assim, uma primeira abordagem foi efectuada para compreender a síntese de PCs na espécie Arabidopsis thaliana, através da monitorizaçção da actividade de enzimas relacionadas, a γ-EC sintetase, GSH sintetase e a PC sintase (PCS), assim como o tempo necessário para o elongamento das PCs e a sua acumulação. Seguidamente, ao longo deste processo foi analisada a expressão de sinais específicos, associados com sinais de cálcio, fosforilação proteica e sinalização por ROS. A importância destes factores na síntese de PCs foi também avaliada através do uso de moduladores farmacológicos de cálcio e fosfatases proteicas e também pela indução de stresse oxidativo. Os resultados demonstraram novos dados sobre o papel do cálcio e da fosforilação proteica na produção de PCs e na síntese de GSH, revelando que a actvidade da PCS é regulada por fosforilação e que a sinalização de cálcio pode mediar a síntese de GSH. O envolvimento da sinalização de ROS na síntese de GSH, atráves de crosstalk com a sinalização de cálcio também foi proposta. Assim, os resultados aqui apresentados descrevem uma possível via de sinalização de cádmio nas plantas e da indução de fitoquelatinas. Este trabalho poderá ser portanto muito útil na implementação de novas metodologias de agricultura sustentável e práticas de fitorremediação em solos contaminados com metais pesados.
Resumo:
O presente trabalho tem por objectivo o estudo de novos dispositivos fotónicos aplicados a sistemas de comunicações por fibra óptica e a sistemas de processamento de sinais RF. Os dispositivos apresentados baseiam-se em processamento de sinal linear e não linear. Dispositivos lineares ópticos tais como o interferómetro de Mach-Zehnder permitem adicionar sinais ópticos com pesos fixos ou sintonizáveis. Desta forma, este dispositivo pode ser usado respectivamente como um filtro óptico em amplitude com duas saídas complementares, ou, como um filtro óptico de resposta de fase sintonizável. O primeiro princípio de operação serve como base para um novo sistema fotónico de medição em tempo real da frequência de um sinal RF. O segundo princípio de operação é explorado num novo sistema fotónico de direccionamento do campo eléctrico radiado por um agregado de antenas, e também num novo compensador sintonizável de dispersão cromática. O processamento de sinal é não linear quando sinais ópticos são atrasados e posteriormente misturados entre si, em vez de serem linearmente adicionados. Este princípio de operação está por detrás da mistura de um sinal eléctrico com um sinal óptico, que por sua vez é a base de um novo sistema fotónico de medição em tempo real da frequência de um sinal RF. A mistura de sinais ópticos em meios não lineares permite uma operação eficiente numa grande largura espectral. Tal operação é usada para realizar conversão de comprimento de onda sintonizável. Um sinal óptico com multiplexagem no domínio temporal de elevada largura de banda é misturado com duas bombas ópticas não moduladas com base em processos não lineares paramétricos num guia de ondas de niobato de lítio com inversão periódica da polarização dos domínios ferroeléctricos. Noutro trabalho, uma bomba pulsada em que cada pulso tem um comprimento de onda sintonizável serve como base a um novo conversor de sinal óptico com multiplexagem no domínio temporal para um sinal óptico com multiplexagem no comprimento de onda. A bomba é misturada com o sinal óptico de entrada através de um processo não linear paramétrico numa fibra óptica com parâmetro não linear elevado. Todos os dispositivos fotónicos de processamento de sinal linear ou não linear propostos são experimentalmente validados. São também modelados teoricamente ou através de simulação, com a excepção dos que envolvem mistura de sinais ópticos. Uma análise qualitativa é suficiente nestes últimos dispositivos.
Resumo:
Esta tese investiga a caracterização (e modelação) de dispositivos que realizam o interface entre os domínios digital e analógico, tal como os buffers de saída dos circuitos integrados (CI). Os terminais sem fios da atualidade estão a ser desenvolvidos tendo em vista o conceito de rádio-definido-por-software introduzido por Mitola. Idealmente esta arquitetura tira partido de poderosos processadores e estende a operação dos blocos digitais o mais próximo possível da antena. Neste sentido, não é de estranhar que haja uma crescente preocupação, no seio da comunidade científica, relativamente à caracterização dos blocos que fazem o interface entre os domínios analógico e digital, sendo os conversores digital-analógico e analógico-digital dois bons exemplos destes circuitos. Dentro dos circuitos digitais de alta velocidade, tais como as memórias Flash, um papel semelhante é desempenhado pelos buffers de saída. Estes realizam o interface entre o domínio digital (núcleo lógico) e o domínio analógico (encapsulamento dos CI e parasitas associados às linhas de transmissão), determinando a integridade do sinal transmitido. Por forma a acelerar a análise de integridade do sinal, aquando do projeto de um CI, é fundamental ter modelos que são simultaneamente eficientes (em termos computacionais) e precisos. Tipicamente a extração/validação dos modelos para buffers de saída é feita usando dados obtidos da simulação de um modelo detalhado (ao nível do transístor) ou a partir de resultados experimentais. A última abordagem não envolve problemas de propriedade intelectual; contudo é raramente mencionada na literatura referente à caracterização de buffers de saída. Neste sentido, esta tese de Doutoramento foca-se no desenvolvimento de uma nova configuração de medição para a caracterização e modelação de buffers de saída de alta velocidade, com a natural extensão aos dispositivos amplificadores comutados RF-CMOS. Tendo por base um procedimento experimental bem definido, um modelo estado-da-arte é extraído e validado. A configuração de medição desenvolvida aborda não apenas a integridade dos sinais de saída mas também do barramento de alimentação. Por forma a determinar a sensibilidade das quantias estimadas (tensão e corrente) aos erros presentes nas diversas variáveis associadas ao procedimento experimental, uma análise de incerteza é também apresentada.
Resumo:
A integridade do sinal em sistemas digitais interligados de alta velocidade, e avaliada através da simulação de modelos físicos (de nível de transístor) é custosa de ponto vista computacional (por exemplo, em tempo de execução de CPU e armazenamento de memória), e exige a disponibilização de detalhes físicos da estrutura interna do dispositivo. Esse cenário aumenta o interesse pela alternativa de modelação comportamental que descreve as características de operação do equipamento a partir da observação dos sinais eléctrico de entrada/saída (E/S). Os interfaces de E/S em chips de memória, que mais contribuem em carga computacional, desempenham funções complexas e incluem, por isso, um elevado número de pinos. Particularmente, os buffers de saída são obrigados a distorcer os sinais devido à sua dinâmica e não linearidade. Portanto, constituem o ponto crítico nos de circuitos integrados (CI) para a garantia da transmissão confiável em comunicações digitais de alta velocidade. Neste trabalho de doutoramento, os efeitos dinâmicos não-lineares anteriormente negligenciados do buffer de saída são estudados e modulados de forma eficiente para reduzir a complexidade da modelação do tipo caixa-negra paramétrica, melhorando assim o modelo standard IBIS. Isto é conseguido seguindo a abordagem semi-física que combina as características de formulação do modelo caixa-negra, a análise dos sinais eléctricos observados na E/S e propriedades na estrutura física do buffer em condições de operação práticas. Esta abordagem leva a um processo de construção do modelo comportamental fisicamente inspirado que supera os problemas das abordagens anteriores, optimizando os recursos utilizados em diferentes etapas de geração do modelo (ou seja, caracterização, formulação, extracção e implementação) para simular o comportamento dinâmico não-linear do buffer. Em consequência, contributo mais significativo desta tese é o desenvolvimento de um novo modelo comportamental analógico de duas portas adequado à simulação em overclocking que reveste de um particular interesse nas mais recentes usos de interfaces de E/S para memória de elevadas taxas de transmissão. A eficácia e a precisão dos modelos comportamentais desenvolvidos e implementados são qualitativa e quantitativamente avaliados comparando os resultados numéricos de extracção das suas funções e de simulação transitória com o correspondente modelo de referência do estado-da-arte, IBIS.
Resumo:
Optical networks are under constant evolution. The growing demand for dynamism require devices that can accommodate different types of traffic. Thus the study of transparent optical networks arises. This approach makes optical networks more "elegant" , due to a more efficient use of network resources. In this thesis, the author proposes devices that intend to form alternative approaches both in the state of art of these same technologies both in the fitting of this technologies in transparent optical networks. Given that full transparency is difficult to achieve with current technology (perhaps with more developed optical computing this is possible), the author proposes techniques with different levels of transparency. On the topic of performance of optical networks, the author proposes two techniques for monitoring chromatic dispersion with different levels of transparency. In Chapter 3 the proposed technique seems to make more sense for long-haul optical transmission links and high transmission rates, not only due to its moderate complexity but also to its potential moderate/high cost. However it is proposed to several modulation formats, particularly those that have a protruding clock component. In Chapter 4 the transparency level was not tested for various modulation formats, however some transparency is achieved by not adding any electrical device after the receiver (other than an analog-digital converter). This allows that this technique can operate at high transmission rates in excess of 100 Gbit / s, if electro-optical asynchronous sampling is used before the optical receiver. Thus a low cost and low bandwidth photo-detector can be used. In chapter 5 is demonstrated a technique for simultaneously monitoring multiple impairments of the optical network by generating novel performance analysis diagrams and by use of artificial neural networks. In chapter 6 the author demonstrates an all-optical technique for controlling the optical state of polarization and an example of how all-optical signal processing can fully cooperate with optical performance monitoring.
Resumo:
The IFAC International Conference on Intelligent Control Systems and Signal Processing (ICONS 2003) was organized under the auspices of the recently founded IFAC Technical Committee on Cognition and Control, and it was the first IFAC event specifically devoted to this theme. Recognizing the importance of soft-computing techniques for fields covered by other IFAC Technical Committees, ICONS 2003 was a multi-track Conference, co-sponsored by four additional Technical Committees: Computers for Control, Optimal Control, Control in Agriculture, and Modelling, Identification and Signal Processing. The Portuguese Society for Automatic Control (APCA) hosted ICONS 2003, which was held at the University of Algarve, Faro, Portugal.
Resumo:
SYSID is organized every three years. This will be the first SYSID symposium in the 3rd millenium and the second SYSID symposium to take place in The Netherlands. The symposium covers all major aspects of system identification, experimental modelling, signal processing and adaptive control from theoretical and methodological developments to practical applications in a wide range of application areas. The aim of the meeting is to promote the research activities and the cooperation between researchers in these areas. To enhance the applications and industrial perspective of the symposium, participation from industrial authors is particularly encouraged. This will be the first Council meeting after the World Congress in Barcelona last year. The year that has passed has been very active indeed. Following the restructuring of the Technical Board which was endorsed in Barcelona, the 39 Technical Committees within the Technical Board have taken up their work and, after a year, we may say that work is proceeding very smoothly and a lot of activities are going on which will be reported on in greater detail after the meeting of the Technical Board in Rotterdam. The scopes of all these 39 Technical Committees have been revised and were published in Issue 1, 2003 of the IFAC Newsletter, which was published on the web. Shortly a document for download with all the scopes will be available on the web.
Resumo:
In the marine environment, phytoplankton and bacterioplankton can be physically associated. Such association has recently been hypothesized to be involved in the toxicity of the dinoflagellate genus Alexandrium. However, the methods, which have been used so far to identify, localize, and quantify bacteria associated with phytoplankton, are either destructive, time consuming, or lack precision. In the present study we combined tyramide signal amplification–fluorescent in situ hybridization (TSA-FISH) with confocal microscopy to determine the physical association of dinoflagellate cells with bacteria. Dinoflagellate attached microflora was successfully identified with TSA-FISH, whereas FISH using monolabeled probes failed to detect bacteria, because of the dinoflagellate autofluorescence. Bacteria attached to entire dinoflagellates were further localized and distinguished from those attached to empty theca, by using calcofluor and DAPI, two fluorochromes that stain dinoflagellate theca and DNA, respectively. The contribution of specific bacterial taxa of attached microflora was assessed by double hybridization. Endocytoplasmic and endonuclear bacteria were successfully identified in the nonthecate dinoflagellate Gyrodinium instriatum. In contrast, intracellular bacteria were not observed in either toxic or nontoxic strains of Alexandrium spp. Finally, the method was successfully tested on natural phytoplankton assemblages, suggesting that this combination of techniques could prove a useful tool for the simultaneous identification, localization, and quantification of bacteria physically associated with dinoflagellates and more generally with phytoplankton.
Resumo:
Adequate user authentication is a persistent problem, particularly with mobile devices, which tend to be highly personal and at the fringes of an organisation's influence. Yet these devices are being used increasingly in various business settings, where they pose a risk to security and privacy, not only from sensitive information they may contain, but also from the means they typically offer to access such information over wireless networks. User authentication is the first line of defence for a mobile device that falls into the hands of an unauthorised user. However, motivating users to enable simple password mechanisms and periodically update their authentication information is difficult at best. This paper examines some of the issues relating to the use of biometrics as a viable method of authentication on mobile wireless devices. It is also a critical analysis of some of the techniques currently employed and where appropriate, suggests novel hybrid ways in which they could be improved or modified. Both biometric technology and wireless setting based constraints that determine the feasibility and the performance of the authentication feature are specified. Some well known biometric technologies are briefly reviewed and their feasibility for wireless and mobile use is reviewed. Furthermore, a number of quantitative and qualitative parameters for evaluation are also presented. Biometric technologies are continuously advancing toward commercial implementation in wireless devices. When carefully designed and implemented, the advantage of biometric authentication arises mainly from increased convenience and coexistent improved security.
Resumo:
Thesis (Ph.D.)--University of Washington, 2016-03
Resumo:
It is difficult to get the decision about an opinion after many users get the meeting in same place. It used to spend too much time in order to find solve some problem because of the various opinions of each other. TAmI (Group Decision Making Toolkit) is the System to Group Decision in Ambient Intelligence [1]. This program was composed with IGATA [2], WebMeeting and the related Database system. But, because it is sent without any encryption in IP / Password, it can be opened to attacker. They can use the IP / Password to the bad purpose. As the result, although they make the wrong result, the joined member can’t know them. Therefore, in this paper, we studied the applying method of user’s authentication into TAmI.