940 resultados para Signatures


Relevância:

10.00% 10.00%

Publicador:

Resumo:

We use published and new trace element data to identify element ratios which discriminate between arc magmas from the supra-subduction zone mantle wedge and those formed by direct melting of subducted crust (i.e. adakites). The clearest distinction is obtained with those element ratios which are strongly fractionated during refertilisation of the depleted mantle wedge, ultimately reflecting slab dehydration. Hence, adakites have significantly lower Pb/Nd and B/Be but higher Nb/Ta than typical arc magmas and continental crust as a whole. Although Li and Be are also overenriched in continental crust, behaviour of Li/Yb and Be/Nd is more complex and these ratios do not provide unique signatures of slab melting. Archaean tonalite-trondhjemite-granodiorites (TTGs) strongly resemble ordinary mantle wedge-derived arc magmas in terms of fluid-mobile trace element content, implying that they-did not form by slab melting but that they originated from mantle which was hydrated and enriched in elements lost from slabs during prograde dehydration. We suggest that Archaean TTGs formed by extensive fractional crystallisation from a mafic precursor. It is widely claimed that the time between the creation and subduction of oceanic lithosphere was significantly shorter in the Archaean (i.e. 20 Ma) than it is today. This difference was seen as an attractive explanation for the presumed preponderance of adakitic magmas during the first half of Earth's history. However, when we consider the effects of a higher potential mantle temperature on the thickness of oceanic crust, it follows that the mean age of oceanic lithosphere has remained virtually constant. Formation of adakites has therefore always depended on local plate geometry and not on potential mantle temperature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Piston-cylinder experiments in the granite system demonstrate that a variety of isotopically distinct melts can arise from progressive melting of a single source. The relation between the isotopic composition of Sr and the stoichiometry of the observed melting reactions suggests that isotopic signatures of anatectic magmas can be used to infer melting reactions in natural systems. Our results also indicate that distinct episodes of dehydration and fluid-fluxed melting of a single, metapelitic source region may have contributed to the bimodal geochemistry of crustally derived leucogranites of the Himalayan orogen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The utility of 16s rDNA restriction fragment length polymorphism (RFLP) analysis for the partial genomovar differentiation of Burkholderia cepacia complex bacterium is well documented. We compared the 16s rDNA RFLP signatures for a number of non-fermenting gram negative bacilli (NF GNB) LMG control strains and clinical isolates pertaining to the genera Burkholderia, Pseudomonas, Achromobacter (Alcaligenes), Ralstonia, Stenotrophomonas and Pandoraea. A collection of 24 control strain (LMG) and 25 clinical isolates were included in the study. Using conventional PCR, a 1.2 kbp 16s rDNA fragment was generated for each organism. Following restriction digestion and electrophoresis, each clinical isolate RFLP signature was compared to those of the control strain panel. Nineteen different RFLP signatures were detected from the 28 control strains included in the study. TwentyoneyTwenty- five of the clinical isolates could be classified by RFLP analysis into a single genus and species when compared to the patterns produced by the control strain panel. Four clinical B. pseudomallei isolates produced RFLP signatures which were indistinguishable from B. cepacia genomovars I, III and VIII. The identity of these four isolates were confirmed using B. pseudomallei specific PCR. 16s rDNA RFLP analysis can be a useful identification strategy when applied to NF GNB, particularly for those which exhibit colistin sulfate resistance. The use of this molecular based methodology has proved very useful in the setting of a CF referral laboratory particularly when utilised in conjunction with B. cepacia complex and genomovar specific PCR techniques. Species specific PCR or sequence analysis should be considered for selected isolates; especially where discrepancies between epidemiology, phenotypic and genotypic characteristics occur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The ability to generate enormous random libraries of DNA probes via split-and-mix synthesis on solid supports is an important biotechnological application of colloids that has not been fully utilized to date. To discriminate between colloid-based DNA probes each colloidal particle must be 'encoded' so it is distinguishable from all other particles. To this end, we have used novel particle synthesis strategies to produce large numbers of optically encoded particle suitable for DNA library synthesis. Multifluorescent particles with unique and reproducible optical signatures (i.e., fluorescence and light-scattering attributes) suitable for high-throughput flow cytometry have been produced. In the spectroscopic study presented here, we investigated the optical characteristics of multi-fluorescent particles that were synthesized by coating silica 'core' particles with up to six different fluorescent dye shells alternated with non-fluorescent silica 'spacer' shells. It was observed that the diameter of the particles increased by up to 20% as a result of the addition of twelve concentric shells and that there was a significant reduction in fluorescence emission intensities from inner shells as an increasing number of shells were deposited.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As comunicações electrónicas são cada vez mais o meio de eleição para negócios entre entidades e para as relações entre os cidadãos e o Estado (e-government). Esta diversidade de transacções envolve, muitas vezes, informação sensível e com possível valor legal. Neste contexto, as assinaturas electrónicas são uma importante base de confiança, fornecendo garantias de integridade e autenticação entre os intervenientes. A produção de uma assinatura digital resulta não só no valor da assinatura propriamente dita, mas também num conjunto de informação adicional acerca da mesma, como o algoritmo de assinatura, o certificado de validação ou a hora e local de produção. Num cenário heterogéneo como o descrito anteriormente, torna-se necessária uma forma flexível e interoperável de descrever esse tipo de informação. A linguagem XML é uma forma adequada de representar uma assinatura neste contexto, não só pela sua natureza estruturada, mas principalmente por ser baseada em texto e ter suporte generalizado. A recomendação XML Signature Syntax and Processing (ou apenas XML Signature) foi o primeiro passo na representação de assinaturas em XML. Nela são definidas sintaxe e regras de processamento para criar, representar e validar assinaturas digitais. As assinaturas XML podem ser aplicadas a qualquer tipo de conteúdos digitais identificáveis por um URI, tanto no mesmo documento XML que a assinatura, como noutra qualquer localização. Além disso, a mesma assinatura XML pode englobar vários recursos, mesmo de tipos diferentes (texto livre, imagens, XML, etc.). À medida que as assinaturas electrónicas foram ganhando relevância tornou-se evidente que a especificação XML Signature não era suficiente, nomeadamente por não dar garantias de validade a longo prazo nem de não repudiação. Esta situação foi agravada pelo facto da especificação não cumprir os requisitos da directiva 1999/93/EC da União Europeia, onde é estabelecido um quadro legal para as assinaturas electrónicas a nível comunitário. No seguimento desta directiva da União Europeia foi desenvolvida a especificação XML Advanced Electronic Signatures que define formatos XML e regras de processamento para assinaturas electrónicas não repudiáveis e com validade verificável durante períodos de tempo extensos, em conformidade com a directiva. Esta especificação estende a recomendação XML Signature, definindo novos elementos que contêm informação adicional acerca da assinatura e dos recursos assinados (propriedades qualificadoras). A plataforma Java inclui, desde a versão 1.6, uma API de alto nível para serviços de assinaturas digitais em XML, de acordo com a recomendação XML Signature. Contudo, não existe suporte para assinaturas avançadas. Com este projecto pretende-se desenvolver uma biblioteca Java para a criação e validação de assinaturas XAdES, preenchendo assim a lacuna existente na plataforma. A biblioteca desenvolvida disponibiliza uma interface com alto nível de abstracção, não tendo o programador que lidar directamente com a estrutura XML da assinatura nem com os detalhes do conteúdo das propriedades qualificadoras. São definidos tipos que representam os principais conceitos da assinatura, nomeadamente as propriedades qualificadoras e os recursos assinados, sendo os aspectos estruturais resolvidos internamente. Neste trabalho, a informação que compõe uma assinatura XAdES é dividia em dois grupos: o primeiro é formado por características do signatário e da assinatura, tais como a chave e as propriedades qualificadoras da assinatura. O segundo grupo é composto pelos recursos assinados e as correspondentes propriedades qualificadoras. Quando um signatário produz várias assinaturas em determinado contexto, o primeiro grupo de características será semelhante entre elas. Definiu-se o conjunto invariante de características da assinatura e do signatário como perfil de assinatura. O conceito é estendido à verificação de assinaturas englobando, neste caso, a informação a usar nesse processo, como por exemplo os certificados raiz em que o verificador confia. Numa outra perspectiva, um perfil constitui uma configuração do serviço de assinatura correspondente. O desenho e implementação da biblioteca estão também baseados no conceito de fornecedor de serviços. Um fornecedor de serviços é uma entidade que disponibiliza determinada informação ou serviço necessários à produção e verificação de assinaturas, nomeadamente: selecção de chave/certificado de assinatura, validação de certificados, interacção com servidores de time-stamp e geração de XML. Em vez de depender directamente da informação em causa, um perfil — e, consequentemente, a operação correspondente — é configurado com fornecedores de serviços que são invocados quando necessário. Para cada tipo de fornecedor de serviços é definida um interface, podendo as correspondentes implementações ser configuradas de forma independente. A biblioteca inclui implementações de todos os fornecedores de serviços, sendo algumas delas usadas for omissão na produção e verificação de assinaturas. Uma vez que o foco do projecto é a especificação XAdES, o processamento e estrutura relativos ao formato básico são delegados internamente na biblioteca Apache XML Security, que disponibiliza uma implementação da recomendação XML Signature. Para validar o funcionamento da biblioteca, nomeadamente em termos de interoperabilidade, procede-se, entre outros, à verificação de um conjunto de assinaturas produzidas por Estados Membros da União Europeia, bem como por outra implementação da especificação XAdES.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper is an elaboration of the DECA algorithm [1] to blindly unmix hyperspectral data. The underlying mixing model is linear, meaning that each pixel is a linear mixture of the endmembers signatures weighted by the correspondent abundance fractions. The proposed method, as DECA, is tailored to highly mixed mixtures in which the geometric based approaches fail to identify the simplex of minimum volume enclosing the observed spectral vectors. We resort then to a statitistical framework, where the abundance fractions are modeled as mixtures of Dirichlet densities, thus enforcing the constraints on abundance fractions imposed by the acquisition process, namely non-negativity and constant sum. With respect to DECA, we introduce two improvements: 1) the number of Dirichlet modes are inferred based on the minimum description length (MDL) principle; 2) The generalized expectation maximization (GEM) algorithm we adopt to infer the model parameters is improved by using alternating minimization and augmented Lagrangian methods to compute the mixing matrix. The effectiveness of the proposed algorithm is illustrated with simulated and read data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Environmental tobacco smoke (ETS) is recognized as an occupational hazard in the hospitality industry. Although Portuguese legislation banned smoking in most indoor public spaces, it is still allowed in some restaurants/bars, representing a potential risk to the workers’ health, particularly for chronic respiratory diseases. The aims of this work were to characterize biomarkers of early genetic effects and to disclose proteomic signatures associated to occupational exposure to ETS and with potential to predict respiratory diseases development. A detailed lifestyle survey and clinical evaluation (including spirometry) were performed in 81 workers from Lisbon restaurants. ETS exposure was assessed through the level of PM 2.5 in indoor air and the urinary level of cotinine. The plasma samples were immunodepleted and analysed by 2D-SDSPAGE followed by in-gel digestion and LC-MS/MS. DNA lesions and chromosome damage were analysed innlymphocytes and in exfoliated buccal cells from 19 cigarette smokers, 29 involuntary smokers, and 33 non-smokers not exposed to tobacco smoke. Also, the DNA repair capacity was evaluated using an ex vivo challenge comet assay with an alkylating agent (EMS). All workers were considered healthy and recorded normal lung function. Interestingly, following 2D-DIGE-MS (MALDI-TOF/TOF), 61 plasma proteins were found differentially expressed in ETS-exposed subjects, including 38 involved in metabolism, acute-phase respiratory inflammation, and immune or vascular functions. On the other hand, the involuntary smokers showed neither an increased level of DNA/chromosome damage on lymphocytes nor an increased number of micronuclei in buccal cells, when compared to non-exposed non-smokers. Noteworthy, lymphocytes challenge with EMS resulted in a significantly lower level of DNA breaks in ETS-exposed as compared to non-exposed workers (P<0.0001) suggestive of an adaptive response elicited by the previous exposure to low levels of ETS. Overall, changes in proteome may be promising early biomarkers of exposure to ETS. Likewise, alterations of the DNA repair competence observed upon ETS exposure deserves to be further understood. Work supported by Fundação Calouste Gulbenkian, ACSS and FCT/Polyannual Funding Program.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hoje em dia, há cada vez mais informação audiovisual e as transmissões ou ficheiros multimédia podem ser partilhadas com facilidade e eficiência. No entanto, a adulteração de conteúdos vídeo, como informação financeira, notícias ou sessões de videoconferência utilizadas num tribunal, pode ter graves consequências devido à importância desse tipo de informação. Surge então, a necessidade de assegurar a autenticidade e a integridade da informação audiovisual. Nesta dissertação é proposto um sistema de autenticação de vídeo H.264/Advanced Video Coding (AVC), denominado Autenticação de Fluxos utilizando Projecções Aleatórias (AFPA), cujos procedimentos de autenticação, são realizados ao nível de cada imagem do vídeo. Este esquema permite um tipo de autenticação mais flexível, pois permite definir um limite máximo de modificações entre duas imagens. Para efectuar autenticação é utilizada uma nova técnica de autenticação de imagens, que combina a utilização de projecções aleatórias com um mecanismo de correcção de erros nos dados. Assim é possível autenticar cada imagem do vídeo, com um conjunto reduzido de bits de paridade da respectiva projecção aleatória. Como a informação de vídeo é tipicamente, transportada por protocolos não fiáveis pode sofrer perdas de pacotes. De forma a reduzir o efeito das perdas de pacotes, na qualidade do vídeo e na taxa de autenticação, é utilizada Unequal Error Protection (UEP). Para validação e comparação dos resultados implementou-se um sistema clássico que autentica fluxos de vídeo de forma típica, ou seja, recorrendo a assinaturas digitais e códigos de hash. Ambos os esquemas foram avaliados, relativamente ao overhead introduzido e da taxa de autenticação. Os resultados mostram que o sistema AFPA, utilizando um vídeo com qualidade elevada, reduz o overhead de autenticação em quatro vezes relativamente ao esquema que utiliza assinaturas digitais e códigos de hash.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

P>Reconstruction of the South Atlantic opening has long been a matter of debate and several models have been proposed. One problem in tracing properly the Atlantic history arises from the existence of a long interval without geomagnetic reversals, the Cretaceous Normal Superchron, for which ages are difficult to assign. Palaeomagnetism may help in addressing this issue if high-quality palaeomagnetic poles are available for the two drifting continental blocks, and if precise absolute ages are available. In this work we have investigated the Cabo Magmatic Province, northeastern Brazil, recently dated at 102 +/- 1 Ma (zircon fission tracks, Ar39/Ar40). All volcanic and plutonic rocks showed stable thermal and AF demagnetization patterns, and exhibit primary magnetic signatures. AMS data also support a primary origin for the magnetic fabric and is interpreted to be contemporaneous of the rock formation. The obtained pole is located at 335.9 degrees E/87.9 degrees S (N = 24; A(95) = 2.5; K = 138) and satisfies modern quality criteria, resulting in a reference pole for South America at similar to 100 Ma. This new pole also gives an insight to test and discuss the kinematic models currently proposed for the South Atlantic opening during mid-Cretaceous.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Faz-se nesta dissertação a análise do movimento humano utilizando sinais de ultrassons refletidos pelos diversos membros do corpo humano, designados por assinaturas de ultrassons. Estas assinaturas são confrontadas com os sinais gerados pelo contato dos membros inferiores do ser humano com o chão, recolhidos de forma passiva. O método seguido teve por base o estudo das assinaturas de Doppler e micro-Doppler. Estas assinaturas são obtidas através do processamento dos ecos de ultrassons recolhidos, com recurso à Short-Time Fourier Transform e apresentadas sobre a forma de espectrograma, onde se podem identificar os desvios de frequência causados pelo movimento das diferentes partes do corpo humano. É proposto um algoritmo inovador que, embora possua algumas limitações, é capaz de isolar e extrair de forma automática algumas das curvas e parâmetros característicos dos membros envolvidos no movimento humano. O algoritmo desenvolvido consegue analisar as assinaturas de micro-Doppler do movimento humano, estimando diversos parâmetros tais como o número de passadas realizadas, a cadência da passada, o comprimento da passada, a velocidade a que o ser humano se desloca e a distância percorrida. Por forma a desenvolver, no futuro, um classificador capaz de distinguir entre humanos e outros animais, são também recolhidas e analisadas assinaturas de ultrassons refletidas por dois animais quadrúpedes, um canino e um equídeo. São ainda estudadas as principais características que permitem classificar o tipo de animal que originou a assinatura de ultrassons. Com este estudo mostra-se ser possível a análise de movimento humano por ultrassons, havendo características nas assinaturas recolhidas que permitem a classificação do movimento como humano ou não humano. Do trabalho desenvolvido resultou ainda uma base de dados de assinaturas de ultrassons de humanos e animais que permitirá suportar trabalho de investigação e desenvolvimento futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Linear unmixing decomposes a hyperspectral image into a collection of reflectance spectra of the materials present in the scene, called endmember signatures, and the corresponding abundance fractions at each pixel in a spatial area of interest. This paper introduces a new unmixing method, called Dependent Component Analysis (DECA), which overcomes the limitations of unmixing methods based on Independent Component Analysis (ICA) and on geometrical properties of hyperspectral data. DECA models the abundance fractions as mixtures of Dirichlet densities, thus enforcing the constraints on abundance fractions imposed by the acquisition process, namely non-negativity and constant sum. The mixing matrix is inferred by a generalized expectation-maximization (GEM) type algorithm. The performance of the method is illustrated using simulated and real data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chpater in Book Proceedings with Peer Review Second Iberian Conference, IbPRIA 2005, Estoril, Portugal, June 7-9, 2005, Proceedings, Part II

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Given a set of mixed spectral (multispectral or hyperspectral) vectors, linear spectral mixture analysis, or linear unmixing, aims at estimating the number of reference substances, also called endmembers, their spectral signatures, and their abundance fractions. This paper presents a new method for unsupervised endmember extraction from hyperspectral data, termed vertex component analysis (VCA). The algorithm exploits two facts: (1) the endmembers are the vertices of a simplex and (2) the affine transformation of a simplex is also a simplex. In a series of experiments using simulated and real data, the VCA algorithm competes with state-of-the-art methods, with a computational complexity between one and two orders of magnitude lower than the best available method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Relatório do Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This letter presents a new parallel method for hyperspectral unmixing composed by the efficient combination of two popular methods: vertex component analysis (VCA) and sparse unmixing by variable splitting and augmented Lagrangian (SUNSAL). First, VCA extracts the endmember signatures, and then, SUNSAL is used to estimate the abundance fractions. Both techniques are highly parallelizable, which significantly reduces the computing time. A design for the commodity graphics processing units of the two methods is presented and evaluated. Experimental results obtained for simulated and real hyperspectral data sets reveal speedups up to 100 times, which grants real-time response required by many remotely sensed hyperspectral applications.