50 resultados para vertex operators
Resumo:
Introdução – A estimativa da função renal relativa (FRR) através de cintigrafia renal (CR) com ácido dimercaptossuccínico marcado com tecnécio-99 metaestável (99mTc-DMSA) pode ser influenciada pela profundidade renal (PR), atendendo ao efeito de atenuação por parte dos tecidos moles que envolvem os rins. Dado que raramente é conhecida esta mesma PR, diferentes métodos de correção de atenuação (CA) foram desenvolvidos, nomeadamente os que utilizam fórmulas empíricas, como os de Raynaud, de Taylor ou de Tonnesen, ou recorrendo à aplicação direta da média geométrica (MG). Objetivos – Identificar a influência dos diferentes métodos de CA na quantificação da função renal relativa através da CR com 99mTc-DMSA e avaliar a respetiva variabilidade dos resultados de PR. Metodologia – Trinta e um pacientes com indicação para realização de CR com 99mTc-DMSA foram submetidos ao mesmo protocolo de aquisição. O processamento foi efetuado por dois operadores independentes, três vezes por exame, variando para o mesmo processamento o método de determinação da FRR: Raynaud, Taylor, Tonnesen, MG ou sem correção de atenuação (SCA). Aplicou-se o teste de Friedman para o estudo da influência dos diferentes métodos de CA e a correlação de Pearson para a associação e significância dos valores de PR com as variáveis idade, peso e altura. Resultados – Da aplicação do teste de Friedman verificaram-se diferenças estatisticamente significativas entre os vários métodos (p=0,000), excetuando as comparações SCA/Raynaud, Tonnesen/MG e Taylor/MG (p=1,000) para ambos os rins. A correlação de Pearson demonstra que a variável peso apresenta uma correlação forte positiva com todos os métodos de cálculo da PR. Conclusões – O método de Taylor, entre os três métodos de cálculo de PR, é o que apresenta valores de FRR mais próximos da MG. A escolha do método de CA influencia significativamente os parâmetros quantitativos de FRR.
Resumo:
This paper presents a single precision floating point arithmetic unit with support for multiplication, addition, fused multiply-add, reciprocal, square-root and inverse squareroot with high-performance and low resource usage. The design uses a piecewise 2nd order polynomial approximation to implement reciprocal, square-root and inverse square-root. The unit can be configured with any number of operations and is capable to calculate any function with a throughput of one operation per cycle. The floatingpoint multiplier of the unit is also used to implement the polynomial approximation and the fused multiply-add operation. We have compared our implementation with other state-of-the-art proposals, including the Xilinx Core-Gen operators, and conclude that the approach has a high relative performance/area efficiency. © 2014 Technical University of Munich (TUM).
Resumo:
This letter presents a new parallel method for hyperspectral unmixing composed by the efficient combination of two popular methods: vertex component analysis (VCA) and sparse unmixing by variable splitting and augmented Lagrangian (SUNSAL). First, VCA extracts the endmember signatures, and then, SUNSAL is used to estimate the abundance fractions. Both techniques are highly parallelizable, which significantly reduces the computing time. A design for the commodity graphics processing units of the two methods is presented and evaluated. Experimental results obtained for simulated and real hyperspectral data sets reveal speedups up to 100 times, which grants real-time response required by many remotely sensed hyperspectral applications.
Resumo:
In this paper, the exact value for the norm of directional derivatives, of all orders, for symmetric tensor powers of operators on finite dimensional vector spaces is presented. Using this result, an upper bound for the norm of all directional derivatives of immanants is obtained.
Resumo:
An improved class of Boussinesq systems of an arbitrary order using a wave surface elevation and velocity potential formulation is derived. Dissipative effects and wave generation due to a time-dependent varying seabed are included. Thus, high-order source functions are considered. For the reduction of the system order and maintenance of some dispersive characteristics of the higher-order models, an extra O(mu 2n+2) term (n ??? N) is included in the velocity potential expansion. We introduce a nonlocal continuous/discontinuous Galerkin FEM with inner penalty terms to calculate the numerical solutions of the improved fourth-order models. The discretization of the spatial variables is made using continuous P2 Lagrange elements. A predictor-corrector scheme with an initialization given by an explicit RungeKutta method is also used for the time-variable integration. Moreover, a CFL-type condition is deduced for the linear problem with a constant bathymetry. To demonstrate the applicability of the model, we considered several test cases. Improved stability is achieved.
Resumo:
We present a generator for single top-quark production via flavour-changing neutral currents. The MEtop event generator allows for Next-to-Leading-Order direct top production pp -> t and Leading-Order production of several other single top processes. A few packages with definite sets of dimension six operators are available. We discuss how to improve the bounds on the effective operators and how well new physics can be probed with each set of independent dimension six operators.
Resumo:
Dissertação para obtenção do grau de Mestre em Engenharia Electrotécnica Ramo Energia
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Eletrónica e Telecomunicações
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Redes de Comunicação e Multimédia
Resumo:
Introdução – A cintigrafia de perfusão do miocárdio (CPM) desempenha um importante papel no diagnóstico, avaliação e seguimento de pacientes com doença arterial coronária, sendo o seu processamento realizado maioritariamente de forma semiautomática. Uma vez que o desempenho dos técnicos de medicina nuclear (TMN) pode ser afetado por fatores individuais e ambientais, diferentes profissionais que processem os mesmos dados poderão obter diferentes estimativas dos parâmetros quantitativos (PQ). Objetivo – Avaliar a influência da experiência profissional e da função visual no processamento semiautomático da CPM. Analisar a variabilidade intra e interoperador na determinação dos PQ funcionais e de perfusão. Metodologia – Selecionou-se uma amostra de 20 TMN divididos em dois grupos, de acordo com a sua experiência no software Quantitative Gated SPECTTM: Grupo A (GA) – TMN ≥600h de experiência e Grupo B (GB) – TMN sem experiência. Submeteram-se os TMN a uma avaliação ortóptica e ao processamento de 21 CPM, cinco vezes, não consecutivas. Considerou-se uma visão alterada quando pelo menos um parâmetro da função visual se encontrava anormal. Para avaliar a repetibilidade e a reprodutibilidade recorreu-se à determinação dos coeficientes de variação, %. Na comparação dos PQ entre operadores, e para a análise do desempenho entre o GA e GB, aplicou-se o Teste de Friedman e de Wilcoxon, respetivamente, considerando o processamento das mesmas CPM. Para a comparação de TMN com visão normal e alterada na determinação dos PQ utilizou-se o Teste Mann-Whitney e para avaliar a influência da visão para cada PQ recorreu-se ao coeficiente de associação ETA. Diferenças estatisticamente significativas foram assumidas ao nível de significância de 5%. Resultados e Discussão – Verificou-se uma reduzida variabilidade intra (<6,59%) e inter (<5,07%) operador. O GB demonstrou ser o mais discrepante na determinação dos PQ, sendo a parede septal (PS) o único PQ que apresentou diferenças estatisticamente significativas (zw=-2,051, p=0,040), em detrimento do GA. No que se refere à influência da função visual foram detetadas diferenças estatisticamente significativas apenas na fração de ejeção do ventrículo esquerdo (FEVE) (U=11,5, p=0,012) entre TMN com visão normal e alterada, contribuindo a visão em 33,99% para a sua variação. Denotaram-se mais diferenças nos PQ obtidos em TMN que apresentam uma maior incidência de sintomatologia ocular e uma visão binocular diminuída. A FEVE demonstrou ser o parâmetro mais consistente entre operadores (1,86%). Conclusão – A CPM apresenta-se como uma técnica repetível e reprodutível, independente do operador. Verificou-se influência da experiência profissional e da função visual no processamento semiautomático da CPM, nos PQ PS e FEVE, respetivamente.
Resumo:
We start by presenting the current status of a complex flavour conserving two-Higgs doublet model. We will focus on some very interesting scenarios where unexpectedly the light Higgs couplings to leptons and to b-quarks can have a large pseudoscalar component with a vanishing scalar component. Predictions for the allowed parameter space at end of the next run with a total collected luminosity of 300 fb(-1) and 3000 fb(-1) are also discussed. These scenarios are not excluded by present data and most probably will survive the next LHC run. However, a measurement of the mixing angle phi(tau), between the scalar and pseudoscalar component of the 125 GeV Higgs, in the decay h -> tau(+)tau(-) will be able to probe many of these scenarios, even with low luminosity. Similarly, a measurement of phi(t) in the vertex (t) over bar th could help to constrain the low tan beta region in the Type I model.
Resumo:
Trabalho de projeto apresentado à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Publicidade e Marketing.
Resumo:
This paper proposes an FPGA-based architecture for onboard hyperspectral unmixing. This method based on the Vertex Component Analysis (VCA) has several advantages, namely it is unsupervised, fully automatic, and it works without dimensionality reduction (DR) pre-processing step. The architecture has been designed for a low cost Xilinx Zynq board with a Zynq-7020 SoC FPGA based on the Artix-7 FPGA programmable logic and tested using real hyperspectral datasets. Experimental results indicate that the proposed implementation can achieve real-time processing, while maintaining the methods accuracy, which indicate the potential of the proposed platform to implement high-performance, low cost embedded systems.
Resumo:
One of the most challenging task underlying many hyperspectral imagery applications is the linear unmixing. The key to linear unmixing is to find the set of reference substances, also called endmembers, that are representative of a given scene. This paper presents the vertex component analysis (VCA) a new method to unmix linear mixtures of hyperspectral sources. The algorithm is unsupervised and exploits a simple geometric fact: endmembers are vertices of a simplex. The algorithm complexity, measured in floating points operations, is O (n), where n is the sample size. The effectiveness of the proposed scheme is illustrated using simulated data.