34 resultados para Singular vectors
em Repositório Científico do Instituto Politécnico de Lisboa - Portugal
Resumo:
Agências Financiadoras: FCT e MIUR
Resumo:
Relatório do Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações
Resumo:
The development of high spatial resolution airborne and spaceborne sensors has improved the capability of ground-based data collection in the fields of agriculture, geography, geology, mineral identification, detection [2, 3], and classification [4–8]. The signal read by the sensor from a given spatial element of resolution and at a given spectral band is a mixing of components originated by the constituent substances, termed endmembers, located at that element of resolution. This chapter addresses hyperspectral unmixing, which is the decomposition of the pixel spectra into a collection of constituent spectra, or spectral signatures, and their corresponding fractional abundances indicating the proportion of each endmember present in the pixel [9, 10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. The linear mixing model holds when the mixing scale is macroscopic [13]. The nonlinear model holds when the mixing scale is microscopic (i.e., intimate mixtures) [14, 15]. The linear model assumes negligible interaction among distinct endmembers [16, 17]. The nonlinear model assumes that incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [18]. Under the linear mixing model and assuming that the number of endmembers and their spectral signatures are known, hyperspectral unmixing is a linear problem, which can be addressed, for example, under the maximum likelihood setup [19], the constrained least-squares approach [20], the spectral signature matching [21], the spectral angle mapper [22], and the subspace projection methods [20, 23, 24]. Orthogonal subspace projection [23] reduces the data dimensionality, suppresses undesired spectral signatures, and detects the presence of a spectral signature of interest. The basic concept is to project each pixel onto a subspace that is orthogonal to the undesired signatures. As shown in Settle [19], the orthogonal subspace projection technique is equivalent to the maximum likelihood estimator. This projection technique was extended by three unconstrained least-squares approaches [24] (signature space orthogonal projection, oblique subspace projection, target signature space orthogonal projection). Other works using maximum a posteriori probability (MAP) framework [25] and projection pursuit [26, 27] have also been applied to hyperspectral data. In most cases the number of endmembers and their signatures are not known. Independent component analysis (ICA) is an unsupervised source separation process that has been applied with success to blind source separation, to feature extraction, and to unsupervised recognition [28, 29]. ICA consists in finding a linear decomposition of observed data yielding statistically independent components. Given that hyperspectral data are, in given circumstances, linear mixtures, ICA comes to mind as a possible tool to unmix this class of data. In fact, the application of ICA to hyperspectral data has been proposed in reference 30, where endmember signatures are treated as sources and the mixing matrix is composed by the abundance fractions, and in references 9, 25, and 31–38, where sources are the abundance fractions of each endmember. In the first approach, we face two problems: (1) The number of samples are limited to the number of channels and (2) the process of pixel selection, playing the role of mixed sources, is not straightforward. In the second approach, ICA is based on the assumption of mutually independent sources, which is not the case of hyperspectral data, since the sum of the abundance fractions is constant, implying dependence among abundances. This dependence compromises ICA applicability to hyperspectral images. In addition, hyperspectral data are immersed in noise, which degrades the ICA performance. IFA [39] was introduced as a method for recovering independent hidden sources from their observed noisy mixtures. IFA implements two steps. First, source densities and noise covariance are estimated from the observed data by maximum likelihood. Second, sources are reconstructed by an optimal nonlinear estimator. Although IFA is a well-suited technique to unmix independent sources under noisy observations, the dependence among abundance fractions in hyperspectral imagery compromises, as in the ICA case, the IFA performance. Considering the linear mixing model, hyperspectral observations are in a simplex whose vertices correspond to the endmembers. Several approaches [40–43] have exploited this geometric feature of hyperspectral mixtures [42]. Minimum volume transform (MVT) algorithm [43] determines the simplex of minimum volume containing the data. The MVT-type approaches are complex from the computational point of view. Usually, these algorithms first find the convex hull defined by the observed data and then fit a minimum volume simplex to it. Aiming at a lower computational complexity, some algorithms such as the vertex component analysis (VCA) [44], the pixel purity index (PPI) [42], and the N-FINDR [45] still find the minimum volume simplex containing the data cloud, but they assume the presence in the data of at least one pure pixel of each endmember. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. Hyperspectral sensors collects spatial images over many narrow contiguous bands, yielding large amounts of data. For this reason, very often, the processing of hyperspectral data, included unmixing, is preceded by a dimensionality reduction step to reduce computational complexity and to improve the signal-to-noise ratio (SNR). Principal component analysis (PCA) [46], maximum noise fraction (MNF) [47], and singular value decomposition (SVD) [48] are three well-known projection techniques widely used in remote sensing in general and in unmixing in particular. The newly introduced method [49] exploits the structure of hyperspectral mixtures, namely the fact that spectral vectors are nonnegative. The computational complexity associated with these techniques is an obstacle to real-time implementations. To overcome this problem, band selection [50] and non-statistical [51] algorithms have been introduced. This chapter addresses hyperspectral data source dependence and its impact on ICA and IFA performances. The study consider simulated and real data and is based on mutual information minimization. Hyperspectral observations are described by a generative model. This model takes into account the degradation mechanisms normally found in hyperspectral applications—namely, signature variability [52–54], abundance constraints, topography modulation, and system noise. The computation of mutual information is based on fitting mixtures of Gaussians (MOG) to data. The MOG parameters (number of components, means, covariances, and weights) are inferred using the minimum description length (MDL) based algorithm [55]. We study the behavior of the mutual information as a function of the unmixing matrix. The conclusion is that the unmixing matrix minimizing the mutual information might be very far from the true one. Nevertheless, some abundance fractions might be well separated, mainly in the presence of strong signature variability, a large number of endmembers, and high SNR. We end this chapter by sketching a new methodology to blindly unmix hyperspectral data, where abundance fractions are modeled as a mixture of Dirichlet sources. This model enforces positivity and constant sum sources (full additivity) constraints. The mixing matrix is inferred by an expectation-maximization (EM)-type algorithm. This approach is in the vein of references 39 and 56, replacing independent sources represented by MOG with mixture of Dirichlet sources. Compared with the geometric-based approaches, the advantage of this model is that there is no need to have pure pixels in the observations. The chapter is organized as follows. Section 6.2 presents a spectral radiance model and formulates the spectral unmixing as a linear problem accounting for abundance constraints, signature variability, topography modulation, and system noise. Section 6.3 presents a brief resume of ICA and IFA algorithms. Section 6.4 illustrates the performance of IFA and of some well-known ICA algorithms with experimental data. Section 6.5 studies the ICA and IFA limitations in unmixing hyperspectral data. Section 6.6 presents results of ICA based on real data. Section 6.7 describes the new blind unmixing scheme and some illustrative examples. Section 6.8 concludes with some remarks.
Resumo:
O objectivo geral desta dissertação é o conhecimento mais abrangente dos ladrilhos cerâmicos, como elemento singular da construção de edifícios em Portugal, visto que há grande tradição na utilização de ladrilhos colados como revestimento de fachadas, sistema que tem uma elevada durabilidade quando correctamente concebido e aplicado. Outro objectivo será a discrição das patologias e as presumíveis causas da sua ocorrência. Nesse sentido, e para melhor conhecer o seu comportamento faz-se uma caracterização dos revestimentos cerâmicos em fachadas de edifícios, descreve-se em seguida o conteúdo do projecto de revestimentos cerâmicos aderentes, as suas especificações e as condições técnicas exigíveis na sua aplicação. As patologias inerentes ao não cumprimento das condições necessárias à sua boa aplicação e a escolha para o fim pretendido foram identificadas, bem como as suas origens e soluções de reabilitação. Verificando-se a necessidade de avaliações e inspecções periódicas das fachadas, elaborou-se uma ficha de avaliação e inspecção como contributo para garantir a durabilidade e o bom desempenho deste material ao longo da sua vida útil. Através da base de dados recolhida em inspecções visuais a edifícios com revestimentos cerâmicos e com recurso à ficha de inspecção de avaliação e inspecção, desenvolveu-se uma metodologia para quantificação e classificação das anomalias do revestimento, recolha e tratamento de informação de campo dos revestimentos cerâmicos no sentido de analisar o seu comportamento.
Resumo:
This paper presents a predictive optimal matrix converter controller for a flywheel energy storage system used as Dynamic Voltage Restorer (DVR). The flywheel energy storage device is based on a steel seamless tube mounted as a vertical axis flywheel to store kinetic energy. The motor/generator is a Permanent Magnet Synchronous Machine driven by the AC-AC Matrix Converter. The matrix control method uses a discrete-time model of the converter system to predict the expected values of the input and output currents for all the 27 possible vectors generated by the matrix converter. An optimal controller minimizes control errors using a weighted cost functional. The flywheel and control process was tested as a DVR to mitigate voltage sags and swells. Simulation results show that the DVR is able to compensate the critical load voltage without delays, voltage undershoots or overshoots, overcoming the input/output coupling of matrix converters.
Resumo:
Esta dissertação baseia-se na compreensão de que se está perante um Monumento, património de Sintra e do País, indissociável da magia e do romantismo de uma região que se tornou símbolo de um país singular, de acordo com as cartas e convenções internacionais. O objectivo deste trabalho é elaborar um documento que possa ser utilizado no futuro como base de estudo para a resolução de casos práticos de reabilitação semelhantes ao que se apresenta e também promover uma aprendizagem sobre as técnicas de restauro e reforço de estruturas de madeira. Pretende-se contribuir também com conjunto de experiências profissionais sobre uma matéria que para o nosso País deverá ser cada vez mais tomada em consideração e conhecida. Tentou-se com este trabalho, e a partir da experiência profissional vivida como técnico responsável e colaborador da LNRibeiro Construções Lda. desenvolver a temática do reforço das estruturas de madeira em construções antigas, por se tratar de um material nobre e com propriedades comprovadas, ainda que pouco explorado e actualmente sujeito a preconceitos de utilização. No desenvolvimento da minha actividade regi-me sempre pelo profundo respeito ao Monumento, sua autenticidade e humildade na aprendizagem que este me ia transmitido.
Resumo:
O objectivo geral deste trabalho é o conhecimento mais abrangente das pedras ornamentais portuguesas como elemento singular da construção de edifícios em Portugal, sua aplicação no revestimento de fachadas, identificação das patologias, medidas preventivas e de reparação. Nesse sentido e para melhor conhecer o seu comportamento, fez-se uma caracterização das pedras naturais e das suas propriedades. Descreveram-se em seguida as pedras naturais para paramentos exteriores mais comuns e utilizadas em Portugal e as condições técnicas exigíveis na sua aplicação. Identificaram-se as patologias inerentes ao não cumprimento das condições necessárias à sua boa aplicação e escolha para o fim pretendido. Para isso descreveu-se o método de diagnóstico a utilizar, para que qualquer intervenção mais ou menos invasiva obedeça a critérios fundamentados no conhecimento que se tem vindo a adquirir através de estudos e investigação. Por fim, e verificando-se a necessidade de avaliações e inspecções periódicas das fachadas, elaborou-se uma ficha de avaliação/inspecção como contributo para garantir a durabilidade e o bom desempenho deste material nobre ao longo da sua vida útil.
Resumo:
This paper is an elaboration of the DECA algorithm [1] to blindly unmix hyperspectral data. The underlying mixing model is linear, meaning that each pixel is a linear mixture of the endmembers signatures weighted by the correspondent abundance fractions. The proposed method, as DECA, is tailored to highly mixed mixtures in which the geometric based approaches fail to identify the simplex of minimum volume enclosing the observed spectral vectors. We resort then to a statitistical framework, where the abundance fractions are modeled as mixtures of Dirichlet densities, thus enforcing the constraints on abundance fractions imposed by the acquisition process, namely non-negativity and constant sum. With respect to DECA, we introduce two improvements: 1) the number of Dirichlet modes are inferred based on the minimum description length (MDL) principle; 2) The generalized expectation maximization (GEM) algorithm we adopt to infer the model parameters is improved by using alternating minimization and augmented Lagrangian methods to compute the mixing matrix. The effectiveness of the proposed algorithm is illustrated with simulated and read data.
Resumo:
O pinheiro tem um papel importante na ecologia e economia nacional. O Pinheiro sofre de uma praga severa, denominada por doença da murchidão dos pinheiros, causada pelo nemátodo da madeira do pinheiro (NMP). Apresenta-se como um verme microscópico, invertebrado, medindo menos de 1,5 mm de comprimento. O contágio entre árvores deve-se a vectores biologicamente conhecidos por longicórneo e capricórnio do pinheiro. Os produtores de madeira de pinho são desta forma obrigados a efectuar tratamentos térmicos (HT), de eliminação do NMP e dos seus vectores para que a exportação da madeira serrada cumpra com a norma NP 4487. De modo a manter a competitividade internacional das empresas nacionais, o impacto dos custos do HT deve ser minimizado. O objectivo desta dissertação é efectuar o estudo técnico-económico da implementação de um sistema de cogeração capaz produzir calor para efectuar o tratamento ao NMP e simultaneamente energia eléctrica para vender à rede pública. As receitas da venda de energia eléctrica poderão contribuir para a minimização dos custos do HT. Tendo em conta que os resíduos das serrações de madeira podem ser usados como combustível consideraram-se para avaliação duas tecnologias de cogeração, um sistema de turbina a vapor clássico (ciclo Rankine) e um sistema Organic Rankine Cycle (ORC), permitindo ambas a queima dos resíduos das serrações de madeira. No que diz respeito à avaliação económica, foi desenvolvido um simulador de tecnologia/modalidade de remuneração que efectua cálculos consoante as necessidades térmicas de cada produtor, a potência eléctrica a instalar e indicadores económicos, VAL, TIR e PAYBACK da instalação do sistema de cogeração. O simulador desenvolvido aplica a nova legislação que enquadra o sistema jurídico e remuneratório da cogeração (DL 23/2010), na qual se consideram duas modalidades, geral e especial. A metodologia desenvolvida foi aplicada num caso real de uma serração de madeira e os principais resultados mostram que as soluções apresentadas, turbina a vapor e sistema ORC, não apresentam viabilidade económica. Através da análise de sensibilidade, conclui-se que um dos factores que mais influência a viabilidade económica do projecto é o tempo de funcionamento reduzido. Sendo uma das soluções apresentada a criação de uma central de cogeração para vários produtores de madeira. Uma possível solução para o problema do reduzido tempo de utilização seria o fornecimento do serviço de tratamentos térmicos a outros produtores de paletes de madeira que não possuem estufa própria.
Resumo:
O estágio relatado no presente documento centrou-se na actividade de cofragem da obra do Centro Comercial Fórum Sintra. O empreiteiro geral da obra é o consórcio Mota-Engil/Opway e o dono de obra a Multi Development Portugal - Promotora, S.A.. O estágio foi desenvolvido na empresa Confrasilvas Cofragens S.A, subempreiteiro de cofragem da referida obra, onde o estagiário colabora como director de obra na especialidade da cofragem. Esta obra apresenta singularidades específicas ao nível das soluções de cofragem relativamente a todas as outras obras em que o estagiário esteve envolvido na sua experiência profissional anterior. Pelo que representou uma oportunidade de aprendizagem e desenvolvimento de conhecimentos na área da cofragem. Nomeadamente, distingue-se o facto de a solução de cofragem adoptada para a execução de lajes ser inovadora por se tratar de “mesas maciças” de cofragem, compostas por prumos travados entre si por bastidores e tubos, aparafusados a um tabuleiro (estrutura metálica) revestido a contraplacado, que em conjunto constituem uma peça única, tanto na montagem como na descofragem de lajes. O outro aspecto singular de relevo é o facto de existirem elementos de betão à vista com estereotomia, o que a nível de cofragem requer um estudo aprofundado das betonagens, dos moldes que são necessários fabricar e montar para cada betonagem, bem como os aspectos construtivos específicos da actividade. Este documento tem como objectivo expor as competências adquiridas durante o estágio do aluno, resultantes do desenvolvimento dos conhecimentos e experiências adquiridas no meio académico e profissional. Como responsável em obra pelos trabalhos de cofragem a metodologia utilizada pelo estagiário contempla as etapas e aspectos técnicos da execução da cofragem como: a análise de projecto, a realização de preparações para o fabrico e montagem de cofragem, o planeamento de betonagens, a gestão do material e da mão-de-obra. Questões como a produção, a segurança e a qualidade também são abordadas. O estagiário tem uma participação activa desde a concepção até ao produto final. Nesta medida, conclui-se que o presente estágio se revelou uma mais-valia e uma oportunidade de desenvolver as competências na área da cofragem.
Resumo:
We discuss existence and multiplicity of positive solutions of the Dirichlet problem for the quasilinear ordinary differential equation-(u' / root 1 - u'(2))' = f(t, u). Depending on the behaviour of f = f(t, s) near s = 0, we prove the existence of either one, or two, or three, or infinitely many positive solutions. In general, the positivity of f is not required. All results are obtained by reduction to an equivalent non-singular problem to which variational or topological methods apply in a classical fashion.
Resumo:
As recentes e crescentes modificações no sector eléctrico, tanto nacional como mundial, tornam actualmente os mercados de electricidade um caso de estudo singular e interessante. De facto, o desenvolvimento de ferramentas de análise que permitem avaliar a evolução dos comportamentos que estes mercados adoptam face à dinâmica das suas constantes transformações é, à partida, uma mais valia para as suas principais entidades. Muitas vezes os negociadores deste sector ficam satisfeitos com o resultado final. Contudo, se investigarmos mais minuciosamente, dinheiro e recursos são desperdiçados e potenciais ganhos permanecem por descobrir. Uma negociação automática, que utilize agentes computacionais autónomos, promete um elevado nível de eficiência e acordos de maior qualidade. Muitos modelos de mercado actuais são simulados através de ferramentas computacionais, algumas das quais baseadas em tecnologia multi-agente. Esta dissertação apresenta um simulador que permite ajudar a resolver vários problemas inerentes à contratação bilateral de energia. O simulador envolve dois agentes do mercado de retalho, um comprador e um vendedor de energia eléctrica, e suporta a negociação bilateral multidimensional. Cada agente tem no seu portefólio um conjunto de opções que modelam o seu comportamento individual. A essas opções dá-se o nome de estratégias de negociação. O simulador é composto por estratégias de concessão e imitativas. As estratégias de concessão ditam a velocidade de cedência que cada agente terá, enquanto que as estratégias imitativas têm em conta o comportamento passado do oponente, antes da formulação de uma nova oferta. A validação experimental do simulador foi efectuada através da realização de uma experiência computacional. O método experimental consistiu na experimentação controlada. A experiência teve como principal objectivo validar as estratégias através da verificação, em computador, de um conjunto de hipóteses formuladas através de diversas observações e conclusões da negociação real. Os resultados confirmaram as hipóteses, permitindo concluir que a estratégia de concessão baseada no volume de energia conduz a um melhor benefício para ambos os negociadores, enquanto que a estratégia de concessão baseada na prioridade dos itens conduz à troca de um maior número de propostas negociais.
Resumo:
The conjugation of antigens with ligands of pattern recognition receptors (PRR) is emerging as a promising strategy for the modulation of specific immunity. Here, we describe a new Escherichia coli system for the cloning and expression of heterologous antigens in fusion with the OprI lipoprotein, a TLR ligand from the Pseudomonas aeruginosa outer membrane (OM). Analysis of the OprI expressed by this system reveals a triacylated lipid moiety mainly composed by palmitic acid residues. By offering a tight regulation of expression and allowing for antigen purification by metal affinity chromatography, the new system circumvents the major drawbacks of former versions. In addition, the anchoring of OprI to the OM of the host cell is further explored for the production of novel recombinant bacterial cell wall-derived formulations (OM fragments and OM vesicles) with distinct potential for PRR activation. As an example, the African swine fever virus ORF A104R was cloned and the recombinant antigen was obtained in the three formulations. Overall, our results validate a new system suitable for the production of immunogenic formulations that can be used for the development of experimental vaccines and for studies on the modulation of acquired immunity.
Resumo:
There exist striking analogies in the behaviour of eigenvalues of Hermitian compact operators, singular values of compact operators and invariant factors of homomorphisms of modules over principal ideal domains, namely diagonalization theorems, interlacing inequalities and Courant-Fischer type formulae. Carlson and Sa [D. Carlson and E.M. Sa, Generalized minimax and interlacing inequalities, Linear Multilinear Algebra 15 (1984) pp. 77-103.] introduced an abstract structure, the s-space, where they proved unified versions of these theorems in the finite-dimensional case. We show that this unification can be done using modular lattices with Goldie dimension, which have a natural structure of s-space in the finite-dimensional case, and extend the unification to the countable-dimensional case.
Resumo:
Dissertação conducente à obtenção do grau de Mestre em Educação Social e Intervenção Comunitária