970 resultados para Setup errors


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para a obtenção do Grau de Mestre em Engenharia Informática

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho apresentado no âmbito do European Master in Computational Logics, como requisito parcial para obtenção do grau de Mestre em Computational Logics

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The development of high spatial resolution airborne and spaceborne sensors has improved the capability of ground-based data collection in the fields of agriculture, geography, geology, mineral identification, detection [2, 3], and classification [4–8]. The signal read by the sensor from a given spatial element of resolution and at a given spectral band is a mixing of components originated by the constituent substances, termed endmembers, located at that element of resolution. This chapter addresses hyperspectral unmixing, which is the decomposition of the pixel spectra into a collection of constituent spectra, or spectral signatures, and their corresponding fractional abundances indicating the proportion of each endmember present in the pixel [9, 10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. The linear mixing model holds when the mixing scale is macroscopic [13]. The nonlinear model holds when the mixing scale is microscopic (i.e., intimate mixtures) [14, 15]. The linear model assumes negligible interaction among distinct endmembers [16, 17]. The nonlinear model assumes that incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [18]. Under the linear mixing model and assuming that the number of endmembers and their spectral signatures are known, hyperspectral unmixing is a linear problem, which can be addressed, for example, under the maximum likelihood setup [19], the constrained least-squares approach [20], the spectral signature matching [21], the spectral angle mapper [22], and the subspace projection methods [20, 23, 24]. Orthogonal subspace projection [23] reduces the data dimensionality, suppresses undesired spectral signatures, and detects the presence of a spectral signature of interest. The basic concept is to project each pixel onto a subspace that is orthogonal to the undesired signatures. As shown in Settle [19], the orthogonal subspace projection technique is equivalent to the maximum likelihood estimator. This projection technique was extended by three unconstrained least-squares approaches [24] (signature space orthogonal projection, oblique subspace projection, target signature space orthogonal projection). Other works using maximum a posteriori probability (MAP) framework [25] and projection pursuit [26, 27] have also been applied to hyperspectral data. In most cases the number of endmembers and their signatures are not known. Independent component analysis (ICA) is an unsupervised source separation process that has been applied with success to blind source separation, to feature extraction, and to unsupervised recognition [28, 29]. ICA consists in finding a linear decomposition of observed data yielding statistically independent components. Given that hyperspectral data are, in given circumstances, linear mixtures, ICA comes to mind as a possible tool to unmix this class of data. In fact, the application of ICA to hyperspectral data has been proposed in reference 30, where endmember signatures are treated as sources and the mixing matrix is composed by the abundance fractions, and in references 9, 25, and 31–38, where sources are the abundance fractions of each endmember. In the first approach, we face two problems: (1) The number of samples are limited to the number of channels and (2) the process of pixel selection, playing the role of mixed sources, is not straightforward. In the second approach, ICA is based on the assumption of mutually independent sources, which is not the case of hyperspectral data, since the sum of the abundance fractions is constant, implying dependence among abundances. This dependence compromises ICA applicability to hyperspectral images. In addition, hyperspectral data are immersed in noise, which degrades the ICA performance. IFA [39] was introduced as a method for recovering independent hidden sources from their observed noisy mixtures. IFA implements two steps. First, source densities and noise covariance are estimated from the observed data by maximum likelihood. Second, sources are reconstructed by an optimal nonlinear estimator. Although IFA is a well-suited technique to unmix independent sources under noisy observations, the dependence among abundance fractions in hyperspectral imagery compromises, as in the ICA case, the IFA performance. Considering the linear mixing model, hyperspectral observations are in a simplex whose vertices correspond to the endmembers. Several approaches [40–43] have exploited this geometric feature of hyperspectral mixtures [42]. Minimum volume transform (MVT) algorithm [43] determines the simplex of minimum volume containing the data. The MVT-type approaches are complex from the computational point of view. Usually, these algorithms first find the convex hull defined by the observed data and then fit a minimum volume simplex to it. Aiming at a lower computational complexity, some algorithms such as the vertex component analysis (VCA) [44], the pixel purity index (PPI) [42], and the N-FINDR [45] still find the minimum volume simplex containing the data cloud, but they assume the presence in the data of at least one pure pixel of each endmember. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. Hyperspectral sensors collects spatial images over many narrow contiguous bands, yielding large amounts of data. For this reason, very often, the processing of hyperspectral data, included unmixing, is preceded by a dimensionality reduction step to reduce computational complexity and to improve the signal-to-noise ratio (SNR). Principal component analysis (PCA) [46], maximum noise fraction (MNF) [47], and singular value decomposition (SVD) [48] are three well-known projection techniques widely used in remote sensing in general and in unmixing in particular. The newly introduced method [49] exploits the structure of hyperspectral mixtures, namely the fact that spectral vectors are nonnegative. The computational complexity associated with these techniques is an obstacle to real-time implementations. To overcome this problem, band selection [50] and non-statistical [51] algorithms have been introduced. This chapter addresses hyperspectral data source dependence and its impact on ICA and IFA performances. The study consider simulated and real data and is based on mutual information minimization. Hyperspectral observations are described by a generative model. This model takes into account the degradation mechanisms normally found in hyperspectral applications—namely, signature variability [52–54], abundance constraints, topography modulation, and system noise. The computation of mutual information is based on fitting mixtures of Gaussians (MOG) to data. The MOG parameters (number of components, means, covariances, and weights) are inferred using the minimum description length (MDL) based algorithm [55]. We study the behavior of the mutual information as a function of the unmixing matrix. The conclusion is that the unmixing matrix minimizing the mutual information might be very far from the true one. Nevertheless, some abundance fractions might be well separated, mainly in the presence of strong signature variability, a large number of endmembers, and high SNR. We end this chapter by sketching a new methodology to blindly unmix hyperspectral data, where abundance fractions are modeled as a mixture of Dirichlet sources. This model enforces positivity and constant sum sources (full additivity) constraints. The mixing matrix is inferred by an expectation-maximization (EM)-type algorithm. This approach is in the vein of references 39 and 56, replacing independent sources represented by MOG with mixture of Dirichlet sources. Compared with the geometric-based approaches, the advantage of this model is that there is no need to have pure pixels in the observations. The chapter is organized as follows. Section 6.2 presents a spectral radiance model and formulates the spectral unmixing as a linear problem accounting for abundance constraints, signature variability, topography modulation, and system noise. Section 6.3 presents a brief resume of ICA and IFA algorithms. Section 6.4 illustrates the performance of IFA and of some well-known ICA algorithms with experimental data. Section 6.5 studies the ICA and IFA limitations in unmixing hyperspectral data. Section 6.6 presents results of ICA based on real data. Section 6.7 describes the new blind unmixing scheme and some illustrative examples. Section 6.8 concludes with some remarks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciência e Tecnologia da Universidade Nova de Lisboa para a obtenção do grau de Mestre em Engenharia Electrotécnica e de Computadores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho de Projecto apresentado para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Ensino do Inglês

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work tubular fiber reinforced specimens are tested for fatigue life. The specimens are biaxially loaded with tension and shear stresses, with a load angle β of 30° and 60° and a load ratio of R=0,1. There are many factors that affect fatigue life of a fiber reinforced material and the main goal of this work is to study the effects of load ratio R by obtaining S-N curves and compare them to the previous works (1). All the other parameters, such as specimen production, fatigue loading frequency and temperature, will be the same as for the previous tests. For every specimen, stiffness, temperature of the specimen during testing, crack counting and final fracture mode are obtained. Prior to testing, a study if the literature regarding the load ratio effects on composites fatigue life and with that review estimate the initial stresses to be applied in testing. In previous works (1) similar specimens have only been tested for a load ratio of R=-1 and therefore the behaviour of this tubular specimens for a different load ratio is unknown. All the data acquired will be analysed and compared to the previous works, emphasizing the differences found and discussing the possible explanations for those differences. The crack counting software, developed at the institute, has shown useful before, however different adjustments to the software parameters lead to different cracks numbers for the same picture, and therefore a better methodology will be discussed to improve the crack counting results. After the specimen’s failure, all the data will be collected and stored and fibre volume content for every specimen is also determinate. The number of tests required to make the S-N curves are obtained according to the existent standards. Additionally are also identified some improvements to the testing machine setup and to the procedures for future testing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Energy resource scheduling is becoming increasingly important, such as the use of more distributed generators and electric vehicles connected to the distribution network. This paper proposes a methodology to be used by Virtual Power Players (VPPs), regarding the energy resource scheduling in smart grids and considering day-ahead, hour-ahead and realtime time horizons. This method considers that energy resources are managed by a VPP which establishes contracts with their owners. The full AC power flow calculation included in the model takes into account network constraints. In this paper, distribution function errors are used to simulate variations between time horizons, and to measure the performance of the proposed methodology. A 33-bus distribution network with large number of distributed resources is used.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertation presented at Faculty of Sciences and Technology of the New University of Lisbon to attain the Master degree in Electrical and Computer Science Engineering

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O mercado da reabilitação de estruturas em Portugal está em voga, sendo um nicho de mercado com evolução galopante nos últimos anos fruto da consciencialização das entidades responsáveis, assim como das necessidades de intervir no parque edificado cada vez mais degradado, resultando num estímulo para o mercado da construção face ao seu estado atual. As causas associadas à degradação prematura dos materiais estruturais resultam de erros de conceção e execução, assim como do facto de muitas estruturas de betão armado do parque habitacional edificado nas décadas de 60 e 70, estarem a atingir o fim do seu período de vida útil. Na avaliação do estado de degradação de estruturas de betão armado aconselha-se a utilização de ensaios não destrutivos, uma vez que permitem efetuar um diagnóstico com resultados positivos salvaguardando a integridade da estrutura. A norma EN 1504“Produtos e Sistemas para a proteção e reparação de estruturas de betão” estipula os procedimentos de execução, as características dos materiais mais adequados a cada tipo de projeto, assim como a divisão do seu encadeamento em 5 fases. O caso prático apresentado é um edifício de prestação de serviços municipais, tendo sido aplicado com o maior rigor possível as fases de inspeção, diagnóstico, deliberação e reparação. Foi efetuada uma fase de diagnóstico, de carácter visual assim como de caracterização física dos elementos estruturais em betão armado através de ensaios “in situ”. A estrutura avaliada apresenta debilidades e um estado de degradação acelerado, pelo que urge uma intervenção de reparação por forma a repor a estrutura com as características da sua conceção, salvaguardando a segurança das pessoas e bens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O registo clinico é um documento hospitalar confidencial, nele é registado todo o percurso clinico de um determinado paciente. Esse percurso é registado através da atribuição de códigos descritos num sistema de classificação, também denominados de dados da codificação. Os dados da codificação são armazenados electronicamente numa Base de Dados, e é a partir dela que certas medidas, tais como facturação hospitalar, financiamentos hospitalares anuais, tratamentos médicos, ou até mesmo dados epidemiológicos, são adotadas. Portanto torna-se fundamental a garantia da qualidade na área da codificação clinica, para isso é necessário recorrer a processos de auditorias aos registos clínicos. O processo de auditoria é uma atividade independente de avaliação, cujo objetivo visa acrescentar valor e melhorar os objetos e processos da auditoria. Atualmente uma ferramenta denominada de Programa Auditor é utilizada, contudo essa ferramenta demonstra uma tecnologia já ultrapassada. A Tese que se pretende defender é a de que, através de Sistemas Periciais, é possível realizar auditorias internas aos registos clínicos. Pretende-se ainda demonstrar que dos Sistemas Periciais e um benefício para os peritos na área, pois diminui a probabilidade de erros e torna o processo de verificação menos moroso. Neste contexto, o objetivo desta Dissertação prende-se em definir e implementar um Sistema Pericial que permita a auditoria de registos clínicos hospitalares. O Sistema Pericial dever a ainda ser capaz de traduzir o raciocínio do perito, detectando assim diversos tipos de erros que traduzem num registo clínico não conforme. Por sua vez, foi desenvolvido um protótipo de um Sistema Pericial para auditoria de registos clínicos em linguagem PROLOG. Este mesmo protótipo serviu de base à realização de uma experiência que permitiu comparar com o programa Auditor e verificar a sua aplicabilidade no dia-a-dia hospitalar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os equipamentos de medição utilizados nos hospitais têm uma função muito importante na deteção e diagnóstico de doenças como é o caso da pressão arterial. Entre esses equipamentos encontram-se os esfigmomanómetros digitais portáteis que são em muitos casos os primeiros a serem utilizados e a fornecerem um primeiro diagnóstico da pressão arterial do doente como é no caso das urgências hospitalares. Para que os diagnósticos prescritos pelos profissionais de saúde - médicos e enfermeiros seja o mais correto é necessário conhecer as condições de trabalho em que se encontram os esfigmomanómetros digitais existentes nas unidades de saúde. Sendo os esfigmomanómetros digitais equipamentos com uma importância relevante na vida do ser humano, estes deveriam fazer parte da lista de equipamentos que estão englobados na metrologia legal, situação que neste momento ainda não foi concretizada e cada hospital toma a decisão espontânea se efetua a calibração ou verificação internamente dos seus esfigmomanómetros digitais. Pretende-se com este trabalho dar a conhecer o estado ao nível dos erros de alguns esfigmomanómetros digitais existentes nos hospitais envolvidos no trabalho e desenvolver um procedimento de verificação interna dos mesmos com auxílio de um manómetro analógico calibrado e um estetoscópio duplo – método de medição auscultatório - e comparar esses resultados com a utilização de um simulador – método de medição oscilométrico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com um mercado automóvel cada vez mais competitivo e com os construtores automóveis à procura de atingir os zero defeitos nos seus produtos, a Bosch Car Multimédia Portugal S.A, fabricante de sistemas multimédia para o mercado automóvel, tem como objetivo a qualidade perfeita dos seus produtos. Tal perfeição exige processos de fabrico cada vez mais evoluídos e com melhores sistemas de auxílio à montagem. Nesse sentido, a incorporação de sistemas de visão artificial para verificação da montagem correta dos componentes em sistemas multimédia tem vindo a crescer largamente. Os sistemas de inspeção visual da Cognex tornaram-se o standard da Bosch para a verifi-cação da montagem de componentes por serem sistemas bastante completos, fáceis de con-figurar e com um suporte técnico bastante completo. Estes sistemas têm vindo a ser inte-grados em diversas máquinas (postos) de montagem e nunca foi desenvolvida uma ferra-menta normalizada para integração destes sistemas com as máquinas. A ideia principal deste projeto passou por desenvolver um sistema (uma aplicação informá-tica) que permita controlar os indicadores de qualidade destes sistemas de visão, garantir o seguimento dos produtos montados e, ao mesmo tempo, efetuar cópias de segurança de todo o sistema para utilização em caso de avaria ou de troca de equipamento. Tal sistema foi desenvolvido recorrendo à programação de uma Dynamic Link Library (DLL), através da linguagem VisualBasic.NET, que permite às aplicações dos equipamen-tos (máquinas) da Bosch Car Multimédia comunicarem de uma forma universal e transpa-rente com os sistemas de inspeção visual da marca Cognex. Os objetivos a que o autor se propôs no desenvolvimento deste sistema foram na sua maioria alcançados e o projeto encontra-se atualmente implementado e em execução nas linhas de produção da Bosch Car Multimédia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O modelo matemático de um sistema real permite o conhecimento do seu comportamento dinâmico e é geralmente utilizado em problemas de engenharia. Por vezes os parâmetros utilizados pelo modelo são desconhecidos ou imprecisos. O envelhecimento e o desgaste do material são fatores a ter em conta pois podem causar alterações no comportamento do sistema real, podendo ser necessário efetuar uma nova estimação dos seus parâmetros. Para resolver este problema é utilizado o software desenvolvido pela empresa MathWorks, nomeadamente, o Matlab e o Simulink, em conjunto com a plataforma Arduíno cujo Hardware é open-source. A partir de dados obtidos do sistema real será aplicado um Ajuste de curvas (Curve Fitting) pelo Método dos Mínimos Quadrados de forma a aproximar o modelo simulado ao modelo do sistema real. O sistema desenvolvido permite a obtenção de novos valores dos parâmetros, de uma forma simples e eficaz, com vista a uma melhor aproximação do sistema real em estudo. A solução encontrada é validada com recurso a diferentes sinais de entrada aplicados ao sistema e os seus resultados comparados com os resultados do novo modelo obtido. O desempenho da solução encontrada é avaliado através do método das somas quadráticas dos erros entre resultados obtidos através de simulação e resultados obtidos experimentalmente do sistema real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A thesis submitted in fulfilment of the requirements for the Degree of Doctor of Philosophy in Sanitary Engineering in the Faculty of Sciences and Technology of the New University of Lisbon

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A correta ventilação de locais afetos a serviços técnicos elétricos, nomeadamente postos de transformação e salas de grupos geradores, reveste-se de extrema importância como garantia da continuidade e qualidade do serviço prestado, durabilidade dos materiais e equipamentos e da segurança das instalações e utilizadores. A ventilação dos locais afetos a serviços técnicos elétricos pode ser natural ou mecânica, dependendo das suas caraterísticas e das necessidades de ar para ventilação e combustão, quando aplicável. Os técnicos responsáveis pelo projeto de instalações elétricas não detém, em regra, um conhecimento muito profundo sobre este tema, sendo os seus projetos realizados com base em especificações e metodologias gerais disponibilizadas pelos fabricantes e comercializadores dos materiais e equipamentos. O projeto de uma solução de ventilação para um local afeto a serviços técnicos eléctricos exige o conhecimento de todos os ganhos térmicos no interior do espaço, o conhecimento das soluções técnicas e tecnológicas de ventilação bem como as metodologias de dimensionamento aplicáveis a cada situação. Sendo a fase de projeto elétrico, em regra, uma atividade com prazos apertados, pode conduzir ao menosprezar de certos aspetos particulares que carecem de investigação e tempo para serem desenvolvidos, o que pode resultar em projetos e mapas de quantidades que apresentam desvios da solução ideal para o cliente, podendo resultar em investimentos mais elevados, quer na fase de execução, quer na fase de exploração das instalações. Neste sentido, pretendeu-se com o presente trabalho, tratar o tema da ventilação de locais afetos a serviços técnicos, atendendo ao enquadramento normativo e regulamentar das instalações, às soluções técnicas e tecnológicas disponíveis no mercado e às metodologias de dimensionamento, apresentadas pelos documentos normativos e regulamentares. Pretendeu-se também desenvolver uma ferramenta informática de auxilio ao dimensionamento das soluções de ventilação de locais afetos a serviços técnicas eléctricos destinados a postos de transformação e grupos geradores de modo a reduzir o tempo normalmente exigido por esta tarefa, o que se traduzirá numa maior rentabilidade do tempo de projeto, assim como a normalizar as soluções apresentadas e minimizar a probabilidade de erro do dimensionamento das soluções, reduzindo assim a probabilidade de gastos em “trabalhos a mais” provenientes de erros em projeto, poupança em materiais presentes no mapa de quantidades, maior eficácia na execução da empreitada, poupança em gastos durante a exploração e desta forma numa proximidade entre as partes interessadas com o dimensionamento da ventilação do espaço técnico elétrico.