915 resultados para Automated estimator


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Engenharia Informática - Área de Especialização em Sistemas Gráficos e Multimédia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertation presented to obtain the degree of Doctor of Philosophy in Electrical Engineering, speciality on Perceptional Systems, by the Universidade Nova de Lisboa, Faculty of Sciences and Technology

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The development of high spatial resolution airborne and spaceborne sensors has improved the capability of ground-based data collection in the fields of agriculture, geography, geology, mineral identification, detection [2, 3], and classification [4–8]. The signal read by the sensor from a given spatial element of resolution and at a given spectral band is a mixing of components originated by the constituent substances, termed endmembers, located at that element of resolution. This chapter addresses hyperspectral unmixing, which is the decomposition of the pixel spectra into a collection of constituent spectra, or spectral signatures, and their corresponding fractional abundances indicating the proportion of each endmember present in the pixel [9, 10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. The linear mixing model holds when the mixing scale is macroscopic [13]. The nonlinear model holds when the mixing scale is microscopic (i.e., intimate mixtures) [14, 15]. The linear model assumes negligible interaction among distinct endmembers [16, 17]. The nonlinear model assumes that incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [18]. Under the linear mixing model and assuming that the number of endmembers and their spectral signatures are known, hyperspectral unmixing is a linear problem, which can be addressed, for example, under the maximum likelihood setup [19], the constrained least-squares approach [20], the spectral signature matching [21], the spectral angle mapper [22], and the subspace projection methods [20, 23, 24]. Orthogonal subspace projection [23] reduces the data dimensionality, suppresses undesired spectral signatures, and detects the presence of a spectral signature of interest. The basic concept is to project each pixel onto a subspace that is orthogonal to the undesired signatures. As shown in Settle [19], the orthogonal subspace projection technique is equivalent to the maximum likelihood estimator. This projection technique was extended by three unconstrained least-squares approaches [24] (signature space orthogonal projection, oblique subspace projection, target signature space orthogonal projection). Other works using maximum a posteriori probability (MAP) framework [25] and projection pursuit [26, 27] have also been applied to hyperspectral data. In most cases the number of endmembers and their signatures are not known. Independent component analysis (ICA) is an unsupervised source separation process that has been applied with success to blind source separation, to feature extraction, and to unsupervised recognition [28, 29]. ICA consists in finding a linear decomposition of observed data yielding statistically independent components. Given that hyperspectral data are, in given circumstances, linear mixtures, ICA comes to mind as a possible tool to unmix this class of data. In fact, the application of ICA to hyperspectral data has been proposed in reference 30, where endmember signatures are treated as sources and the mixing matrix is composed by the abundance fractions, and in references 9, 25, and 31–38, where sources are the abundance fractions of each endmember. In the first approach, we face two problems: (1) The number of samples are limited to the number of channels and (2) the process of pixel selection, playing the role of mixed sources, is not straightforward. In the second approach, ICA is based on the assumption of mutually independent sources, which is not the case of hyperspectral data, since the sum of the abundance fractions is constant, implying dependence among abundances. This dependence compromises ICA applicability to hyperspectral images. In addition, hyperspectral data are immersed in noise, which degrades the ICA performance. IFA [39] was introduced as a method for recovering independent hidden sources from their observed noisy mixtures. IFA implements two steps. First, source densities and noise covariance are estimated from the observed data by maximum likelihood. Second, sources are reconstructed by an optimal nonlinear estimator. Although IFA is a well-suited technique to unmix independent sources under noisy observations, the dependence among abundance fractions in hyperspectral imagery compromises, as in the ICA case, the IFA performance. Considering the linear mixing model, hyperspectral observations are in a simplex whose vertices correspond to the endmembers. Several approaches [40–43] have exploited this geometric feature of hyperspectral mixtures [42]. Minimum volume transform (MVT) algorithm [43] determines the simplex of minimum volume containing the data. The MVT-type approaches are complex from the computational point of view. Usually, these algorithms first find the convex hull defined by the observed data and then fit a minimum volume simplex to it. Aiming at a lower computational complexity, some algorithms such as the vertex component analysis (VCA) [44], the pixel purity index (PPI) [42], and the N-FINDR [45] still find the minimum volume simplex containing the data cloud, but they assume the presence in the data of at least one pure pixel of each endmember. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. Hyperspectral sensors collects spatial images over many narrow contiguous bands, yielding large amounts of data. For this reason, very often, the processing of hyperspectral data, included unmixing, is preceded by a dimensionality reduction step to reduce computational complexity and to improve the signal-to-noise ratio (SNR). Principal component analysis (PCA) [46], maximum noise fraction (MNF) [47], and singular value decomposition (SVD) [48] are three well-known projection techniques widely used in remote sensing in general and in unmixing in particular. The newly introduced method [49] exploits the structure of hyperspectral mixtures, namely the fact that spectral vectors are nonnegative. The computational complexity associated with these techniques is an obstacle to real-time implementations. To overcome this problem, band selection [50] and non-statistical [51] algorithms have been introduced. This chapter addresses hyperspectral data source dependence and its impact on ICA and IFA performances. The study consider simulated and real data and is based on mutual information minimization. Hyperspectral observations are described by a generative model. This model takes into account the degradation mechanisms normally found in hyperspectral applications—namely, signature variability [52–54], abundance constraints, topography modulation, and system noise. The computation of mutual information is based on fitting mixtures of Gaussians (MOG) to data. The MOG parameters (number of components, means, covariances, and weights) are inferred using the minimum description length (MDL) based algorithm [55]. We study the behavior of the mutual information as a function of the unmixing matrix. The conclusion is that the unmixing matrix minimizing the mutual information might be very far from the true one. Nevertheless, some abundance fractions might be well separated, mainly in the presence of strong signature variability, a large number of endmembers, and high SNR. We end this chapter by sketching a new methodology to blindly unmix hyperspectral data, where abundance fractions are modeled as a mixture of Dirichlet sources. This model enforces positivity and constant sum sources (full additivity) constraints. The mixing matrix is inferred by an expectation-maximization (EM)-type algorithm. This approach is in the vein of references 39 and 56, replacing independent sources represented by MOG with mixture of Dirichlet sources. Compared with the geometric-based approaches, the advantage of this model is that there is no need to have pure pixels in the observations. The chapter is organized as follows. Section 6.2 presents a spectral radiance model and formulates the spectral unmixing as a linear problem accounting for abundance constraints, signature variability, topography modulation, and system noise. Section 6.3 presents a brief resume of ICA and IFA algorithms. Section 6.4 illustrates the performance of IFA and of some well-known ICA algorithms with experimental data. Section 6.5 studies the ICA and IFA limitations in unmixing hyperspectral data. Section 6.6 presents results of ICA based on real data. Section 6.7 describes the new blind unmixing scheme and some illustrative examples. Section 6.8 concludes with some remarks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O surgir da World Wide Web providenciou aos utilizadores uma série de oportunidades no que diz respeito ao acesso a dados e informação. Este acesso tornou-se um ato banal para qualquer utilizador da Web, tanto pelo utilizador comum como por outros mais experientes, tanto para obter informações básicas, como outras informações mais complexas. Todo este avanço tecnológico permitiu que os utilizadores tivessem acesso a uma vasta quantidade de informação, dispersa pelo globo, não tendo, na maior parte das vezes, a informação qualquer tipo de ligação entre si. A necessidade de se obter informação de interesse relativamente a determinado tema, mas tendo que recorrer a diversas fontes para obter toda a informação que pretende obter e comparar, torna-se um processo moroso para o utilizador. Pretende-se que este processo de recolha de informação de páginas web seja o mais automatizado possível, dando ao utilizador a possibilidade de utilizar algoritmos e ferramentas de análise e processamento automáticas, reduzindo desta forma o tempo e esforço de realização de tarefas sobre páginas web. Este processo é denominado Web Scraping. Neste trabalho é descrita uma arquitetura de sistema de web scraping automático e configurável baseado em tecnologias existentes, nomeadamente no contexto da web semântica. Para tal o trabalho desenvolvido analisa os efeitos da aplicação do Web Scraping percorrendo os seguintes pontos: • Identificação e análise de diversas ferramentas de web scraping; • Identificação do processo desenvolvido pelo ser humano complementar às atuais ferramentas de web scraping; • Design duma arquitetura complementar às ferramentas de web scraping que dê apoio ao processo de web scraping do utilizador; • Desenvolvimento dum protótipo baseado em ferramentas e tecnologias existentes; • Realização de experiências no domínio de aplicação de páginas de super-mercados portugueses; • Analisar resultados obtidos a partir destas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Media content personalisation is a major challenge involving viewers as well as media content producer and distributor businesses. The goal is to provide viewers with media items aligned with their interests. Producers and distributors engage in item negotiations to establish the corresponding service level agreements (SLA). In order to address automated partner lookup and item SLA negotiation, this paper proposes the MultiMedia Brokerage (MMB) platform, which is a multiagent system that negotiates SLA regarding media items on behalf of media content producer and distributor businesses. The MMB platform is structured in four service layers: interface, agreement management, business modelling and market. In this context, there are: (i) brokerage SLA (bSLA), which are established between individual businesses and the platform regarding the provision of brokerage services; and (ii) item SLA (iSLA), which are established between producer and distributor businesses about the provision of media items. In particular, this paper describes the negotiation, establishment and enforcement of bSLA and iSLA, which occurs at the agreement and negotiation layers, respectively. The platform adopts a pay-per-use business model where the bSLA define the general conditions that apply to the related iSLA. To illustrate this process, we present a case study describing the negotiation of a bSLA instance and several related iSLA instances. The latter correspond to the negotiation of the Electronic Program Guide (EPG) for a specific end viewer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Text based on the paper presented at the Conference "Autonomous systems: inter-relations of technical and societal issues" held at Monte de Caparica (Portugal), Universidade Nova de Lisboa, November, 5th and 6th 2009 and organized by IET-Research Centre on Enterprise and Work Innovation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Guilhotinas são máquinas robustas, de corte rectilíneo, normalmente associadas a equipamentos de baixo custo, devido à pequena quantidade de dispositivos tecnológicos incorporados. No entanto, esta situação pode ser alterada através da criatividade dos projetistas deste tipo de equipamento. Analisando algumas operações específicas, pode-se observar que algumas ferramentas, quando associadas ao equipamento, podem aumentar substancialmente a produtividade do processo de corte e a qualidade do produto final. Em relação ao processo de corte de chapas finas de metal, pode-se observar que na fase final de corte, o peso do material a cortar é suspenso por uma pequena porção de material que ainda não foi sujeita ao corte. Este facto leva a uma deformação plástica nesta última zona, causando problemas de qualidade no produto final, que não ficará completamente plano. Este trabalho foi desenvolvido em torno deste problema, estudando a melhor solução para desenvolver uma nova ferramenta, capaz de evitar a falta de nivelamento da placa, após corte. Um novo equipamento foi concebido, capaz de ser facilmente incorporado na guilhotina, permitindo o acompanhamento da inclinação da lâmina durante a operação de corte. O sistema é totalmente automatizado, sendo operado por uma única instrução de corte dada pelo operador da máquina. Este sistema permite à empresa fabricante aumentar o valor agregado de cada máquina, oferecendo aos clientes soluções avançadas, contribuindo desta forma para a sustentabilidade do negócio da empresa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Submitted in partial fulfillment for the Requirements for the Degree of PhD in Mathematics, in the Speciality of Statistics in the Faculdade de Ciências e Tecnologia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A qualidade é um factor-chave na indústria automóvel. Todos os fornecedores de componentes para a indústria automóvel estão sujeitos a qualificações e auditorias sistemáticas, com vista a melhorar os processos e verificar a sua rastreabilidade. Quando os processos assentam essencialmente em mão-de-obra intensiva, torna-se muito mais difícil atingir a ambicionada meta dos zero-defeitos, e a garantia da qualidade pode ficar comprometida, sendo necessário instalar procedimentos de controlo mais apurados. No entanto, se o processo ou processos forem convenientemente definidos, e se optar por capital intensivo em detrimento da mão-de-obra intensiva, a garantia da qualidade pode ser uma realidade, podendo ser fortemente minimizadas as operações de controlo da qualidade. Este trabalho teve por base a necessidade de reduzir fortemente, ou eliminar mesmo, o aparecimento de defeitos de montagem num sistema designado por remachado. Após cuidada análise do processo instalado, já parcialmente automatizado, mas ainda fortemente dependente de mão-de-obra, procedeu-se ao projecto de um equipamento capaz de reproduzir o mesmo efeito, mas que acomodasse alguns possíveis defeitos oriundos dos fornecedores dos componentes que são inseridos neste conjunto, colocados a montante na cadeia de fornecimento do produto. O equipamento resultante deste trabalho permitiu baixar o tempo de ciclo, acomodar a variabilidade dimensional detectada nos componentes que constituem o conjunto e reduzir drasticamente o número de não-conformidades.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neurocysticercosis (NC), the presence of Taenia solium metacestodes in tissues, is the most frequent and severe parasitic infection of the central nervous system. We investigated the presence of total IgE by an automated chemiluminescence assay in 53 paired cerebrospinal fluid (CSF) and serum samples from patients with NC (P) and in 40 CSF samples from individuals with other neurological disorders as the control group (C). Total IgE concentration ranged from 1.2 to 6.6 IU/ml (mean = 1.4 IU/ml, standard deviation-sd = 1.1 IU/ml) in 28.3% of CSF samples from the P group, a value significantly higher than for the C group (£1.0 IU/ml). The serum samples from the P group showed concentrations ranging from 1.0 to 2330.0 IU/ml (mean = 224.1 IU/ml, sd = 452.1 IU/ml), which were higher than the normal value cited by the manufacturer (<100.0 IU/ml) in 32.1% of the samples. A significant difference was observed in CSF samples from the P and C groups (p = 0.005) and in serum samples from the P group compared to the normal value (p = 0.005), with sera showing more frequent abnormal results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente documento de dissertação retrata o desenvolvimento do projeto PDS-Portal Institucional cujo cerne é um sistema para recolha, armazenamento e análise de dados (plataforma de Business Intelligence). Este portal está enquadrado na área da saúde e é uma peça fundamental no sistema da Plataforma de dados da Saúde, que é constituído por quatro portais distintos. Esta plataforma tem como base um sistema totalmente centrado no utente, que agrega dados de saúde dos utentes e distribui pelos diversos intervenientes: utente, profissionais de saúde nacionais e internacionais e organizações de saúde. O objetivo principal deste projeto é o desenvolvimento do PDS-Portal Institucional, recorrendo a uma plataforma de Business Intelligence, com o intuito de potenciar os utilizadores de uma ferramenta analítica para análise de dados. Estando a informação armazenada em dois dos portais da Plataforma de dados da Saúde (PDS-Portal Utente e PDS-Portal Profissional), é necessário modular um armazém de dados que agregue a informação de ambos e, através do PDS-PI, distribua um conjunto de análises ao utilizador final. Para tal este sistema comtempla um mecanismo totalmente automatizado para extração, tratamento e carregamento de dados para o armazém central, assim como uma plataforma de BI que disponibiliza os dados armazenados sobre a forma de análises específicas. Esta plataforma permite uma evolução constante e é extremamente flexível, pois fornece um mecanismo de gestão de utilizadores e perfis, assim como capacita o utilizador de um ambiente Web para análise de dados, permitindo a partilha e acesso a partir de dispositivos móveis. Após a implementação deste sistema foi possível explorar os dados e tirar diversas conclusões que são de extrema importância tanto para a evolução da PDS como para os métodos de praticar os cuidados de saúde em Portugal. Por fim são identificados alguns pontos de melhoria do sistema atual e delineada uma perspetiva de evolução futura. É certo que a partir do momento que este projeto seja lançado para produção, novas oportunidades surgirão e o contributo dos utilizadores será útil para evoluir o sistema progressivamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada para obtenção do Grau de Doutor em Ciências do Ambiente pela Universidade Nova de Lisboa, Faculdade de Ciências e Tecn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Radio link quality estimation is essential for protocols and mechanisms such as routing, mobility management and localization, particularly for low-power wireless networks such as wireless sensor networks. Commodity Link Quality Estimators (LQEs), e.g. PRR, RNP, ETX, four-bit and RSSI, can only provide a partial characterization of links as they ignore several link properties such as channel quality and stability. In this paper, we propose F-LQE (Fuzzy Link Quality Estimator, a holistic metric that estimates link quality on the basis of four link quality properties—packet delivery, asymmetry, stability, and channel quality—that are expressed and combined using Fuzzy Logic. We demonstrate through an extensive experimental analysis that F-LQE is more reliable than existing estimators (e.g., PRR, WMEWMA, ETX, RNP, and four-bit) as it provides a finer grain link classification. It is also more stable as it has lower coefficient of variation of link estimates. Importantly, we evaluate the impact of F-LQE on the performance of tree routing, specifically the CTP (Collection Tree Protocol). For this purpose, we adapted F-LQE to build a new routing metric for CTP, which we dubbed as F-LQE/RM. Extensive experimental results obtained with state-of-the-art widely used test-beds show that F-LQE/RM improves significantly CTP routing performance over four-bit (the default LQE of CTP) and ETX (another popular LQE). F-LQE/RM improves the end-to-end packet delivery by up to 16%, reduces the number of packet retransmissions by up to 32%, reduces the Hop count by up to 4%, and improves the topology stability by up to 47%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This article describes the standardization and evaluation of an in-house specific IgG avidity ELISA for distinguishing recent primary from long-term human cytomegalovirus (HCMV) infection. The test was standardized with the commercial kit ETI-CYTOK G Plus (Sorin Biomedica, Italy) using 8 M urea in phosphate-buffered saline to dissociate low-avidity antibodies after the antigen-antibody interaction. The performance of the in-house assay was compared to that of the commercial automated VIDAS CMV IgG avidity test (bioMérieux, France). Forty-nine sera, 24 from patients with a recent primary HCMV infection and 25 from patients with a long-term HCMV infection and a sustained persistence of specific IgM antibodies, were tested. Similar results were obtained with the two avidity methods. All 24 sera from patients with recently acquired infection had avidity indices compatible with acute HCMV infection by the VIDAS method, whereas with the in-house method, one serum sample had an equivocal result. In the 25 sera from patients with long-term infection, identical results were obtained with the two methods, with only one serum sample having an incompatible value. These findings suggest that our in-house avidity test could be a potentially useful tool for the immunodiagnosis of HCMV infection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste estudo, focado na aprendizagem do manuseio do dinheiro, pretendeu-se que os alunos adquirissem competências que os habilitasse a um maior grau de independência e participação na vida em sociedade, desempenhando tarefas de cariz financeiro de forma mais independente, por exemplo, compra de produtos, pagamento de serviços e gestão do dinheiro. Para alcançar o pretendido, utilizou-se a metodologia do ensino direto, com tarefas estruturadas. Numa fase inicial o investigador prestava apoio constante aos alunos, que foi diminuindo gradualmente à medida que atingiam as competências relacionadas com o dinheiro. Na fase final, os alunos realizaram as tarefas propostas de forma autónoma. Construído como um estudo de caso, os dados foram recolhidos através de observação direta e de provas de monitorização. Os alunos começaram por realizar uma avaliação inicial para delinear a linha de base da intervenção. Posteriormente, foi realizada a intervenção baseada no ensino direto, com recurso ao computador, à calculadora, a provas de monitorização e ao manuseio de dinheiro. O computador foi utilizado na intervenção como tecnologia de apoio à aprendizagem, permitindo a realização de jogos interativos e consulta de materiais. No final da intervenção os alunos revelaram autonomia na resolução das tarefas, pois já tinham automatizado os processos matemáticas para saber manusear corretamente a moeda euro. O ensino direto auxiliou os alunos a reterem as competências matemáticas essenciais de manuseamento do dinheiro, compondo quantias, efetuando pagamentos e conferindo trocos, que muito podem contribuir para terem uma participação independente na vida em sociedade