968 resultados para Identification process
Resumo:
Hyperspectral imaging can be used for object detection and for discriminating between different objects based on their spectral characteristics. One of the main problems of hyperspectral data analysis is the presence of mixed pixels, due to the low spatial resolution of such images. This means that several spectrally pure signatures (endmembers) are combined into the same mixed pixel. Linear spectral unmixing follows an unsupervised approach which aims at inferring pure spectral signatures and their material fractions at each pixel of the scene. The huge data volumes acquired by such sensors put stringent requirements on processing and unmixing methods. This paper proposes an efficient implementation of a unsupervised linear unmixing method on GPUs using CUDA. The method finds the smallest simplex by solving a sequence of nonsmooth convex subproblems using variable splitting to obtain a constraint formulation, and then applying an augmented Lagrangian technique. The parallel implementation of SISAL presented in this work exploits the GPU architecture at low level, using shared memory and coalesced accesses to memory. The results herein presented indicate that the GPU implementation can significantly accelerate the method's execution over big datasets while maintaining the methods accuracy.
Resumo:
Biomaterials have been extensively developed and applied in medical devices. Among these materials, bioabsorbable polymers have attracted special attention for orthopedic applications where a transient existence of an implant can provide better results, when compared with permanent implants. Chitosan, a natural biopolymer, has generated enormous interest due to its various advantages such as biocompatibility, biodegradability and osteoconductive properties. In this paper, an assessment of the potential of a developed innovative production process of 3D solid and dense chitosan-based products for biomedical applications is performed and presented. Therefore, it starts with a brief explanation of the technology, highlighting its main features. Then, several potential applications and their markets were identified and assessed. After choosing a primary application and market, its potential as well as its uncertainties and risks were identified. A business model suggesting how to materialize the value from the application was sketched. After that, a brief description of the market as well as the identification of the main competitors and their distinctive features was made. The supply chain analysis and the go-to-market strategy were the following steps. In the end, a final recommendation based on the assessment of the information was prepared.
Resumo:
Hyperspectral imaging sensors provide image data containing both spectral and spatial information from the Earth surface. The huge data volumes produced by these sensors put stringent requirements on communications, storage, and processing. This paper presents a method, termed hyperspectral signal subspace identification by minimum error (HySime), that infer the signal subspace and determines its dimensionality without any prior knowledge. The identification of this subspace enables a correct dimensionality reduction yielding gains in algorithm performance and complexity and in data storage. HySime method is unsupervised and fully-automatic, i.e., it does not depend on any tuning parameters. The effectiveness of the proposed method is illustrated using simulated data based on U.S.G.S. laboratory spectra and real hyperspectral data collected by the AVIRIS sensor over Cuprite, Nevada.
Resumo:
Mestrado em Engenharia Civil – Ramo Estruturas
Resumo:
An IgG2a subclass monoclonal antibody, C6G9, was obtained by immunization of BALB/c mice with Schistosoma mansoni egg antigens. With this monoclonal antibody, it was possible to identify a schistosomular antigen with a molecular weight of 46 kilodaltons (KDa), and its expression being evaluated by means of indirect immunofluorescence. The antigen persisted in the integument of the developing schistosomulum, for at least 96 hours post-transformation. The monoclonal antibody also reacted with the cercaria surface, but not with that of adult worm. The C6G9 was also able to mediate significant levels of cytotoxicity in the presence of complement for newly transformed schistosomula.
Resumo:
A fourteen year schistosomiasis control program in Peri-Peri (Capim Branco, MG) reduced prevalence from 43.5 to 4.4%; incidence from 19.0 to 2.9%, the geometric mean of the number of eggs from 281 to 87 and the level of the hepatoesplenic form cases from 5.9 to 0.0%. In 1991, three years after the interruption of the program, the prevalence had risen to 19.6%. The district consists of Barbosa (a rural area) and Peri-Peri itself (an urban area). In 1991, the prevalence in the two areas was 28.4% and 16.0% respectively. A multivariate analysis of risk factors for schistosomiasis indicated the domestic agricultural activity with population attributive risk (PAR) of 29.82%, the distance (< 10 m) from home to water source (PAR = 25.93%) and weekly fishing (PAR = 17.21%) as being responsible for infections in the rural area. The recommended control measures for this area are non-manual irrigation and removal of homes to more than ten meters from irrigation ditches. In the urban area, it was observed that swimming at weekly intervals (PAR = 20.71%), daily domestic agricultural activity (PAR = 4.07%) and the absence of drinking water in the home (PAR=4.29%) were responsible for infections. Thus, in the urban area the recommended control measures are the substitution of manual irrigation with an irrigation method that avoids contact with water, the creation of leisure options of the population and the provision of a domestic water supply. The authors call attention to the need for the efficacy of multivariate analysis of risk factors to be evaluated for schistosomiasis prior to its large scale use as a indicator of the control measures to be implemented.
Resumo:
This work intends to evaluate the (mechanical and durability) performance of concrete made with coarse recycled concrete aggregates (CRCA) obtained using two crushing processes: primary crushing (PC) and primary plus secondary crushing (PSC). This analysis intends to select the most efficient production process of recycled aggregates (RA). The RA used here resulted from precast products (P), with strength classes of 20 MPa, 45 MPa and 65 MPa, and from laboratory-made concrete (L) with the same compressive strengths. The evaluation of concrete was made with the following tests: compressive strength; splitting tensile strength; modulus of elasticity; carbona-tion resistance; chloride penetration resistance; capillary water absorption; and water absorption by immersion. These findings contribute to a solid and innovative basis that allows the precasting industry to use without restrictions the waste it generates. © (2015) Trans Tech Publications, Switzerland.
Resumo:
The development of high spatial resolution airborne and spaceborne sensors has improved the capability of ground-based data collection in the fields of agriculture, geography, geology, mineral identification, detection [2, 3], and classification [4–8]. The signal read by the sensor from a given spatial element of resolution and at a given spectral band is a mixing of components originated by the constituent substances, termed endmembers, located at that element of resolution. This chapter addresses hyperspectral unmixing, which is the decomposition of the pixel spectra into a collection of constituent spectra, or spectral signatures, and their corresponding fractional abundances indicating the proportion of each endmember present in the pixel [9, 10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. The linear mixing model holds when the mixing scale is macroscopic [13]. The nonlinear model holds when the mixing scale is microscopic (i.e., intimate mixtures) [14, 15]. The linear model assumes negligible interaction among distinct endmembers [16, 17]. The nonlinear model assumes that incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [18]. Under the linear mixing model and assuming that the number of endmembers and their spectral signatures are known, hyperspectral unmixing is a linear problem, which can be addressed, for example, under the maximum likelihood setup [19], the constrained least-squares approach [20], the spectral signature matching [21], the spectral angle mapper [22], and the subspace projection methods [20, 23, 24]. Orthogonal subspace projection [23] reduces the data dimensionality, suppresses undesired spectral signatures, and detects the presence of a spectral signature of interest. The basic concept is to project each pixel onto a subspace that is orthogonal to the undesired signatures. As shown in Settle [19], the orthogonal subspace projection technique is equivalent to the maximum likelihood estimator. This projection technique was extended by three unconstrained least-squares approaches [24] (signature space orthogonal projection, oblique subspace projection, target signature space orthogonal projection). Other works using maximum a posteriori probability (MAP) framework [25] and projection pursuit [26, 27] have also been applied to hyperspectral data. In most cases the number of endmembers and their signatures are not known. Independent component analysis (ICA) is an unsupervised source separation process that has been applied with success to blind source separation, to feature extraction, and to unsupervised recognition [28, 29]. ICA consists in finding a linear decomposition of observed data yielding statistically independent components. Given that hyperspectral data are, in given circumstances, linear mixtures, ICA comes to mind as a possible tool to unmix this class of data. In fact, the application of ICA to hyperspectral data has been proposed in reference 30, where endmember signatures are treated as sources and the mixing matrix is composed by the abundance fractions, and in references 9, 25, and 31–38, where sources are the abundance fractions of each endmember. In the first approach, we face two problems: (1) The number of samples are limited to the number of channels and (2) the process of pixel selection, playing the role of mixed sources, is not straightforward. In the second approach, ICA is based on the assumption of mutually independent sources, which is not the case of hyperspectral data, since the sum of the abundance fractions is constant, implying dependence among abundances. This dependence compromises ICA applicability to hyperspectral images. In addition, hyperspectral data are immersed in noise, which degrades the ICA performance. IFA [39] was introduced as a method for recovering independent hidden sources from their observed noisy mixtures. IFA implements two steps. First, source densities and noise covariance are estimated from the observed data by maximum likelihood. Second, sources are reconstructed by an optimal nonlinear estimator. Although IFA is a well-suited technique to unmix independent sources under noisy observations, the dependence among abundance fractions in hyperspectral imagery compromises, as in the ICA case, the IFA performance. Considering the linear mixing model, hyperspectral observations are in a simplex whose vertices correspond to the endmembers. Several approaches [40–43] have exploited this geometric feature of hyperspectral mixtures [42]. Minimum volume transform (MVT) algorithm [43] determines the simplex of minimum volume containing the data. The MVT-type approaches are complex from the computational point of view. Usually, these algorithms first find the convex hull defined by the observed data and then fit a minimum volume simplex to it. Aiming at a lower computational complexity, some algorithms such as the vertex component analysis (VCA) [44], the pixel purity index (PPI) [42], and the N-FINDR [45] still find the minimum volume simplex containing the data cloud, but they assume the presence in the data of at least one pure pixel of each endmember. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. Hyperspectral sensors collects spatial images over many narrow contiguous bands, yielding large amounts of data. For this reason, very often, the processing of hyperspectral data, included unmixing, is preceded by a dimensionality reduction step to reduce computational complexity and to improve the signal-to-noise ratio (SNR). Principal component analysis (PCA) [46], maximum noise fraction (MNF) [47], and singular value decomposition (SVD) [48] are three well-known projection techniques widely used in remote sensing in general and in unmixing in particular. The newly introduced method [49] exploits the structure of hyperspectral mixtures, namely the fact that spectral vectors are nonnegative. The computational complexity associated with these techniques is an obstacle to real-time implementations. To overcome this problem, band selection [50] and non-statistical [51] algorithms have been introduced. This chapter addresses hyperspectral data source dependence and its impact on ICA and IFA performances. The study consider simulated and real data and is based on mutual information minimization. Hyperspectral observations are described by a generative model. This model takes into account the degradation mechanisms normally found in hyperspectral applications—namely, signature variability [52–54], abundance constraints, topography modulation, and system noise. The computation of mutual information is based on fitting mixtures of Gaussians (MOG) to data. The MOG parameters (number of components, means, covariances, and weights) are inferred using the minimum description length (MDL) based algorithm [55]. We study the behavior of the mutual information as a function of the unmixing matrix. The conclusion is that the unmixing matrix minimizing the mutual information might be very far from the true one. Nevertheless, some abundance fractions might be well separated, mainly in the presence of strong signature variability, a large number of endmembers, and high SNR. We end this chapter by sketching a new methodology to blindly unmix hyperspectral data, where abundance fractions are modeled as a mixture of Dirichlet sources. This model enforces positivity and constant sum sources (full additivity) constraints. The mixing matrix is inferred by an expectation-maximization (EM)-type algorithm. This approach is in the vein of references 39 and 56, replacing independent sources represented by MOG with mixture of Dirichlet sources. Compared with the geometric-based approaches, the advantage of this model is that there is no need to have pure pixels in the observations. The chapter is organized as follows. Section 6.2 presents a spectral radiance model and formulates the spectral unmixing as a linear problem accounting for abundance constraints, signature variability, topography modulation, and system noise. Section 6.3 presents a brief resume of ICA and IFA algorithms. Section 6.4 illustrates the performance of IFA and of some well-known ICA algorithms with experimental data. Section 6.5 studies the ICA and IFA limitations in unmixing hyperspectral data. Section 6.6 presents results of ICA based on real data. Section 6.7 describes the new blind unmixing scheme and some illustrative examples. Section 6.8 concludes with some remarks.
Resumo:
Dissertation presented to obtain a Ph.D. degree in Engineering and Technology Sciences, Biotechnology at the Instituto de Tecnologia Química e Biológica, Universidade Nova de Lisboa
Resumo:
A presente dissertação foi realizada em colaboração com o grupo empresarial Monteiro, Ribas, tendo como principal objectivo a realização de uma auditoria à gestão dos resíduos industriais produzidos pelas suas fábricas localizadas na Estrada da Circunvalação, no Porto. Para cumprir este objectivo, inicialmente foi efectuado um levantamento das obrigações legais relativas aos resíduos e foram procuradas práticas aconselhadas para a gestão interna. Para cada uma das fábricas, verificaram-se, quais os resíduos produzidos e analisaram-se os seus percursos, considerando as suas origens, os locais e modos de acondicionamento na origem, os modos de transporte interno, os locais e modos de armazenagem preliminar, e ainda, as quantidades produzidas, os transportadores, os operadores finais e as operações finais de gestão, sendo que estas quatro últimas informações são relativas ao ano 2013. De seguida procedeu-se à realização da auditoria nas diferentes unidades, verificando o cumprimento dos requisitos legais e das boas práticas em matéria de gestão de resíduos. As principais não conformidades detectadas, comuns às várias unidades fabris foram a inexistência de local/recipiente definido para acondicionamento de alguns resíduos, a falta ou insuficiente identificação de recipientes/zonas de acondicionamento, a inexistência de bacias de retenção para resíduos líquidos perigosos, o facto de no transporte interno apenas os resíduos perigosos serem cobertos e, os resíduos líquidos perigosos não serem transportados sobre bacias de retenção móveis nem com o material necessário para absorver derrames. Para cada resíduo e para cada unidade industrial foram propostas medidas correctivas e/ou de melhoria, quando aplicável. Relativamente à armazenagem preliminar, a principal inconformidade detectada foi o facto de todos os parques (quatro) possuírem resíduos perigosos no momento das auditorias, o que não é adequado. Foram propostas medidas correctivas e/ou de melhoria para cada parque. Como proposta global, tendo em conta factores económicos e de segurança, sugeriu-se que apenas o parque de resíduos perigosos possa armazenar este tipo de resíduos, pelo que os procedimentos de transporte interno devem ser melhorados, fazendo com que estes resíduos sejam transportados directamente para o parque de resíduos perigosos. Desta forma dois dos parques devem sofrer algumas remodelações, nomeadamente serem cobertos e fechados, ainda que não totalmente, e o parque de resíduos perigosos deve ser fechado, mantendo aberturas para ventilação, deve ser equipado com kit´s de contenção de derrames, fichas de segurança, procedimentos a realizar em caso de emergência, e ainda, devido ao facto do sistema de contenção de derrames ser pequeno face ao total de armazenamento, aconselha-se o uso de bacias de retenção para alguns dos recipientes de resíduos líquidos perigosos. Ao longo deste processo e em consequência da realização da auditoria, algumas situações consideradas não conformes foram sendo corrigidas. Também foram preparadas instruções de trabalho adequadas que serão posteriormente disponibilizadas. Foi ainda elaborada uma metodologia de avaliação de processos como base de trabalho para redução dos resíduos gerados. A etapa escolhida para a aplicação da mesma foi uma etapa auxiliar do processo produtivo da Monteiro, Ribas - Revestimentos, S.A - a limpeza de cubas com solventes, por forma a tentar minimizar os resíduos de solventes produzidos nesta operação. Uma vez que a fábrica já realiza a operação tendo em consideração medidas de prevenção e reutilização, a reciclagem é neste momento a única forma de tentar minimizar os resíduos de solventes. Foram então estudadas duas opções, nomeadamente a aquisição de um equipamento de regeneração de solventes e a contratação de uma operadora que proceda à regeneração dos resíduos de solventes e faça o retorno do solvente regenerado. A primeira opção poderá permitir uma redução de cerca de 95% na produção de resíduos de solventes e na aquisição de solvente puro, estimando-se uma poupança anual de cerca de **** €, com um período de recuperação do capital de cerca de 16 meses e a segunda pode conduzir a uma redução significativa na aquisição de solvente puro, cerca de 65%, e a uma poupança anual de cerca de **** €.
Resumo:
Relatório de Estágio Apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Empreendedorismo e Internacionalização, sob orientação da Mestre Inês Veiga Pereira
Resumo:
Thesis submitted to Faculdade de Ciências e Tecnologia of Universidade Nova de Lisboa in partial fulfilment of the requirements for the degree of Master in Computer Science
Resumo:
O surgir da World Wide Web providenciou aos utilizadores uma série de oportunidades no que diz respeito ao acesso a dados e informação. Este acesso tornou-se um ato banal para qualquer utilizador da Web, tanto pelo utilizador comum como por outros mais experientes, tanto para obter informações básicas, como outras informações mais complexas. Todo este avanço tecnológico permitiu que os utilizadores tivessem acesso a uma vasta quantidade de informação, dispersa pelo globo, não tendo, na maior parte das vezes, a informação qualquer tipo de ligação entre si. A necessidade de se obter informação de interesse relativamente a determinado tema, mas tendo que recorrer a diversas fontes para obter toda a informação que pretende obter e comparar, torna-se um processo moroso para o utilizador. Pretende-se que este processo de recolha de informação de páginas web seja o mais automatizado possível, dando ao utilizador a possibilidade de utilizar algoritmos e ferramentas de análise e processamento automáticas, reduzindo desta forma o tempo e esforço de realização de tarefas sobre páginas web. Este processo é denominado Web Scraping. Neste trabalho é descrita uma arquitetura de sistema de web scraping automático e configurável baseado em tecnologias existentes, nomeadamente no contexto da web semântica. Para tal o trabalho desenvolvido analisa os efeitos da aplicação do Web Scraping percorrendo os seguintes pontos: • Identificação e análise de diversas ferramentas de web scraping; • Identificação do processo desenvolvido pelo ser humano complementar às atuais ferramentas de web scraping; • Design duma arquitetura complementar às ferramentas de web scraping que dê apoio ao processo de web scraping do utilizador; • Desenvolvimento dum protótipo baseado em ferramentas e tecnologias existentes; • Realização de experiências no domínio de aplicação de páginas de super-mercados portugueses; • Analisar resultados obtidos a partir destas.
Resumo:
O leite é um alimento complexo, pela sua composição rico em água, proteínas, lípidos, vitaminas e minerais. Devido ao seu alto valor nutricional é fundamental para a amamentação de crianças e animais em crescimento, pois fornece componentes fundamentais para o desenvolvimento e manutenção da saúde. Os antimicrobianos são amplamente utilizados como uma medida terapêutica no tratamento de infeções bacterianas, profilaxia e como promotores de crescimento (aditivos). A presença de resíduos de antimicrobianos no leite pode representar riscos para a saúde humana, como reações alérgicas em indivíduos hipersensíveis e resistências. Os objetivos deste estudo são o desenvolvimento de novos métodos de limpeza e de pré-concentração para amostras de leite, por meio de extração em fase sólida (SPE), com a finalidade de realizar uma melhor identificação e quantificação de antimicrobiana por Cromatografia Líquida de Alta Performance (HPLC). Todos os métodos desenvolvidos são de fácil execução, com taxas de recuperação dos agentes antimicrobianos viáveis, com uma percentagem de recuperação a partir de 85%. O método cromatográfico utilizado para a deteção e quantificação (HPLC-DAD) têm os limites de deteção (LD) entre 2.43ng / mL e 1.62ng / mL e os limites de quantificação (LQ) entre 7,36 ng / mL e 4.92 ng / mL, o que significa este método vai de encontro às diretrizes estipuladas pela União Europeia para os agentes antimicrobianos estudados. A combinação dos métodos propostos de limpeza e pré-concentração por SPE e multirresíduo por HPLC-DAD permite, por conseguinte, a deteção e quantificação de resíduos de antibióticos no leite, tornando esta uma alternativa importante e útil no processo de controlo de qualidade para a indústria de alimentos e outras área.
Doseamento da Azadiractina e avaliação da atividade antimicrobiana em produtos contendo óleo de Neem
Resumo:
O Neem (Azadirachta indica) é uma árvore indiana conhecida pela atividade pesticida e por várias atividades farmacológicas. De entre os vários compostos já isolados e estudados, a Azadiractina (AZA) foi identificada como o principal composto bioativo desta planta. Este composto apresenta uma grande diversidade de localizações nesta planta, porém assume a sua máxima concentração ao nível das sementes, porção que se apresenta também como a principal fonte de obtenção do óleo de Neem. O óleo apresenta-se como a porção menos estudada do Neem, quer ao nível do seu teor em AZA, quer ao nível das suas propriedades, nomeadamente antimicrobianas. Neste sentido, os objetivos primordiais deste estudo foram o doseamento da Azadiractina e a avaliação da atividade antimicrobiana em produtos contendo óleo de Neem. Um método analítico rápido, sensível e seletivo utilizando HPLC-UV foi desenvolvido para a identificação e quantificação da Azadiractina-A (AZA-A) e 3-tigloylazadirachtol (AZA-B) em diferentes amostras de óleo de Neem. O teor de AZA-A, B e A+B determinado nas amostras de óleo de Neem apresentou valores entre 58,53-843,42 mg/kg, 12,52-800,223 mg/kg e 104,20-1642,17 mg/kg, respetivamente. Na generalidade, os valores obtidos foram inferiores aos descritos na literatura. A partir dos resultados obtidos, verificou-se ainda que o teor destes compostos não é similar em todas as amostras, sendo este condicionado pela qualidade das sementes que deram origem ao óleo e pelo processo extrativo utilizado. Para além disso, foi possível inferir que duas das amostras testadas teriam qualidade inferior, dados os teores reduzidos de AZA que apresentavam. As diferentes amostras de óleo de Neem, bem como formulações comerciais contendo óleo de Neem, foram testadas em 14 microrganismos de forma a avaliar o seu potencial antimicrobiano. Após a análise, verificou-se atividade antimicrobiana de todas as amostras sobre todos os microrganismos testados, observando-se atividade tanto em bactérias Gram+ como Gram-. Os resultados alcançados mostraram que o óleo de Neem e as formulações comerciais contendo óleo de Neem têm um potencial antimicrobiano interessante, principalmente sobre bactérias comuns em patologias da pele. Para além disso, foi possível comprovar que, no caso do óleo de Neem, a AZA não será a principal responsável por esta atividade. Por outro lado, verificou-se que a atividade antimicrobiana das formulações comerciais não se deverá exclusivamente à presença do óleo de Neem, Doseamento da Azadiractina e avaliação da atividade antimicrobiana em produtos contendo óleo de Neem X uma vez que os valores dos halos de inibição obtidos com as formulações tenderam a ser superiores aos verificados apenas com o óleo, além de que os valores de inibição mais elevados foram observados para as formulações contendo menor percentagem de óleo de Neem incorporado. Em suma, os resultados alcançados para os diferentes produtos analisados são promissores e, na sua maioria, convergem com o que está descrito na literatura. No entanto, apesar destes resultados serem um grande contributo, mais estudos são necessários e importantes para conhecer melhor os produtos analisados e assim poder tirar o maior proveito deles.