962 resultados para Solids mixing
Resumo:
Mestrado em Engenharia Química - Tecnologias de Protecção Ambiental
Resumo:
The development of high spatial resolution airborne and spaceborne sensors has improved the capability of ground-based data collection in the fields of agriculture, geography, geology, mineral identification, detection [2, 3], and classification [4–8]. The signal read by the sensor from a given spatial element of resolution and at a given spectral band is a mixing of components originated by the constituent substances, termed endmembers, located at that element of resolution. This chapter addresses hyperspectral unmixing, which is the decomposition of the pixel spectra into a collection of constituent spectra, or spectral signatures, and their corresponding fractional abundances indicating the proportion of each endmember present in the pixel [9, 10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. The linear mixing model holds when the mixing scale is macroscopic [13]. The nonlinear model holds when the mixing scale is microscopic (i.e., intimate mixtures) [14, 15]. The linear model assumes negligible interaction among distinct endmembers [16, 17]. The nonlinear model assumes that incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [18]. Under the linear mixing model and assuming that the number of endmembers and their spectral signatures are known, hyperspectral unmixing is a linear problem, which can be addressed, for example, under the maximum likelihood setup [19], the constrained least-squares approach [20], the spectral signature matching [21], the spectral angle mapper [22], and the subspace projection methods [20, 23, 24]. Orthogonal subspace projection [23] reduces the data dimensionality, suppresses undesired spectral signatures, and detects the presence of a spectral signature of interest. The basic concept is to project each pixel onto a subspace that is orthogonal to the undesired signatures. As shown in Settle [19], the orthogonal subspace projection technique is equivalent to the maximum likelihood estimator. This projection technique was extended by three unconstrained least-squares approaches [24] (signature space orthogonal projection, oblique subspace projection, target signature space orthogonal projection). Other works using maximum a posteriori probability (MAP) framework [25] and projection pursuit [26, 27] have also been applied to hyperspectral data. In most cases the number of endmembers and their signatures are not known. Independent component analysis (ICA) is an unsupervised source separation process that has been applied with success to blind source separation, to feature extraction, and to unsupervised recognition [28, 29]. ICA consists in finding a linear decomposition of observed data yielding statistically independent components. Given that hyperspectral data are, in given circumstances, linear mixtures, ICA comes to mind as a possible tool to unmix this class of data. In fact, the application of ICA to hyperspectral data has been proposed in reference 30, where endmember signatures are treated as sources and the mixing matrix is composed by the abundance fractions, and in references 9, 25, and 31–38, where sources are the abundance fractions of each endmember. In the first approach, we face two problems: (1) The number of samples are limited to the number of channels and (2) the process of pixel selection, playing the role of mixed sources, is not straightforward. In the second approach, ICA is based on the assumption of mutually independent sources, which is not the case of hyperspectral data, since the sum of the abundance fractions is constant, implying dependence among abundances. This dependence compromises ICA applicability to hyperspectral images. In addition, hyperspectral data are immersed in noise, which degrades the ICA performance. IFA [39] was introduced as a method for recovering independent hidden sources from their observed noisy mixtures. IFA implements two steps. First, source densities and noise covariance are estimated from the observed data by maximum likelihood. Second, sources are reconstructed by an optimal nonlinear estimator. Although IFA is a well-suited technique to unmix independent sources under noisy observations, the dependence among abundance fractions in hyperspectral imagery compromises, as in the ICA case, the IFA performance. Considering the linear mixing model, hyperspectral observations are in a simplex whose vertices correspond to the endmembers. Several approaches [40–43] have exploited this geometric feature of hyperspectral mixtures [42]. Minimum volume transform (MVT) algorithm [43] determines the simplex of minimum volume containing the data. The MVT-type approaches are complex from the computational point of view. Usually, these algorithms first find the convex hull defined by the observed data and then fit a minimum volume simplex to it. Aiming at a lower computational complexity, some algorithms such as the vertex component analysis (VCA) [44], the pixel purity index (PPI) [42], and the N-FINDR [45] still find the minimum volume simplex containing the data cloud, but they assume the presence in the data of at least one pure pixel of each endmember. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. Hyperspectral sensors collects spatial images over many narrow contiguous bands, yielding large amounts of data. For this reason, very often, the processing of hyperspectral data, included unmixing, is preceded by a dimensionality reduction step to reduce computational complexity and to improve the signal-to-noise ratio (SNR). Principal component analysis (PCA) [46], maximum noise fraction (MNF) [47], and singular value decomposition (SVD) [48] are three well-known projection techniques widely used in remote sensing in general and in unmixing in particular. The newly introduced method [49] exploits the structure of hyperspectral mixtures, namely the fact that spectral vectors are nonnegative. The computational complexity associated with these techniques is an obstacle to real-time implementations. To overcome this problem, band selection [50] and non-statistical [51] algorithms have been introduced. This chapter addresses hyperspectral data source dependence and its impact on ICA and IFA performances. The study consider simulated and real data and is based on mutual information minimization. Hyperspectral observations are described by a generative model. This model takes into account the degradation mechanisms normally found in hyperspectral applications—namely, signature variability [52–54], abundance constraints, topography modulation, and system noise. The computation of mutual information is based on fitting mixtures of Gaussians (MOG) to data. The MOG parameters (number of components, means, covariances, and weights) are inferred using the minimum description length (MDL) based algorithm [55]. We study the behavior of the mutual information as a function of the unmixing matrix. The conclusion is that the unmixing matrix minimizing the mutual information might be very far from the true one. Nevertheless, some abundance fractions might be well separated, mainly in the presence of strong signature variability, a large number of endmembers, and high SNR. We end this chapter by sketching a new methodology to blindly unmix hyperspectral data, where abundance fractions are modeled as a mixture of Dirichlet sources. This model enforces positivity and constant sum sources (full additivity) constraints. The mixing matrix is inferred by an expectation-maximization (EM)-type algorithm. This approach is in the vein of references 39 and 56, replacing independent sources represented by MOG with mixture of Dirichlet sources. Compared with the geometric-based approaches, the advantage of this model is that there is no need to have pure pixels in the observations. The chapter is organized as follows. Section 6.2 presents a spectral radiance model and formulates the spectral unmixing as a linear problem accounting for abundance constraints, signature variability, topography modulation, and system noise. Section 6.3 presents a brief resume of ICA and IFA algorithms. Section 6.4 illustrates the performance of IFA and of some well-known ICA algorithms with experimental data. Section 6.5 studies the ICA and IFA limitations in unmixing hyperspectral data. Section 6.6 presents results of ICA based on real data. Section 6.7 describes the new blind unmixing scheme and some illustrative examples. Section 6.8 concludes with some remarks.
Resumo:
Hyperspectral remote sensing exploits the electromagnetic scattering patterns of the different materials at specific wavelengths [2, 3]. Hyperspectral sensors have been developed to sample the scattered portion of the electromagnetic spectrum extending from the visible region through the near-infrared and mid-infrared, in hundreds of narrow contiguous bands [4, 5]. The number and variety of potential civilian and military applications of hyperspectral remote sensing is enormous [6, 7]. Very often, the resolution cell corresponding to a single pixel in an image contains several substances (endmembers) [4]. In this situation, the scattered energy is a mixing of the endmember spectra. A challenging task underlying many hyperspectral imagery applications is then decomposing a mixed pixel into a collection of reflectance spectra, called endmember signatures, and the corresponding abundance fractions [8–10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. Linear mixing model holds approximately when the mixing scale is macroscopic [13] and there is negligible interaction among distinct endmembers [3, 14]. If, however, the mixing scale is microscopic (or intimate mixtures) [15, 16] and the incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [17], the linear model is no longer accurate. Linear spectral unmixing has been intensively researched in the last years [9, 10, 12, 18–21]. It considers that a mixed pixel is a linear combination of endmember signatures weighted by the correspondent abundance fractions. Under this model, and assuming that the number of substances and their reflectance spectra are known, hyperspectral unmixing is a linear problem for which many solutions have been proposed (e.g., maximum likelihood estimation [8], spectral signature matching [22], spectral angle mapper [23], subspace projection methods [24,25], and constrained least squares [26]). In most cases, the number of substances and their reflectances are not known and, then, hyperspectral unmixing falls into the class of blind source separation problems [27]. Independent component analysis (ICA) has recently been proposed as a tool to blindly unmix hyperspectral data [28–31]. ICA is based on the assumption of mutually independent sources (abundance fractions), which is not the case of hyperspectral data, since the sum of abundance fractions is constant, implying statistical dependence among them. This dependence compromises ICA applicability to hyperspectral images as shown in Refs. [21, 32]. In fact, ICA finds the endmember signatures by multiplying the spectral vectors with an unmixing matrix, which minimizes the mutual information among sources. If sources are independent, ICA provides the correct unmixing, since the minimum of the mutual information is obtained only when sources are independent. This is no longer true for dependent abundance fractions. Nevertheless, some endmembers may be approximately unmixed. These aspects are addressed in Ref. [33]. Under the linear mixing model, the observations from a scene are in a simplex whose vertices correspond to the endmembers. Several approaches [34–36] have exploited this geometric feature of hyperspectral mixtures [35]. Minimum volume transform (MVT) algorithm [36] determines the simplex of minimum volume containing the data. The method presented in Ref. [37] is also of MVT type but, by introducing the notion of bundles, it takes into account the endmember variability usually present in hyperspectral mixtures. The MVT type approaches are complex from the computational point of view. Usually, these algorithms find in the first place the convex hull defined by the observed data and then fit a minimum volume simplex to it. For example, the gift wrapping algorithm [38] computes the convex hull of n data points in a d-dimensional space with a computational complexity of O(nbd=2cþ1), where bxc is the highest integer lower or equal than x and n is the number of samples. The complexity of the method presented in Ref. [37] is even higher, since the temperature of the simulated annealing algorithm used shall follow a log( ) law [39] to assure convergence (in probability) to the desired solution. Aiming at a lower computational complexity, some algorithms such as the pixel purity index (PPI) [35] and the N-FINDR [40] still find the minimum volume simplex containing the data cloud, but they assume the presence of at least one pure pixel of each endmember in the data. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. PPI algorithm uses the minimum noise fraction (MNF) [41] as a preprocessing step to reduce dimensionality and to improve the signal-to-noise ratio (SNR). The algorithm then projects every spectral vector onto skewers (large number of random vectors) [35, 42,43]. The points corresponding to extremes, for each skewer direction, are stored. A cumulative account records the number of times each pixel (i.e., a given spectral vector) is found to be an extreme. The pixels with the highest scores are the purest ones. N-FINDR algorithm [40] is based on the fact that in p spectral dimensions, the p-volume defined by a simplex formed by the purest pixels is larger than any other volume defined by any other combination of pixels. This algorithm finds the set of pixels defining the largest volume by inflating a simplex inside the data. ORA SIS [44, 45] is a hyperspectral framework developed by the U.S. Naval Research Laboratory consisting of several algorithms organized in six modules: exemplar selector, adaptative learner, demixer, knowledge base or spectral library, and spatial postrocessor. The first step consists in flat-fielding the spectra. Next, the exemplar selection module is used to select spectral vectors that best represent the smaller convex cone containing the data. The other pixels are rejected when the spectral angle distance (SAD) is less than a given thresh old. The procedure finds the basis for a subspace of a lower dimension using a modified Gram–Schmidt orthogonalizati on. The selected vectors are then projected onto this subspace and a simplex is found by an MV T pro cess. ORA SIS is oriented to real-time target detection from uncrewed air vehicles using hyperspectral data [46]. In this chapter we develop a new algorithm to unmix linear mixtures of endmember spectra. First, the algorithm determines the number of endmembers and the signal subspace using a newly developed concept [47, 48]. Second, the algorithm extracts the most pure pixels present in the data. Unlike other methods, this algorithm is completely automatic and unsupervised. To estimate the number of endmembers and the signal subspace in hyperspectral linear mixtures, the proposed scheme begins by estimating sign al and noise correlation matrices. The latter is based on multiple regression theory. The signal subspace is then identified by selectin g the set of signal eigenvalue s that best represents the data, in the least-square sense [48,49 ], we note, however, that VCA works with projected and with unprojected data. The extraction of the end members exploits two facts: (1) the endmembers are the vertices of a simplex and (2) the affine transformation of a simplex is also a simplex. As PPI and N-FIND R algorithms, VCA also assumes the presence of pure pixels in the data. The algorithm iteratively projects data on to a direction orthogonal to the subspace spanned by the endmembers already determined. The new end member signature corresponds to the extreme of the projection. The algorithm iterates until all end members are exhausted. VCA performs much better than PPI and better than or comparable to N-FI NDR; yet it has a computational complexity between on e and two orders of magnitude lower than N-FINDR. The chapter is structure d as follows. Section 19.2 describes the fundamentals of the proposed method. Section 19.3 and Section 19.4 evaluate the proposed algorithm using simulated and real data, respectively. Section 19.5 presents some concluding remarks.
Resumo:
This paper introduces a new hyperspectral unmixing method called Dependent Component Analysis (DECA). This method decomposes a hyperspectral image into a collection of reflectance (or radiance) spectra of the materials present in the scene (endmember signatures) and the corresponding abundance fractions at each pixel. DECA models the abundance fractions as mixtures of Dirichlet densities, thus enforcing the constraints on abundance fractions imposed by the acquisition process, namely non-negativity and constant sum. The mixing matrix is inferred by a generalized expectation-maximization (GEM) type algorithm. This method overcomes the limitations of unmixing methods based on Independent Component Analysis (ICA) and on geometrical based approaches. DECA performance is illustrated using simulated and real data.
Resumo:
This paper introduces a new method to blindly unmix hyperspectral data, termed dependent component analysis (DECA). This method decomposes a hyperspectral images into a collection of reflectance (or radiance) spectra of the materials present in the scene (endmember signatures) and the corresponding abundance fractions at each pixel. DECA assumes that each pixel is a linear mixture of the endmembers signatures weighted by the correspondent abundance fractions. These abudances are modeled as mixtures of Dirichlet densities, thus enforcing the constraints on abundance fractions imposed by the acquisition process, namely non-negativity and constant sum. The mixing matrix is inferred by a generalized expectation-maximization (GEM) type algorithm. This method overcomes the limitations of unmixing methods based on Independent Component Analysis (ICA) and on geometrical based approaches. The effectiveness of the proposed method is illustrated using simulated data based on U.S.G.S. laboratory spectra and real hyperspectral data collected by the AVIRIS sensor over Cuprite, Nevada.
Resumo:
Thesis presented in partial fulfillment of the requirements for the degree of Doctor of Philosophy in the subject of Electrical and Computer Engineering by the Universidade Nova de Lisboa,Faculdade de Ciências e Tecnologia
Resumo:
A indústria de curtumes é fortemente geradora de resíduos sólidos e águas residuais pelo que a necessidade de criar alternativas para a sua valorização e minimização é premente e constante. Este trabalho teve, como principal objectivo, o aproveitamento da raspa tripa, resíduo da indústria de curtumes. Para tal, a raspa tripa foi sujeita a um processo de hidrólise térmica e/ou enzimática para obtenção de gordura e hidrolisado proteico. Na hidrólise da raspa tripa foi estudada a influência de vários factores como a quantidade de enzima e de água, a temperatura e o tempo. Constatou-se que foi para a temperatura de 60ºC, um tempo de quatro horas, uma quantidade de 2% de enzima e 100% de água, relativamente à massa de raspa utilizada, que se obteve o melhor resultado com um rendimento de extracção de 93%. A partir da gordura obtida foram produzidos óleos por sulfatação e sulfitação, designados por óleos sulfatados e sulfitados, respectivamente. O hidrolisado proteico obtido foi concentrado por evaporação para aumentar o seu teor de sólidos totais. Com este foram produzidos gluproteicos e fillers, por acção de glutaraldeído e do efeito sinérgico de outros produtos. Os óleos, o hidrolisado concentrado e seus derivados foram testados no processo de engorduramento e recurtume do couro. A avaliação dos resultados foi realizada por comparação dos resultados dos testes físico-mecânicos das amostras de pele obtidas com valores de referência e por comparação com um ensaio padrão em que se utilizaram produtos de referência do mercado. Os resultados foram muitos satisfatórios visto que foram superiores aos valores de referência e também superiores aos valores obtidos para o padrão salvo raras excepções. Reconheceu-se assim a aplicabilidade destes produtos no processo de recurtume e engorduramento que também corresponderam no que respeita a características importantes do couro como a firmeza de flor e o toque. No decorrer do trabalho constatou-se que as peles tratadas com hidrolisado proteico apresentavam uma cor mais intensa, pelo que se efectuou um estudo de colorimetria através do método CIELAB. Comprovou-se que o hidrolisado proteico e os gluproteicos quando utilizados no processo de recurtume, por substituição do Fortan A40, intensificam a cor da pele. A valorização da raspa tripa resulta numa dupla vantagem para a indústria dos curtumes. Se por um lado diminui o impacto ambiental que esta origina, por outro lado possibilita a produção de produtos que podem ser substitutos de outros produtos químicos que têm que ser adquiridos por esta indústria.
Resumo:
O presente trabalho, efetuado na Estação de Tratamento de Águas Residuais do Freixo (ETAR do Freixo), decorreu durante um período de nove meses, (entre Dezembro de 2012 e Agosto de 2013), e teve como principais objetivos: - a observação microscópica e respetiva identificação dos organismos presentes nas lamas ativadas dos reatores biológicos da ETAR (incidindo nos protozoários, metazoários e bactérias filamentosas); - estabelecer a relação entre os organismos identificados/quantidade respetiva e a sedimentabilidade das lamas ativadas e sua influência no processo de depuração; - avaliar a variação das espécies identificadas com as alterações processuais. Para o efeito, a metodologia utilizada foi: - a colheita diária de amostras em vários pontos da ETAR; - a determinação dos parâmetros operacionais e caracterização das amostras recolhidas, tendo sido efetuadas 6039 análises físico-químicas, incluindo ao afluente à ETAR, ao afluente e ao conteúdo dos dois reatores biológicos, à corrente de recirculação de lamas e ao efluente; - a visualização diária microscópica ótica sem contraste de fase dos microrganismos presentes nos reatores biológicos; - a visualização microscópica ótica com contraste de fase da microfauna presente nos reatores biológicos, sendo efetuadas 16 identificações e quantificações dos protozoários presentes nas lamas ativadas dos dois reatores e 10 identificações e quantificações das bactérias filamentosas presentes nos dois reatores biológicos. O início do estudo ocorreu num período em que se começou a verificar um aumento excessivo de espumas nos decantadores secundários, resultando numa fraca sedimentabilidade das lamas e numa menor qualidade do efluente final. Na tentativa de reduzir a excessiva ascensão do manto de lamas que se verificou, foram efectuadas alterações operacionais, consistindo: - na alteração da razão de recirculação da decantação secundária para os reatores biológicos; - na introdução de um composto altamente concentrado em matéria orgânica na corrente de recirculação de lamas; - na alteração da extração de lamas biológicas. Verificou-se que as alterações processuais efetuadas foram muito eficazes na diminuição do manto de lamas da decantação secundária, bem como muito eficazes na qualidade do efluente final. Durante os meses de Fevereiro a Agosto fez-se o acompanhamento diário de todas as condições de operação de modo a manter e validar o procedimento de operação, o qual se considerou muito eficaz em termos de obtenção de uma água tratada de excelente qualidade. Durante o estudo efetuado, verificou-se que a população microbiológica existente nos dois reatores biológicos se manteve praticamente inalterada durante todo o período, sendo os móveis de fundo e os sésseis os grupos dominantes. Esta dominância traduziu-se na elevada qualidade do efluente final que se observou a partir do mês de Fevereiro, tendo dificultado o estudo de novas condições de operação, mas facilitando a validação do procedimento adotado. No que se refere às bactérias filamentosas, verificou-se que são diversas as espécies presentes nos reatores biológicos e que existem em grande abundância, sendo que o Tipo 0092 é claramente dominante. O excessivo crescimento deste tipo de bactérias mostrou ser o maior problema a nível microbiológico no processo de tratamento da instalação, tornando-se crítico no período de inverno em que a temperatura e os picos de pluviosidade se mostraram condições favoráveis ao seu desenvolvimento. Para além da temperatura outros fatores mostraram-se responsáveis pelo seu crescimento tais como a razão Alimento/Microrganismo (A/M), a idade das lamas, a carga mássica afluente e o teor de oxigénio dissolvido nos reatores biológicos. Pode-se concluir que apesar de não se trabalhar com os valores teóricos dos parâmetros microbiológicos e operacionais considerados ideais, a ETAR do Freixo, possui um tratamento bastante eficaz na remoção da carga orgânica, na remoção de nutrientes e na remoção de sólidos suspensos totais, apesar da não existência de uma etapa de afinação final como a filtração.
Resumo:
A thesis submitted in fulfilment of the requirements for the Degree of Doctor of Philosophy in Sanitary Engineering in the Faculty of Sciences and Technology of the New University of Lisbon
Resumo:
Staphylococcus aureus binds Immunoglobulin G (IgG) on its external surface due to the presence of specific receptors for the Fc domain of this immunoglobulin. This mechanism represents a kind of camouflage against phagocytic cells. In order to confirm that possibility an in vitro evaluation of the phagocytic activity of leukocytes polymorpho-nuclear (PMN) against strains of Staphylococcus aureus was done, comparing 18 strains isolated from clinical samples and 16 from healthy individuals. The presence of Fc receptors was evaluated by haemagglutination (HA) with erythrocytes group A after incubation of the strains with IgG anti blood group A. Phagocytosis of S. aureus was carried out by mixing live bacteria with a suspension of human PMN and incubating at 37 °C for 1 h; survivors were counted as colony forming units by plating. The strains from clinical specimens showed higher HA than those from healthy individuals (p = 0.01); but the former were killed more efficiently than the latter (80-90% and 40%, respectively). It is may be possible that S. aureus showed different behavior in vivo, where could express other virulence factors to prevent the action of phagocytes.
Resumo:
As aplicações móveis de serviços baseados na localização, denominados LBS (Location-based services), disponibilizam serviços ao utilizador baseadas na sua localização geográfica. Este tipo de serviços começou a surgir ainda na década de 90 e, à medida que o número de dispositivos móveis cresceu de forma exponencial, a sua oferta disparou consideravelmente. Existem várias áreas com aplicabilidade prática, mas o foco desta tese é a pesquisa e localização de pontos de interesse (POI’s). Através dos sensores que os dispositivos móveis atualmente disponibilizam, torna-se possível localizar a posição do utilizador e apresentar-lhe os pontos de interesse que estão situados em seu redor. No entanto essa informação isolada revela-se por vezes insuficiente, uma vez que esses pontos de interesse são à partida desconhecidos para o utilizador. Através do serviço coolplaces, um projeto que pretende dedicar-se à pesquisa e partilha de POI’s, podemos criar a nossa rede de amigos e de locais, beneficiando assim da respetiva informação de contexto de um determinado POI. As inovações tecnológicas permitiram também o aparecimento de aplicações de Realidade Aumentada nos dispositivos móveis, isto é, aplicações capazes de sobrepor imagens virtuais a visualizações do mundo real. Considerando a visualização de POI’s num dado ambiente, se encararmos a Realidade Aumentada como um potenciador da interação do utilizador com o mundo real, rapidamente identificamos as potencialidades da junção destes conceitos numa só aplicação. Sendo assim, o trabalho desenvolvido nesta tese pretende constituir um estudo sobre a implementação e desenvolvimento de um módulo de Realidade Aumentada para a aplicação móvel do serviço coolplaces, fazendo uso da tecnologia disponível no mercado de forma a proporcionar uma experiência inovadora e acrescentar valor à referida aplicação.
Resumo:
Dissertation to obtain a Master Degree in Biotechnology
Resumo:
Na tentativa de se otimizar o processo de fabrico associado a uma tinta base aquosa (TBA), para minimizar os desvios de viscosidade final verificados, e de desenvolver um novo adjuvante plastificante para betão, recorreu-se a métodos e ferramentas estatísticas para a concretização do projeto. Relativamente à TBA, procedeu-se numa primeira fase a um acompanhamento do processo de fabrico, a fim de se obter todos os dados mais relevantes que poderiam influenciar a viscosidade final da tinta. Através de uma análise de capacidade ao parâmetro viscosidade, verificou-se que esta não estava sempre dentro das especificações do cliente, sendo o cpk do processo inferior a 1. O acompanhamento do processo resultou na escolha de 4 fatores, que culminou na realização de um plano fatorial 24. Após a realização dos ensaios, efetuou-se uma análise de regressão a um modelo de primeira ordem, não tendo sido esta significativa, o que implicou a realização de mais 8 ensaios nos pontos axiais. Com arealização de uma regressão passo-a-passo, obteve-se uma aproximação viável a um modelo de segunda ordem, que culminou na obtenção dos melhores níveis para os 4 fatores que garantem que a resposta viscosidade se situa no ponto médio do intervalo de especificação (1400 mPa.s). Quanto ao adjuvante para betão, o objetivo é o uso de polímeros SIKA ao invés da matériaprima comum neste tipo de produtos, tendo em conta o custo final da formulação. Escolheram-se 3 fatores importantes na formulação do produto (mistura de polímeros, mistura de hidrocarbonetos e % de sólidos), que resultou numa matriz fatorial 23. Os ensaios foram realizados em triplicado, em pasta de cimento, um para cada tipo de cimento mais utilizado em Portugal. Ao efetuar-se a análise estatística de dados obtiveram-se modelos de primeira ordem para cada tipo de cimento. O processo de otimização consistiu em otimizar uma função custo associada à formulação, garantindo sempre uma resposta superior à observada pelo produto considerado padrão. Os resultados foram animadores uma vez que se obteve para os 3 tipos de cimentocustos abaixo do requerido e espalhamento acima do observado pelo padrão.
Resumo:
Infraestrutura com mais de um século de história, o Porto de Leixões encontra-se em fase de renovação com a criação de um emblemático Edifício de Terminal de Cruzeiros. Obra de arquitetura arrojada, o edifício é implantado em condições geológico-geotécnicas adversas e na convivência com o efeito da água do mar e das respetivas marés. O presente relatório é relativo a um Estágio realizado na obra numa fase de execução dos trabalhos de fundações e de contenções periféricas (ensecadeira). Apresentam-se as soluções sugeridas em projeto, as soluções apresentadas inicialmente pelo construtor e as alternativas a estas, propostas já durante a obra. Descrevem-se as diferentes soluções, identificando os equipamentos, recursos humanos e procedimentos envolvidos. Comparam-se os respetivos rendimentos e custos. Apresenta-se o Plano de Instrumentação e de Monitorização implementado em obra. Descreve-se em pormenor o trabalho realizado pelo estagiário, em obra, no decurso do estágio.
Resumo:
O elevado consumo de água associado à escassez deste recurso contribuiu para que alternativas de reutilização/reciclagem de água fossem estudadas que permitam diminuir o seu consumo e minimizar a dependência das indústrias. Monitorizar e avaliar os consumos de água, a nível industrial, é imprescindível para assegurar uma gestão sustentável dos recursos hídricos, sendo este o objetivo da presente dissertação. As alternativas encontradas na unidade industrial em estudo foram a substituição do equipamento sanitário e o aproveitamento do efluente tratado para operações de lavagem e/ou arrefecimento por contacto direto. A maioria do equipamento sanitário não é eficiente, tendo-se proposto a substituição desse sistema por um de menor consumo que permitirá uma poupança de 30 % no consumo de água, que corresponderá a 12 149,37 €/ano, sendo o retorno do investimento estimado em 3 meses. O efluente industrial na entrada da ETAR e nas diferentes etapas - tratamento primário de coagulação/floculação; tratamento secundário ou biológico em SBR; tratamento terciário de coagulação/floculação - foi caracterizado através da medição da temperatura, pH, oxigénio dissolvido e pela determinação da cor, turvação, sólidos suspensos totais (SST), azoto total, carência química de oxigénio (CQO), Carência Bioquímica de Oxigénio ao fim de 5 dias (CBO5) e razão CBO5/CQO. Esta caracterização permitiu avaliar o efluente industrial bruto que se caracteriza por um pH alcalino (8,3 ± 1,7); condutividade baixa (451 ± 200,2 μS/cm); elevada turvação (11 255 ± 8812,8 FTU); cor aparente (63 670 ± 42293,4 PtCo) e cor verdadeira (33 621 ± 19547,9 PtCo) elevadas; teores elevados de CQO (24 753 ± 11806,7 mg/L O2) SST (5 164 ± 3845,5 mg/L) e azoto total (718 mg/L) e um índice de biodegradabilidade baixo (razão CBO5/CQO de 1,4). Este estudo permitiu verificar que a eficiência global do tratamento do efluente foi 82 % na remoção da turvação, 83 % na remoção da cor aparente, 96 % na remoção da cor verdadeira, 85 % na remoção da CQO e 30 % na remoção dos SST. Quanto às eficiências de remoção associadas ao tratamento primário no que diz respeito à turvação, cor aparente, CQO e SST, apresentam valores inferiores aos referidos na literatura para o mesmo tipo de tratamento em efluentes similares. As eficiências de remoção obtidas no tratamento secundário são inferiores às do tratamento primário: turvação, cor aparente, CQO e SST, pelo que procurou-se otimizar a primeira etapa do processo de tratamento Neste estudo de otimização estudou-se a influência de cinco coagulantes – Sulfato de Alumínio, PAX XL – 10, PAX 18, cloreto de ferro e a conjugação de PAX 18 com sulfato de ferro - e seis floculantes – Superfloc A 150, Superfloc A 130, PA 1020, Ambifloc 560, Ambifloc C58 e Rifloc 54 - no tratamento físico-químico do efluente. O PAX 18 e o Ambifloc 560 UUJ foram os que apresentaram as mais elevadas eficiências de remoção (99,85 % na cor, 99,87 % na turvação, 90,12 % na CQO e 99,87 % nos SST). O custo associado a este tratamento é de 1,03 €/m3. Pela comparação com os critérios de qualidade no guia técnico ERSAR, apenas o parâmetro da CQO excede o valor, contudo o valor obtido permite diminuir os custos associados a um tratamento posterior para remoção da CQO remanescente no efluente residual tratado.