981 resultados para loved ones


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The objective of this research is the production of concrete with recycled aggregates (RA) from various CDW plants around Portugal. The influence of the RA collection location and consequently of their composition on the characteristics of the concrete produced was analysed. In the mixes produced in this research RA from five plants (Valnor, Vimajas, Ambilei, Europontal and Retria) were used: in three of them coarse and fine RA were analysed and in the remaining ones only coarse RA were used. The experimental campaign comprised two tests in fresh concrete (cone of Abrams slump and density) and eight in hardened concrete (compressive strength in cubes and cylinders, splitting tensile strength, modulus of elasticity, water absorption by immersion and capillarity, carbonation and chloride penetration resistance). It was found that the use of RA causes a quality decrease in concrete. However, there was a wide results scatter according to the plant where the RAs were collected, because of the variation in composition of the RA. It was also found that the use of fine RA causes a more significant performance loss of the concrete properties analysed than the use of coarse RA. © (2015) Trans Tech Publications, Switzerland.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coupling five rigid or flexible bis(pyrazolato)based tectons with late transition metal ions allowed us to isolate 18 coordination polymers (CPs). As assessed by thermal analysis, all of them possess a remarkable thermal stability, their decomposition temperatures lying in the range of 340-500 degrees C. As demonstrated by N-2 adsorption measurements at 77 K, their Langmuir specific surface areas span the rather vast range of 135-1758 m(2)/g, in agreement with the porous or dense polymeric architectures retrieved by powder X-ray diffraction structure solution methods. Two representative families of CPs, built up with either rigid or flexible spacers, were tested as catalysts in (0 the microwave-assisted solvent-free peroxidative oxidation of alcohols by t-BuOOH, and (ii) the peroxidative oxidation of cydohexane to cydohexanol and cydohexanone by H2O2 in acetonitrile. Those CPs bearing the rigid spacer, concurrently possessing higher specific surface areas, are more active than the corresponding ones with the flexible spacer. Moreover, the two copper(I)-containing CPs investigated exhibit the highest efficiency in both reactions, leading selectively to a maximum product yield of 92% (and TON up to 1.5 x 10(3)) in the oxidation of 1-phenylethanol and of 11% in the oxidation of cydohexane, the latter value being higher than that granted by the current industrial process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This review concerns metal-catalyzed reactions of oxidation of alcohols to the respective products, mainly ketones and aldehydes, mostly within the period of 2010–2014. Both conventional and unconventional systems, not only with usual reagents, but also with uncommon and prospective ones, are overviewed, with recently achieved developments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hyperspectral remote sensing exploits the electromagnetic scattering patterns of the different materials at specific wavelengths [2, 3]. Hyperspectral sensors have been developed to sample the scattered portion of the electromagnetic spectrum extending from the visible region through the near-infrared and mid-infrared, in hundreds of narrow contiguous bands [4, 5]. The number and variety of potential civilian and military applications of hyperspectral remote sensing is enormous [6, 7]. Very often, the resolution cell corresponding to a single pixel in an image contains several substances (endmembers) [4]. In this situation, the scattered energy is a mixing of the endmember spectra. A challenging task underlying many hyperspectral imagery applications is then decomposing a mixed pixel into a collection of reflectance spectra, called endmember signatures, and the corresponding abundance fractions [8–10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. Linear mixing model holds approximately when the mixing scale is macroscopic [13] and there is negligible interaction among distinct endmembers [3, 14]. If, however, the mixing scale is microscopic (or intimate mixtures) [15, 16] and the incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [17], the linear model is no longer accurate. Linear spectral unmixing has been intensively researched in the last years [9, 10, 12, 18–21]. It considers that a mixed pixel is a linear combination of endmember signatures weighted by the correspondent abundance fractions. Under this model, and assuming that the number of substances and their reflectance spectra are known, hyperspectral unmixing is a linear problem for which many solutions have been proposed (e.g., maximum likelihood estimation [8], spectral signature matching [22], spectral angle mapper [23], subspace projection methods [24,25], and constrained least squares [26]). In most cases, the number of substances and their reflectances are not known and, then, hyperspectral unmixing falls into the class of blind source separation problems [27]. Independent component analysis (ICA) has recently been proposed as a tool to blindly unmix hyperspectral data [28–31]. ICA is based on the assumption of mutually independent sources (abundance fractions), which is not the case of hyperspectral data, since the sum of abundance fractions is constant, implying statistical dependence among them. This dependence compromises ICA applicability to hyperspectral images as shown in Refs. [21, 32]. In fact, ICA finds the endmember signatures by multiplying the spectral vectors with an unmixing matrix, which minimizes the mutual information among sources. If sources are independent, ICA provides the correct unmixing, since the minimum of the mutual information is obtained only when sources are independent. This is no longer true for dependent abundance fractions. Nevertheless, some endmembers may be approximately unmixed. These aspects are addressed in Ref. [33]. Under the linear mixing model, the observations from a scene are in a simplex whose vertices correspond to the endmembers. Several approaches [34–36] have exploited this geometric feature of hyperspectral mixtures [35]. Minimum volume transform (MVT) algorithm [36] determines the simplex of minimum volume containing the data. The method presented in Ref. [37] is also of MVT type but, by introducing the notion of bundles, it takes into account the endmember variability usually present in hyperspectral mixtures. The MVT type approaches are complex from the computational point of view. Usually, these algorithms find in the first place the convex hull defined by the observed data and then fit a minimum volume simplex to it. For example, the gift wrapping algorithm [38] computes the convex hull of n data points in a d-dimensional space with a computational complexity of O(nbd=2cþ1), where bxc is the highest integer lower or equal than x and n is the number of samples. The complexity of the method presented in Ref. [37] is even higher, since the temperature of the simulated annealing algorithm used shall follow a log( ) law [39] to assure convergence (in probability) to the desired solution. Aiming at a lower computational complexity, some algorithms such as the pixel purity index (PPI) [35] and the N-FINDR [40] still find the minimum volume simplex containing the data cloud, but they assume the presence of at least one pure pixel of each endmember in the data. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. PPI algorithm uses the minimum noise fraction (MNF) [41] as a preprocessing step to reduce dimensionality and to improve the signal-to-noise ratio (SNR). The algorithm then projects every spectral vector onto skewers (large number of random vectors) [35, 42,43]. The points corresponding to extremes, for each skewer direction, are stored. A cumulative account records the number of times each pixel (i.e., a given spectral vector) is found to be an extreme. The pixels with the highest scores are the purest ones. N-FINDR algorithm [40] is based on the fact that in p spectral dimensions, the p-volume defined by a simplex formed by the purest pixels is larger than any other volume defined by any other combination of pixels. This algorithm finds the set of pixels defining the largest volume by inflating a simplex inside the data. ORA SIS [44, 45] is a hyperspectral framework developed by the U.S. Naval Research Laboratory consisting of several algorithms organized in six modules: exemplar selector, adaptative learner, demixer, knowledge base or spectral library, and spatial postrocessor. The first step consists in flat-fielding the spectra. Next, the exemplar selection module is used to select spectral vectors that best represent the smaller convex cone containing the data. The other pixels are rejected when the spectral angle distance (SAD) is less than a given thresh old. The procedure finds the basis for a subspace of a lower dimension using a modified Gram–Schmidt orthogonalizati on. The selected vectors are then projected onto this subspace and a simplex is found by an MV T pro cess. ORA SIS is oriented to real-time target detection from uncrewed air vehicles using hyperspectral data [46]. In this chapter we develop a new algorithm to unmix linear mixtures of endmember spectra. First, the algorithm determines the number of endmembers and the signal subspace using a newly developed concept [47, 48]. Second, the algorithm extracts the most pure pixels present in the data. Unlike other methods, this algorithm is completely automatic and unsupervised. To estimate the number of endmembers and the signal subspace in hyperspectral linear mixtures, the proposed scheme begins by estimating sign al and noise correlation matrices. The latter is based on multiple regression theory. The signal subspace is then identified by selectin g the set of signal eigenvalue s that best represents the data, in the least-square sense [48,49 ], we note, however, that VCA works with projected and with unprojected data. The extraction of the end members exploits two facts: (1) the endmembers are the vertices of a simplex and (2) the affine transformation of a simplex is also a simplex. As PPI and N-FIND R algorithms, VCA also assumes the presence of pure pixels in the data. The algorithm iteratively projects data on to a direction orthogonal to the subspace spanned by the endmembers already determined. The new end member signature corresponds to the extreme of the projection. The algorithm iterates until all end members are exhausted. VCA performs much better than PPI and better than or comparable to N-FI NDR; yet it has a computational complexity between on e and two orders of magnitude lower than N-FINDR. The chapter is structure d as follows. Section 19.2 describes the fundamentals of the proposed method. Section 19.3 and Section 19.4 evaluate the proposed algorithm using simulated and real data, respectively. Section 19.5 presents some concluding remarks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho surge no âmbito da área Electromedicina, uma componente da Engenharia Electrotécnica cada vez mais influente e em permanente desenvolvimento, existindo nela uma constante inovação e tentativa de desenvolvimento e aplicação de novas tecnologias. Este projecto possui como principal objectivo o estudo aprofundado das aplicações da técnica SVD (Singular Value Decomposition), uma poderosa ferramenta matemática que permite a manipulação de sinais através da decomposição de matrizes, ao caso específico do sinal eléctrico obtido através de um electrocardiograma (ECG). Serão discriminados os princípios da operação do sistema eléctrico cardíaco, as principais componentes do sinal ECG (a onda P, o complexo QRS e a onda T) e os fundamentos da técnica SVD. A última fase deste trabalho consistirá na aplicação, em ambiente Matlab, da técnica SVD a sinais ECG concretos, com enfase na sua filtragem, para efeitos de remoção de ruído. De modo verificar as suas vantagens e desvantagens face a outras técnicas, os resultados da filtragem por SVD serão comparados com aqueles obtidos, em condições similares, através da aplicação de um filtro FIR de coeficientes estáticos e de um filtro adaptativo iterativo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A otimização nos sistemas de suporte à decisão atuais assume um carácter fortemente interdisciplinar relacionando-se com a necessidade de integração de diferentes técnicas e paradigmas na resolução de problemas reais complexos, sendo que a computação de soluções ótimas em muitos destes problemas é intratável. Os métodos de pesquisa heurística são conhecidos por permitir obter bons resultados num intervalo temporal aceitável. Muitas vezes, necessitam que a parametrização seja ajustada de forma a permitir obter bons resultados. Neste sentido, as estratégias de aprendizagem podem incrementar o desempenho de um sistema, dotando-o com a capacidade de aprendizagem, por exemplo, qual a técnica de otimização mais adequada para a resolução de uma classe particular de problemas, ou qual a parametrização mais adequada de um dado algoritmo num determinado cenário. Alguns dos métodos de otimização mais usados para a resolução de problemas do mundo real resultaram da adaptação de ideias de várias áreas de investigação, principalmente com inspiração na natureza - Meta-heurísticas. O processo de seleção de uma Meta-heurística para a resolução de um dado problema é em si um problema de otimização. As Híper-heurísticas surgem neste contexto como metodologias eficientes para selecionar ou gerar heurísticas (ou Meta-heurísticas) na resolução de problemas de otimização NP-difícil. Nesta dissertação pretende-se dar uma contribuição para o problema de seleção de Metaheurísticas respetiva parametrização. Neste sentido é descrita a especificação de uma Híperheurística para a seleção de técnicas baseadas na natureza, na resolução do problema de escalonamento de tarefas em sistemas de fabrico, com base em experiência anterior. O módulo de Híper-heurística desenvolvido utiliza um algoritmo de aprendizagem por reforço (QLearning), que permite dotar o sistema da capacidade de seleção automática da Metaheurística a usar no processo de otimização, assim como a respetiva parametrização. Finalmente, procede-se à realização de testes computacionais para avaliar a influência da Híper- Heurística no desempenho do sistema de escalonamento AutoDynAgents. Como conclusão genérica, é possível afirmar que, dos resultados obtidos é possível concluir existir vantagem significativa no desempenho do sistema quando introduzida a Híper-heurística baseada em QLearning.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The main objective of this work is to report on the development of a multi-criteria methodology to support the assessment and selection of an Information System (IS) framework in a business context. The objective is to select a technological partner that provides the engine to be the basis for the development of a customized application for shrinkage reduction on the supply chains management. Furthermore, the proposed methodology di ers from most of the ones previously proposed in the sense that 1) it provides the decision makers with a set of pre-defined criteria along with their description and suggestions on how to measure them and 2)it uses a continuous scale with two reference levels and thus no normalization of the valuations is required. The methodology here proposed is has been designed to be easy to understand and use, without a specific support of a decision making analyst.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A sustentabilidade energética do planeta é uma preocupação corrente e, neste sentido, a eficiência energética afigura-se como sendo essencial para a redução do consumo em todos os setores de atividade. No que diz respeito ao setor residencial, o indevido comportamento dos utilizadores aliado ao desconhecimento do consumo dos diversos aparelhos, são factores impeditivos para a redução do consumo energético. Uma ferramenta importante, neste sentido, é a monitorização de consumos nomeadamente a monitorização não intrusiva, que apresenta vantagens económicas relativamente à monitorização intrusiva, embora levante alguns desafios na desagregação de cargas. Abordou-se então, neste documento, a temática da monitorização não intrusiva onde se desenvolveu uma ferramenta de desagregação de cargas residenciais, sobretudo de aparelhos que apresentavam elevados consumos. Para isso, monitorizaram-se os consumos agregados de energia elétrica, água e gás de seis habitações do município de Vila Nova de Gaia. Através da incorporação dos vetores de água e gás, a acrescentar ao da energia elétrica, provou-se que a performance do algoritmo de desagregação de aparelhos poderá aumentar, no caso de aparelhos que utilizem simultaneamente energia elétrica e água ou energia elétrica e gás. A eficiência energética é também parte constituinte deste trabalho e, para tal, implementaram-se medidas de eficiência energética para uma das habitações em estudo, de forma a concluir as que exibiam maior potencial de poupança, assim como rápidos períodos de retorno de investimento. De um modo geral, os objetivos propostos foram alcançados e espera-se que num futuro próximo, a monitorização de consumos não intrusiva se apresente como uma solução de referência no que respeita à sustentabilidade energética do setor residencial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo tem como objetivos: (1) conhecer as práticas desenvolvidas numa organização do Ensino Superior Público Português; (2) conhecer a tipologia das práticas de GRH de cariz tradicional e de cariz estratégico; (3) perceber em que medida as práticas de GRH estão relacionadas com a área de qualificação dos responsáveis do departamento de RH; (4) averiguar o grau de satisfação que os trabalhadores sentem com as Práticas de Gestão de Recursos Humanos desenvolvidas e a sua relação com a área de qualificação dos responsáveis do departamento de RH. Foi utilizada uma metodologia mista, que possibilita ampliar a obtenção de resultados em abordagens investigativas, proporcionando ganhos relevantes para a pesquisa. É realizado um primeiro estudo exploratório, que utiliza uma metodologia mista quantitativa e qualitativa, com recurso a uma entrevista semiestruturada e inquérito realizados aos responsáveis de RH, e que tem como objetivos identificar e caracterizar as Práticas de GRH vigentes na Organização e, consequentemente, averiguar se se aproximam das designadas na literatura, assim como averiguar o grau de intervenção do DRH no desenvolvimento das PGRH e caraterizar o perfil do responsável de RH na Organização, averiguando se a área de formação de RH influencia as Práticas de GRH desenvolvidas. No segundo estudo, recorremos a uma metodologia quantitativa com recurso ao inquérito por questionário, aplicado aos trabalhadores que exercem funções a tempo integral, para averiguar o grau de satisfação dos trabalhadores em relação às Práticas de Gestão de Recursos Humanos. Na compilação dos dois estudos foi nosso objetivo obter respostas às questões que orientaram a nossa investigação. Na parte final da dissertação são discutidos os principais resultados obtidos e apresentadas as conclusões do estudo aqui levado a cabo. Os resultados sugerem que: 1) as PGRH existentes são essencialmente de cariz tradicional, em especial a gestão administrativa; 2) as PGRH predominantes são: o Planeamento de Recursos Humanos, a Análise e Descrição de Funções, o Recrutamento e Seleção, a Formação e Desenvolvimento, a Gestão Administrativa, a Comunicação e a Partilha de Informação, Ética e Deontologia e o Estatuto Disciplinar; 3) existe pouco recurso ao outsourcing para as PGRH; 4) o grau de intervenção DRH baseia-se em atividades de cariz mais administrativo; 5) as práticas tradicionais de RH são aquelas que requerem mais tempo ao DRH; 6) não existe relação entre o tipo de PGRH e a área de qualificação do responsável do DRH; 7) as PGRH são realizadas seguindo essencialmente as normas legais e regras rígidas da GRH na AP; 8) algumas PGRH não são entendidas em contexto da AP, como importantes pelos gestores, embora já sejam desenvolvidos alguns procedimentos dessas práticas; 9) a PGRH da formação e desenvolvimento não é corretamente desenvolvida e não dá cumprimento ao estipulado na lei; 10) a gestão de carreiras e o sistema de compensação e recompensas são entendidas como inexistentes, porque não existem promoções e progressões desde 2005; 11) a avaliação do desempenho é um sistema burocrático e ritualista com fins de promoção e compensação, sem efeitos práticos no momento atual, e que causa insatisfação e o sentimento de injustiça; 12) existem problemas de comunicação quanto a partilha e uniformização de procedimentos entre UO; 13) a satisfação dos trabalhadores é maior com as PGRH de tipo tradicional, nomeadamente na gestão administrativa, recrutamento e seleção, análise e descrição de funções, acolhimento, integração e socialização 14) a satisfação é menor na gestão de carreiras, no sistema de compensação e recompensas e na avaliação do desempenho; 15) quanto a relação entre o grau de satisfação e as características sócio demográficas e profissionais dos inquiridos, os casos com significância mostram que os trabalhadores com 10 ou mais anos de antiguidade tendem a sentir mais satisfação com as práticas em GRH; 16) existe mais satisfação dos trabalhadores das UO onde o responsável de DRH possui formação na área de RH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Master’s Thesis in Computer Engineering

Relevância:

10.00% 10.00%

Publicador:

Resumo:

To evaluate whether the intensity of the hepatic granulomatous response induced by S. mansoni eggs plays a role in drug metabolism, mice were infected with 40 cercariae and tested to assess the sodic pentobarbital induced sleeping-time. To decrease the inflammatory reaction the animals were irradiated with 400 Rad or received azathioprine, 20mg/kg, 3 times a week, for 4 weeks, respectively in or beginning in the 33th post-infection day. In infected animals receiving azathioprine the area of the hepatic granulomas was smaller and the sleeping-time was similar to that of non-infected ones (controls). In mice infected and irradiated the granuloma dimensions were similar to those of animals only infected, in these two latter groups of animals, the sleeping-time was more prolonged than that of the control animals. These results show that: 1) mice with unaltered hepatic granulomatous reaction show reduction in metabolism of sodic pentobarbital; 2) granulomatous response diminished by azathioprine does not interfere with the capacity of metabolism of the anesthetic drug.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada para obtenção do Grau de Doutor em Conservação e Restauro, especialidade de Ciências da Conservação, pela Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

At this moment, the duality of species suggested for E. histolytica is being considered for discussion. In order to contribute to settling this question, we investigated the possibility of conversion of avirulent ameba to virulent ones, as well as, the possibility of increasing virulence of virulent strains, by means of association with bacteria. Five strains of E. histolytica were employed, two of them regarded as avirulent and three virulent ones. Amebas were associated with the bacteria Escherichia coli 055 and 0115, previously demonstrated as capable to modify the pathogenic behavior of E. histolytica. Changes in virulence of amebas were assessed by cytopathic effect upon cultured mammal cells and erythrophagocytosis. The virulence of pathogenic strains was significantly increased after bacteria association in opposition to what was observed for nonpathogenic ones, which were not influenced by bacteria association.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciência e Tecnologia da Universidade Nova de Lisboa para a obtenção do grau de Mestre em Engenharia Electrotécnica e de Computadores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada para a obtenção do Grau de Doutor em Conservação e Restauro, especialidade Ciências da Conservação, pela Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia