902 resultados para Validation and certification competences process


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The development of high spatial resolution airborne and spaceborne sensors has improved the capability of ground-based data collection in the fields of agriculture, geography, geology, mineral identification, detection [2, 3], and classification [4–8]. The signal read by the sensor from a given spatial element of resolution and at a given spectral band is a mixing of components originated by the constituent substances, termed endmembers, located at that element of resolution. This chapter addresses hyperspectral unmixing, which is the decomposition of the pixel spectra into a collection of constituent spectra, or spectral signatures, and their corresponding fractional abundances indicating the proportion of each endmember present in the pixel [9, 10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. The linear mixing model holds when the mixing scale is macroscopic [13]. The nonlinear model holds when the mixing scale is microscopic (i.e., intimate mixtures) [14, 15]. The linear model assumes negligible interaction among distinct endmembers [16, 17]. The nonlinear model assumes that incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [18]. Under the linear mixing model and assuming that the number of endmembers and their spectral signatures are known, hyperspectral unmixing is a linear problem, which can be addressed, for example, under the maximum likelihood setup [19], the constrained least-squares approach [20], the spectral signature matching [21], the spectral angle mapper [22], and the subspace projection methods [20, 23, 24]. Orthogonal subspace projection [23] reduces the data dimensionality, suppresses undesired spectral signatures, and detects the presence of a spectral signature of interest. The basic concept is to project each pixel onto a subspace that is orthogonal to the undesired signatures. As shown in Settle [19], the orthogonal subspace projection technique is equivalent to the maximum likelihood estimator. This projection technique was extended by three unconstrained least-squares approaches [24] (signature space orthogonal projection, oblique subspace projection, target signature space orthogonal projection). Other works using maximum a posteriori probability (MAP) framework [25] and projection pursuit [26, 27] have also been applied to hyperspectral data. In most cases the number of endmembers and their signatures are not known. Independent component analysis (ICA) is an unsupervised source separation process that has been applied with success to blind source separation, to feature extraction, and to unsupervised recognition [28, 29]. ICA consists in finding a linear decomposition of observed data yielding statistically independent components. Given that hyperspectral data are, in given circumstances, linear mixtures, ICA comes to mind as a possible tool to unmix this class of data. In fact, the application of ICA to hyperspectral data has been proposed in reference 30, where endmember signatures are treated as sources and the mixing matrix is composed by the abundance fractions, and in references 9, 25, and 31–38, where sources are the abundance fractions of each endmember. In the first approach, we face two problems: (1) The number of samples are limited to the number of channels and (2) the process of pixel selection, playing the role of mixed sources, is not straightforward. In the second approach, ICA is based on the assumption of mutually independent sources, which is not the case of hyperspectral data, since the sum of the abundance fractions is constant, implying dependence among abundances. This dependence compromises ICA applicability to hyperspectral images. In addition, hyperspectral data are immersed in noise, which degrades the ICA performance. IFA [39] was introduced as a method for recovering independent hidden sources from their observed noisy mixtures. IFA implements two steps. First, source densities and noise covariance are estimated from the observed data by maximum likelihood. Second, sources are reconstructed by an optimal nonlinear estimator. Although IFA is a well-suited technique to unmix independent sources under noisy observations, the dependence among abundance fractions in hyperspectral imagery compromises, as in the ICA case, the IFA performance. Considering the linear mixing model, hyperspectral observations are in a simplex whose vertices correspond to the endmembers. Several approaches [40–43] have exploited this geometric feature of hyperspectral mixtures [42]. Minimum volume transform (MVT) algorithm [43] determines the simplex of minimum volume containing the data. The MVT-type approaches are complex from the computational point of view. Usually, these algorithms first find the convex hull defined by the observed data and then fit a minimum volume simplex to it. Aiming at a lower computational complexity, some algorithms such as the vertex component analysis (VCA) [44], the pixel purity index (PPI) [42], and the N-FINDR [45] still find the minimum volume simplex containing the data cloud, but they assume the presence in the data of at least one pure pixel of each endmember. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. Hyperspectral sensors collects spatial images over many narrow contiguous bands, yielding large amounts of data. For this reason, very often, the processing of hyperspectral data, included unmixing, is preceded by a dimensionality reduction step to reduce computational complexity and to improve the signal-to-noise ratio (SNR). Principal component analysis (PCA) [46], maximum noise fraction (MNF) [47], and singular value decomposition (SVD) [48] are three well-known projection techniques widely used in remote sensing in general and in unmixing in particular. The newly introduced method [49] exploits the structure of hyperspectral mixtures, namely the fact that spectral vectors are nonnegative. The computational complexity associated with these techniques is an obstacle to real-time implementations. To overcome this problem, band selection [50] and non-statistical [51] algorithms have been introduced. This chapter addresses hyperspectral data source dependence and its impact on ICA and IFA performances. The study consider simulated and real data and is based on mutual information minimization. Hyperspectral observations are described by a generative model. This model takes into account the degradation mechanisms normally found in hyperspectral applications—namely, signature variability [52–54], abundance constraints, topography modulation, and system noise. The computation of mutual information is based on fitting mixtures of Gaussians (MOG) to data. The MOG parameters (number of components, means, covariances, and weights) are inferred using the minimum description length (MDL) based algorithm [55]. We study the behavior of the mutual information as a function of the unmixing matrix. The conclusion is that the unmixing matrix minimizing the mutual information might be very far from the true one. Nevertheless, some abundance fractions might be well separated, mainly in the presence of strong signature variability, a large number of endmembers, and high SNR. We end this chapter by sketching a new methodology to blindly unmix hyperspectral data, where abundance fractions are modeled as a mixture of Dirichlet sources. This model enforces positivity and constant sum sources (full additivity) constraints. The mixing matrix is inferred by an expectation-maximization (EM)-type algorithm. This approach is in the vein of references 39 and 56, replacing independent sources represented by MOG with mixture of Dirichlet sources. Compared with the geometric-based approaches, the advantage of this model is that there is no need to have pure pixels in the observations. The chapter is organized as follows. Section 6.2 presents a spectral radiance model and formulates the spectral unmixing as a linear problem accounting for abundance constraints, signature variability, topography modulation, and system noise. Section 6.3 presents a brief resume of ICA and IFA algorithms. Section 6.4 illustrates the performance of IFA and of some well-known ICA algorithms with experimental data. Section 6.5 studies the ICA and IFA limitations in unmixing hyperspectral data. Section 6.6 presents results of ICA based on real data. Section 6.7 describes the new blind unmixing scheme and some illustrative examples. Section 6.8 concludes with some remarks.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Trabalho apresentado no âmbito do Mestrado em Engenharia Informática, como requisito parcial para obtenção do grau de Mestre em Engenharia Informática

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Parasites of the genus Schistosoma were among the first metazoans to develop separate sexes, which is chromosomally determined in the fertilized egg. Despite the occurrence of specific sex chromosomes, the females of most Schistosomatidae species do not complete their somatic development and reach no sexual maturity without the presence of males. Indeed, the most controversial and at the same time most fascinating aspect about the sexual development of Schistosoma females lies on discover the nature of the stimulus produced by males that triggers and controls this process. Although the nature of the stimulus (physical or chemical) is a source of controversy, there is agreement that mating is a necessary requirement for maturation to occur and for migration of the female to a definitive final site of residence in the vascular system of the vertebrate host. It has also been proposed that the stimulus is not species-specific and, in some cases, not even genus-specific. Despite a vast literature on the subject, the process or processes underlying the meeting of males and females in the circulatory system have not been determined and as yet no consensus exists about the nature of the stimulus that triggers and maintains female development. In the studies about their role, Schistosoma males have been considered, at times pejoratively, the brother, the muscles or even the liver of females. Indeed, it still remains to be determined whether the stimulus responsible for female maturation involves the transfer of hormones, nutrients, neuromediators, mere tactile stimulation or a combination of chemotactic and thigmotactic factors

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação de Mestrado em Gestão Integrada da Qualidade, Ambiente e Segurança

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In today’s highly competitive market, it is critical to provide customers services with a high level of configuration to answer their business needs. Knowing in advance the performance associated with a specific choreography of services (e.g., by taking into account the expected results of each component service) represents an important asset that allows businesses to provide a global service tailored to customers’ specific requests. This research work aims at advancing the state-of-the-art in this area by proposing an approach for service selection and ranking using services choreography, predicting the behavior of the services considering customers’ requirements and preferences, business process constraints and characteristics of the execution environment.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O marketing transacional apresenta-se nos dias de hoje insuficiente para fazer face às exigências de um consumidor mais participativo, seletivo e crítico. No mercado global, industrializado e em constante evolução tecnológica, é, cada vez mais, difícil obter um grau de diferenciação assente apenas nos benefícios funcionais e racionais. O marketing transacional evoluiu para o marketing relacional, constituindo o cliente o centro do processo de trocas. A economia das experiências alterou a forma como as marcas trabalham o mercado, introduzindo o conceito de experiências, o que por sua vez conceptualizou o marketing experiencial, orientado para a gestão da experiência do cliente, transformando o ato de consumo em algo memorável, cheio de estímulos sensoriais e emocionais, convertendo-se, por vezes, no próprio produto, seja ele de âmbito industrial, desportivo ou mesmo cultural. Este grau de envolvimento do cliente com a marca é elemento gerador de emoção, de satisfação, de lealdade e de valor. Este trabalho pretendeu analisar a importância e os componentes estimuladores do marketing experiencial e a sua relação com as emoções, satisfação e a lealdade dos consumidores no evento cultural “Serralves em festa 2013”. Para tal, utilizamos uma metodologia de investigação quantitativa, com recurso a análise de equações estruturais, suportada por uma pesquisa teórica. O estudo empírico realizado, baseado num inquérito por questionário, possibilitou obter uma amostra de 264 respostas válidas. Após a validação e melhoria das escalas de medida dos conceitos, os resultados destas e do modelo estrutural demonstraram valores adequados. Estudaram-se e comprovaram-se as relações previstas nas hipóteses, nomeadamente, a relação positiva do impacto das experiências no comportamento do consumidor, designadamente, na sua emoção e satisfação e o impacto destas na sua lealdade. Entre as variáveis estudadas foram obtidos interessantes níveis de correlação e capacidades preditivas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Currently excessive fossil fuel consumption has become a serious problem. People are searching for new solutions of energy production and there are several options to obtain alternative sources of energy without further devastating the already destroyed environment. One of these solutions is growing microalgae, from which biodiesel can be obtained. The microalgae production is a growing business because of its many useful compounds. In order to collect these compounds microalgae must first be harvested and then dried. Nowadays the solutions used for drying use too much energy and therefore are too expensive and not sustainable. The goal of this project, one of the possible choices during the EPS@ISEP 2013 Spring, was to develop a solar microalgae dryer. The multinational team involved in its development was composed of five students, from distinct countries and fields of study, and was the responsible for designing a solar microalgae dryer prototype for the microalgae laboratory of the chemical engineering department at ISEP, suitable for future tests and incorporating control process (in order not to destroy the microalgae during the drying process). The solar microalgae dryer was built to work as a distiller that gets rid of the excess water from the microalgae suspension. This paper presents a possible solution for this problem, the steps to create the device to harvest the microalgae by drying them with the use of solar energy (also used as an energy source for the solar dryer control system), the technologies used to build the solar microalgae dryer, and the benefits it presents compared to current solutions. It also presents the device from the ethical and sustainable viewpoint. Such alternative to already existing methods is competitive as far as energy usage is concerned.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

São descritos os princípios fundamentais da Declaração de Bolonha e algumas alterações que ela pressupõe. Evoca-se a história da formação dita BAD, em Portugal, destacando-se o aparecimento das primeiras licenciaturas nacionais, dentre as quais a de Ciências e Tecnologias da Documentação e Informação (CTDI) da Escola Superior de Estudos Industriais e de Gestão do Instituto Politécnico do Porto, demonstrando-se o modo como foi feita a adequação da referida licenciatura de CTDI, ao abrigo de Bolonha, e sublinhando-se, no novo modelo de ensinoaprendizagem, o protagonismo, a autonomia e a responsabilização dos alunos. Caracteriza-se a actual licenciatura multidisciplinar, de banda larga, referindo-se as competências que um licenciado deve adquirir, tendo em conta a necessidade do surgimento de um novo perfil para os actuais Profissionais da Informação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This research focuses on the influence of company sector and size on the level of utilization of Basic and Advanced Quality Tools. The paper starts with a literature review and then presents the methodology used for the survey. Based on the responses from 202 managers of Portuguese ISO 9001:2008 Quality Management System certified organizations, statistical tests were performed. Results show, with 95% confidence level, that industry and services have a similar proportion of use of Basic and Advanced Quality Tools. Concerning size, bigger companies show a higher trend to use Advanced Quality Tools than smaller ones. For Basic Quality Tools, there was no statistical significant difference at a 95% confidence level for different company sizes. The three basic Quality tools with higher utilization were Check sheets, Flow charts and Histograms (for Services) or Control Charts/ (for Industry), however 22% of the surveyed organizations reported not using Basic Quality Tools, which highlights a major improvement opportunity for these companies. Additional studies addressing motivations, benefits and barriers for Quality Tools application should be undertaken for further validation and understanding of these results.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Elaborado com vista à reflexão fundamentada acerca do percurso, das práticas educativas e das políticas de ensino, o presente trabalho pretende reunir um conjunto de saberes inerentes à atividade docente. Relacionando teorias e práticas no âmbito do ensino da música, a apresentação de uma filosofia de trabalho, congregando como eixo estruturante a prática musical supervisionada realizada no âmbito do ensino vocacional, apresenta-se como pano de fundo à análise dos vários conteúdos referentes à literatura específica inerente à prática pedagógica. Partindo da caracterização da escola do ensino vocacional de música, nos ensinos Básico e Secundário, a presente reflexão emerge no seguimento do pensamento articulado das várias áreas do saber através da apreciação, fundamentação e discussão das perspetivas de ensino vigentes ao longo do processo de estágio. Deste modo, será exposta toda a perspetiva de ensino por nós desenvolvida, partindo de uma linha temporal, tendo por princípio a descrição de um plano modelo, com o objetivo de podermos demonstrar a direção do nosso pensamento. Tendo como objetivo verificar a eficácia da abordagem ao jogo, como estratégia de ensino, na aprendizagem do ritmo, na disciplina de Formação Musical, partimos de uma investigação bibliográfica sobre a relação entre a escola tradicional e a escola moderna, o jogo e a motivação, e por último, a aprendizagem do ritmo sobre a perspetiva das atividades de aprendizagem sequencial, sustentadas por Edwin Gordon. O projeto de investigação aborda uma nova conceção do jogo, aliando o mesmo às atividades de leitura rítmicas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este documento apresenta uma avaliação sobre o uso dos simuladores fisiológicos como padrão para avaliação metrológica dos esfigmomanómetros automáticos na estimação da pressão sanguínea pelo método não invasivo (PNI). O presente estudo procurou avaliar o enquadramento destes equipamentos com os procedimentos das normas e recomendações usadas para apreciação metrológica dos esfigmomanómetros digitais. No contexto da prática metrológica existente determinou-se a existência de uma oportunidade de melhoria nos processos relacionados. O trabalho procurou obter resposta a diversas questões, relacionando a medição da pressão pelo método não invasivo, com o uso dos simuladores fisiológicos, o contexto em que estes podem ser usados, as formas de simulação, as medições e os resultados, procurando a perspetiva metrológica como enquadramento. As recomendações existentes [1] [2] [3] [4] [5] [6] [7] [8], são muito claras nos procedimentos, validação e nos desvios permitidos para os monitores da tensão arterial (MTA), equipamento que permite a avaliação dos parâmetros fisiológicos do paciente, no entanto, quando se pretende avançar para outro domínio, como o do uso dos simuladores, em particular para a simulação da PNI, não existem recomendações ou normas tão claras, e não existe sobretudo um padrão de referência que imite a natureza dinâmica que caracteriza a pressão sanguínea. O trabalho procurou ainda estabelecer a ligação entre o método clássico de auscultação (o principio de determinação da PS), a técnica digital de medição e os simuladores, para uma melhor compreensão do que é a pressão sanguínea, e como relacionar a problemática da simulação e a de um padrão de referência. Neste trabalho estão ainda presentes abordagens a diversos tópicos, como as validações clínicas, acessórios, ou a metrologia e que influenciam no final os equipamentos e o contexto que se pretende avaliar. Os diversos equipamentos testados procuraram conter amostras diversificadas, quer para os MTA de uso profissional ou doméstico, assim como para os simuladores. A avaliação dos simuladores foi realizada contra um grupo de MTAs. Foi testada a influência na medição, causada pela mudança de acessórios, ou seja, nos resultados, merecendo consideração pela perspetiva metrológica. No resumo dos testes e do estudo sobre este tema, verificou-se que esta tipologia de equipamentos pode contribuir como complemento do processo de calibração típico (estático). Não constitui por si só um método alternativo, mas permitiu estimar possíveis limites de erro e desvio padrão a partir da observação dos resultados práticos, limites esses inferiores aos processos de validação clínica. Atendendo às particularidades, estimou-se como desvio aceitável um erro mais desvio padrão de 5 + 3 mmHg para o processo de simulação. Contudo considera-se ainda importante os testes adicionais em que o simulador permite, ao verificar as medidas de segurança implementadas no equipamento e a condição dos acessórios, que como verificado afetam os resultados. No entanto nem todos os simuladores se mostram adequados a este processo pelo que a qualidade da seleção do equipamento para este fim pode eventualmente reduzir ainda mais os possíveis limites.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este estudo tem como principal objetivo compreender as mudanças na função recursos humanos após a certificação do sistema de gestão de recursos humanos de uma empresa no âmbito da Norma Portuguesa 4427:2004 – “Sistemas de gestão de recursos humanos – requisitos”. Neste sentido, foi realizada uma abordagem teórica à evolução da função recursos humanos, apresentada a NP 4427:2004 e a contextualização teórica e normativa das práticas de gestão de recursos humanos desenvolvidas nesse âmbito. De forma a dar resposta à questão de pesquisa foi utilizada uma metodologia qualitativa, com recurso ao estudo de caso único numa empresa portuguesa certificada no âmbito da NP 4427:2004. No processo de recolha de dados recorremos à análise documental e à realização de entrevistas aos treze colaboradores vinculados à empresa desde data anterior à certificação. Os resultados sugerem mudanças ao nível da atuação da gestão de recursos humanos na empresa que, com a implementação e certificação pela NP 4427:2004, se tornou mais estratégica e dinamizadora de práticas de recursos humanos sistematizadas e preocupadas com o desenvolvimento das pessoas. Depois de apresentados e discutidos os resultados, o estudo apresenta também sugestões de pesquisa futura sobre o tema da NP 4427:2004 e contributos práticos da investigação para a empresa objeto de estudo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Numa era global marcada por avanços tecnológicos e pela diversidade cultural e linguística, é necessária uma nova linha de pensamento educativo e didático que conduza à formação de falantes cada vez mais pluriculturais e plurilingues, capazes de compreender, respeitar e interagir com outros povos e culturas. O desenvolvimento de competências comunicativas em, pelo menos, dois idiomas do espaço europeu é uma das medidas promovidas pelas politicas linguísticas europeias, que visam preparar os cidadãos para um diálogo intercultural, que fomente o respeito e a abertura face a essas diferenças, e pela construção de uma identidade intercultural e plurilingue nos próprios cidadãos exercendo, assim, a sua cidadania. Este paradigma tem implicações quer na aula de Língua Estrangeira, como ferramenta que permite ao aluno a ampliar a sua visão do mundo, quer no papel do professor, que nela intervém, enquanto, responsável pela construção social e formativa dos seus aprendentes. Estrutura-se, assim, um modelo educativo que abraça todas as culturas e reportórios linguísticos presentes dentro e fora do âmbito escolar. Neste relatório de estágio, resultante da prática pedagógica centrada no ensino do Inglês e do Espanhol, teci uma reflexão crítica sobre os diferentes cenários pedagógicos construídos durante três semestres académicos, com alunos portugueses do Ensino Básico. O fio condutor de toda a prática desenvolvida centrou-se no paradigma da abordagem intercultural e, com base nessa linha de pensamento, propus-me aferir os contributos que as minhas opções metodológicas tiveram quer no processo de aprendizagem dos meus alunos, quer na sua construção pessoal e social.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertation submitted in partial fulfillment of the requirements for the Degree of Master of Science in Geospatial Technologies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação apresentada como requisito parcial para obtenção do grau de Mestre em Estatística e Gestão de Informação