57 resultados para face recognition algorithms

em Repositório Científico do Instituto Politécnico de Lisboa - Portugal


Relevância:

30.00% 30.00%

Publicador:

Resumo:

The use of iris recognition for human authentication has been spreading in the past years. Daugman has proposed a method for iris recognition, composed by four stages: segmentation, normalization, feature extraction, and matching. In this paper we propose some modifications and extensions to Daugman's method to cope with noisy images. These modifications are proposed after a study of images of CASIA and UBIRIS databases. The major modification is on the computationally demanding segmentation stage, for which we propose a faster and equally accurate template matching approach. The extensions on the algorithm address the important issue of pre-processing that depends on the image database, being mandatory when we have a non infra-red camera, like a typical WebCam. For this scenario, we propose methods for reflection removal and pupil enhancement and isolation. The tests, carried out by our C# application on grayscale CASIA and UBIRIS images show that the template matching segmentation method is more accurate and faster than the previous one, for noisy images. The proposed algorithms are found to be efficient and necessary when we deal with non infra-red images and non uniform illumination.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação apresentada à Escola Superior de Educação de Lisboa para obtenção do grau de Mestre em Ciências da Educação - Especialização em Educação Especial, Domínio Cognição e Multideficiência

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações

Relevância:

30.00% 30.00%

Publicador:

Resumo:

3D laser scanning is becoming a standard technology to generate building models of a facility's as-is condition. Since most constructions are constructed upon planar surfaces, recognition of them paves the way for automation of generating building models. This paper introduces a new logarithmically proportional objective function that can be used in both heuristic and metaheuristic (MH) algorithms to discover planar surfaces in a point cloud without exploiting any prior knowledge about those surfaces. It can also adopt itself to the structural density of a scanned construction. In this paper, a metaheuristic method, genetic algorithm (GA), is used to test this introduced objective function on a synthetic point cloud. The results obtained show the proposed method is capable to find all plane configurations of planar surfaces (with a wide variety of sizes) in the point cloud with a minor distance to the actual configurations. © 2014 IEEE.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação apresentada à Escola Superior de Educação de Lisboa para obtenção de grau de mestre em Ciências da Educação, especialidade Supervisão em Educação

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The development of high spatial resolution airborne and spaceborne sensors has improved the capability of ground-based data collection in the fields of agriculture, geography, geology, mineral identification, detection [2, 3], and classification [4–8]. The signal read by the sensor from a given spatial element of resolution and at a given spectral band is a mixing of components originated by the constituent substances, termed endmembers, located at that element of resolution. This chapter addresses hyperspectral unmixing, which is the decomposition of the pixel spectra into a collection of constituent spectra, or spectral signatures, and their corresponding fractional abundances indicating the proportion of each endmember present in the pixel [9, 10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. The linear mixing model holds when the mixing scale is macroscopic [13]. The nonlinear model holds when the mixing scale is microscopic (i.e., intimate mixtures) [14, 15]. The linear model assumes negligible interaction among distinct endmembers [16, 17]. The nonlinear model assumes that incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [18]. Under the linear mixing model and assuming that the number of endmembers and their spectral signatures are known, hyperspectral unmixing is a linear problem, which can be addressed, for example, under the maximum likelihood setup [19], the constrained least-squares approach [20], the spectral signature matching [21], the spectral angle mapper [22], and the subspace projection methods [20, 23, 24]. Orthogonal subspace projection [23] reduces the data dimensionality, suppresses undesired spectral signatures, and detects the presence of a spectral signature of interest. The basic concept is to project each pixel onto a subspace that is orthogonal to the undesired signatures. As shown in Settle [19], the orthogonal subspace projection technique is equivalent to the maximum likelihood estimator. This projection technique was extended by three unconstrained least-squares approaches [24] (signature space orthogonal projection, oblique subspace projection, target signature space orthogonal projection). Other works using maximum a posteriori probability (MAP) framework [25] and projection pursuit [26, 27] have also been applied to hyperspectral data. In most cases the number of endmembers and their signatures are not known. Independent component analysis (ICA) is an unsupervised source separation process that has been applied with success to blind source separation, to feature extraction, and to unsupervised recognition [28, 29]. ICA consists in finding a linear decomposition of observed data yielding statistically independent components. Given that hyperspectral data are, in given circumstances, linear mixtures, ICA comes to mind as a possible tool to unmix this class of data. In fact, the application of ICA to hyperspectral data has been proposed in reference 30, where endmember signatures are treated as sources and the mixing matrix is composed by the abundance fractions, and in references 9, 25, and 31–38, where sources are the abundance fractions of each endmember. In the first approach, we face two problems: (1) The number of samples are limited to the number of channels and (2) the process of pixel selection, playing the role of mixed sources, is not straightforward. In the second approach, ICA is based on the assumption of mutually independent sources, which is not the case of hyperspectral data, since the sum of the abundance fractions is constant, implying dependence among abundances. This dependence compromises ICA applicability to hyperspectral images. In addition, hyperspectral data are immersed in noise, which degrades the ICA performance. IFA [39] was introduced as a method for recovering independent hidden sources from their observed noisy mixtures. IFA implements two steps. First, source densities and noise covariance are estimated from the observed data by maximum likelihood. Second, sources are reconstructed by an optimal nonlinear estimator. Although IFA is a well-suited technique to unmix independent sources under noisy observations, the dependence among abundance fractions in hyperspectral imagery compromises, as in the ICA case, the IFA performance. Considering the linear mixing model, hyperspectral observations are in a simplex whose vertices correspond to the endmembers. Several approaches [40–43] have exploited this geometric feature of hyperspectral mixtures [42]. Minimum volume transform (MVT) algorithm [43] determines the simplex of minimum volume containing the data. The MVT-type approaches are complex from the computational point of view. Usually, these algorithms first find the convex hull defined by the observed data and then fit a minimum volume simplex to it. Aiming at a lower computational complexity, some algorithms such as the vertex component analysis (VCA) [44], the pixel purity index (PPI) [42], and the N-FINDR [45] still find the minimum volume simplex containing the data cloud, but they assume the presence in the data of at least one pure pixel of each endmember. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. Hyperspectral sensors collects spatial images over many narrow contiguous bands, yielding large amounts of data. For this reason, very often, the processing of hyperspectral data, included unmixing, is preceded by a dimensionality reduction step to reduce computational complexity and to improve the signal-to-noise ratio (SNR). Principal component analysis (PCA) [46], maximum noise fraction (MNF) [47], and singular value decomposition (SVD) [48] are three well-known projection techniques widely used in remote sensing in general and in unmixing in particular. The newly introduced method [49] exploits the structure of hyperspectral mixtures, namely the fact that spectral vectors are nonnegative. The computational complexity associated with these techniques is an obstacle to real-time implementations. To overcome this problem, band selection [50] and non-statistical [51] algorithms have been introduced. This chapter addresses hyperspectral data source dependence and its impact on ICA and IFA performances. The study consider simulated and real data and is based on mutual information minimization. Hyperspectral observations are described by a generative model. This model takes into account the degradation mechanisms normally found in hyperspectral applications—namely, signature variability [52–54], abundance constraints, topography modulation, and system noise. The computation of mutual information is based on fitting mixtures of Gaussians (MOG) to data. The MOG parameters (number of components, means, covariances, and weights) are inferred using the minimum description length (MDL) based algorithm [55]. We study the behavior of the mutual information as a function of the unmixing matrix. The conclusion is that the unmixing matrix minimizing the mutual information might be very far from the true one. Nevertheless, some abundance fractions might be well separated, mainly in the presence of strong signature variability, a large number of endmembers, and high SNR. We end this chapter by sketching a new methodology to blindly unmix hyperspectral data, where abundance fractions are modeled as a mixture of Dirichlet sources. This model enforces positivity and constant sum sources (full additivity) constraints. The mixing matrix is inferred by an expectation-maximization (EM)-type algorithm. This approach is in the vein of references 39 and 56, replacing independent sources represented by MOG with mixture of Dirichlet sources. Compared with the geometric-based approaches, the advantage of this model is that there is no need to have pure pixels in the observations. The chapter is organized as follows. Section 6.2 presents a spectral radiance model and formulates the spectral unmixing as a linear problem accounting for abundance constraints, signature variability, topography modulation, and system noise. Section 6.3 presents a brief resume of ICA and IFA algorithms. Section 6.4 illustrates the performance of IFA and of some well-known ICA algorithms with experimental data. Section 6.5 studies the ICA and IFA limitations in unmixing hyperspectral data. Section 6.6 presents results of ICA based on real data. Section 6.7 describes the new blind unmixing scheme and some illustrative examples. Section 6.8 concludes with some remarks.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho tem por base o estudo das concepções e práticas de sete professores do 2º e 3º ciclo do ensino Básico face à inclusão de alunos com necessidades educativas especiais na escola de ensino regular. A sua finalidade é a de compreender e descrever essas mesmas concepções, os aspectos facilitadores e os obstáculos que encontram à inclusão de alunos com necessidades educativas especiais nas escolas do ensino regular. Destas finalidades surgiram as seguintes questões de partida: 1) Qual a opinião dos professores em estudo sobre a inclusão de crianças com necessidades educativas especiais na sala de aula regular? ; 2) Quais as práticas dos professores do estudo para responder às necessidades dos alunos com necessidades educativas especiais? ; 3) Que medidas de diferenciação são utilizadas por estes professores?; 4) Quais os aspectos facilitadores identificados por estes professores para o desenvolvimento do seu trabalho com os alunos com necessidades educativas especiais?;5) Quais os obstáculos identificados por estes professores no desenvolvimento do seu trabalho com alunos com necessidades educativas especiais?; 6) Qual é, na opinião dos professores em estudo, o impacto da presença de alunos com necessidades educativas especiais na escola de ensino regular?; 7) Quais são, na opinião dos professores em estudo, as vantagens da inclusão para os alunos com necessidades educativas especiais?; 8) Qual é a importância da formação de professores para o sucesso da escola inclusiva? A metodologia seguida para a realização deste estudo centra-se no paradigma qualitativo interpretativo. O trabalho de campo foi realizado durante os meses de Abril e Maio de 2009, na escola onde os participantes se encontravam colocados. No que respeita às técnicas de recolha de dados, optámos pela entrevista semi-estruturada e análise documental e para a interpretação dos dados recolhidos seguimos a técnica de análise de conteúdo tendo as categorias e as sub-categorias de análise emergindo dos discursos dos professores entrevistados. A análise dos resultados obtidos permite-nos dizer que os professores se encontram sensibilizados para as vantagens da escola inclusiva e consideram-na vantajosa tanto para os alunos com necessidades educativas especiais, como para os alunos sem necessidades educativas especiais. Contudo, consideram que, para a escola inclusiva ter sucesso, é imprescindível investir na formação de professores na área das necessidades educativas especiais tanto a nível da formação inicial como a nível da formação contínua. Os participantes neste estudo referem ainda que aplicam pedagogias diferenciadas das quais destacamos a elaboração de adaptações curriculares e fichas de trabalho adaptadas, trabalho cooperativo discente, abordagem diferenciada das matérias a leccionar e flexibilização do tempo no sentido de facilitar os processos de inclusão e o sucesso educativo de todos os alunos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação apresentada à Universidade de Cabo Verde e à Escola Superior de Educação de Lisboa para a obtenção do Grau de Mestre em Ciências da Educação - especialização em Educação Especial

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente artigo teórico apresenta e discute a relação entre a investigação e a prática em intervenção precoce. No domínio do desenvolvimento sócio-emocional e da relação entre pais e filhos, surgem várias linhas de investigação que podem conduzir a práticas suportadas empiricamente. Neste trabalho, partimos de duas histórias de vida encontradas no decurso de uma pesquisa científica para a apresentação do estado de arte. A literatura indica que práticas mais eficazes são centradas na reparação da “base segura” em todas as gerações. Uma acção de gabinete, exclusivamente centrada na criança, não só tende a ser pouco eficaz como pode fazer perigar a capacidade auto-protectiva da criança. Assim, analisamos as práticas de intervenção sob vários ângulos: da criança, dos pais, da família alargada, da comunidade, dos técnicos e dos investigadores. A discussão sugere que as parcerias estabelecidas entre investigadores e técnicos podem ser elementos chave para o sucesso da intervenção.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O exercício físico (EF) em transplantados renais (TR) é um tema que tem vindo a sofrer alterações ao longo dos tempos. Inicialmente prevalecia o princípio da minimização do risco, em que se procurava proteger o órgão transplantado de possíveis riscos decorrentes do EF. Presentemente valoriza-se a maximização dos diversos benefícios que o EF pode proporcionar a esta população especial. Contudo, estudos revelam, geralmente, baixas percentagens de transplantados a realizar EF. Estes estudos atribuem ainda grande parte da responsabilidade deste facto aos profissionais de saúde, pois nem todos incorporam a promoção do EF na sua prática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os agentes químicos são frequentemente manipulados nos Laboratórios de Anatomia Patológica (AP), provocando uma preocupação crescente com a segurança, higiene e a saúde dos técnicos de AP. Não existe conhecimento relativo à percepção que os profissionais evidenciam relativamente à perigosidade das substâncias químicas e que paralelismo esta possui com a real perigosidade, tendo em conta que existem instrumentos internacionais que permitem quantificar o risco associado a cada um dos agentes químicos. O objectivo do trabalho é identificar a percepção dos técnicos de AP relativamente à perigosidade das substâncias químicas utilizadas nos laboratórios de histopatologia dos serviços de AP na região de Lisboa e Vale do Tejo e comparar essa percepção com a perigosidade definida pelos instrumentos internacionais, constituindo, desta forma, um índice de discrepância. Também se procuraram listar os principais sintomas/doenças potencialmente associados à actividade profissional. Para tal, recorreu-se a uma amostra não probabilística, constituída por dezassete técnicos de AP que trabalham em três hospitais na referida região. O instrumento de recolha de dados consistiu num questionário que agrupava questões sobre a temática proposta, incidindo na classificação de substâncias químicas quanto à sua perigosidade para a saúde numa escala de 0 a 5, padecimento ou não de patologias, entre outras. O tratamento estatístico foi realizado em SPSS 12.0. Na generalidade, a discrepância quanto à perigosidade das substâncias químicas é baixa, centrando-se em 1 a 2 e observa-se maior discrepância para as substâncias etanol, violeta de cristal e vermelho do Congo. Os sintomas mais referidos foram cefaleias, irritação dos olhos e das vias respiratórias.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho teve como objectivo analisar a relação entre as motivações para o consumo e a atitude face à publicidade e verificar a existência de possíveis diferenças no que diz respeito à variável género. A partir de um questionário realizado a uma amostra de consumidores jovens adultos foi possível verificar três tendências de consumo: uma predominantemente hedónica, uma fundamentalmente utilitária e uma terceira com uma incidência acentuada na procura por produtos de baixo preço. Os consumidores femininos apresentavam, globalmente, valores superiores na tendência de consumo utilitária, que por sua vez se relacionava negativamente com a atitude face à publicidade. A procura de preços baixos foi consensual na globalidade da amostra.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este ensaio reflecte sobre os factores que presidem à distinção da Fotografia Publicitária face às categorias da Fotografia Artística e da Fotografia Jornalística. As diferentes formas de utilizar a fotografia podem traduzir-se em várias categorias cujas fronteiras são muitas vezes ténues e extremamente difíceis de situar. No entanto, a existência destas categorias é comummente aceite e reconhecida, dando origem a uma classificação hierarquizada que acarreta uma diferença de estatutos. Os anos de exercício em diversas funções da Publicidade, a par da prática de investigação académica, permitiram uma análise realista do “lugar” ocupado por esta categoria a partir de uma interrogação acerca das diferenças de estatuto subjacentes a estas três categorias. Na sociedade contemporânea as imagens da Publicidade são um reflexo dos desejos de consumo e a Fotografia Publicitária possui uma conotação marcadamente mercantil que a coloca numa espécie de categoria à parte, que importa ser analisada. Eis porque nos propomos interrogar ao longo deste trabalho acerca dos eventuais pontos de contacto entre a Fotografia Publicitária, a Fotografia Artística e a Fotografia Jornalística, para então determinar possíveis factores que presidem à sua distinção. Igualmente, como forma de “testar” as conclusões, apresenta-se um conjunto de exercícios que visam provar a tese defendida.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Globalmente, o vírus do papiloma humano (HPV) é a segunda causa mais comum de cancro associado a mortalidade e morbilidade entre as mulheres devido ao seu relacionamento com o cancro do colo do útero (CCU) e caracteriza-se também como uma das doenças sexualmente transmissíveis (DST) mais prevalentes. Entre 2000 e 2006, foram diagnosticados cerca de 1.401.400 casos de CCU e estima-se que seja responsável por cerca de 260.000 mortes anuais. Aproximadamente 80% destas mortes ocorrem nos países em desenvolvimento. Um estudo Americano indicou que cerca de 30% a 40% das mulheres entre os 14 e 40 anos encontram-se infectadas pelo HPV e cerca de 75% foi infectada em alguma altura da sua vida. Estudos mostram que este vírus é também responsável por um razoável numero de casos de cancro da vulva, vagina, ânus, pénis, orofaríngeos e pulmonares. Com um número estimado de mais de 200 diferentes estirpes, este vírus é maioritariamente assintomático. Existem 13 a 18 tipos diferentes de HPV considerados de elevado risco oncogénico (HPV-ERO) responsáveis pela maioria dos casos de cancro. As estirpes consideradas de baixo risco oncogénico (HPV-BRO) estão intimamente relacionadas com riscos clínicos menores como lesões (e.g., verrugas) na mucosa oral, genital, anal e laríngea. Recentemente, o avançado conhecimento molecular da estrutura do HPV permitiu aos investigadores o desenvolvimento de medidas preventivas e de tratamento face ao vírus, incluindo a introdução de uma vacina no mercado aprovada pela FDA muito eficiente especialmente nas mulheres mais jovens.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A motivação para este trabalho vem da necessidade que o autor tem em poder registar as notas tocadas na guitarra durante o processo de improviso. Quando o músico está a improvisar na guitarra, muitas vezes não se recorda das notas tocadas no momento, este trabalho trata o desenvolvimento de uma aplicação para guitarristas, que permita registar as notas tocadas na guitarra eléctrica ou clássica. O sinal é adquirido a partir da guitarra e processado com requisitos de tempo real na captura do sinal. As notas produzidas pela guitarra eléctrica, ligada ao computador, são representadas no formato de tablatura e/ou partitura. Para este efeito a aplicação capta o sinal proveniente da guitarra eléctrica a partir da placa de som do computador e utiliza algoritmos de detecção de frequência e algoritmos de estimação de duração de cada sinal para construir o registo das notas tocadas. A aplicação é desenvolvida numa perspectiva multi-plataforma, podendo ser executada em diferentes sistemas operativos Windows e Linux, usando ferramentas e bibliotecas de domínio público. Os resultados obtidos mostram a possibilidade de afinar a guitarra com valores de erro na ordem de 2 Hz em relação às frequências de afinação standard. A escrita da tablatura apresenta resultados satisfatórios, mas que podem ser melhorados. Para tal será necessário melhorar a implementação de técnicas de processamento do sinal bem como a comunicação entre processos para resolver os problemas encontrados nos testes efectuados.