888 resultados para masque facial
Resumo:
No trabalho apresentado realiza-se uma primeira descrição de voz e emoção para o Português Europeu. Estudamos, utilizando como base estudos realizados em diversas línguas (finlandês; inglês; alemão), os parâmetros relacionados com voz e que variam consoante a emoção que expressamos. Analisamos assim os parâmetros relacionados com a frequência Fundamental (F0) com a perturbação (jitter) com a amplitude (shimmer) e com aspectos relacionados com o ruído (HNR). Trata-se de um estudo abrangente que estudando voz e a sua relação/variação de acordo com a emoção o faz em três vertentes: patologia de voz de origem psicogénica (carácter emocional); emoção produzida por actores e a análise de emoção espontânea. Conseguindo, como trabalho pioneiro nesta área, valores para todos estes tipos de produção. Salientamos o facto de no nosso trabalho apenas existir a análise de voz sem recurso a expressão facial ou à postura dos indivíduos. Para que pudéssemos realizar estudos comparativos com os dados que íamos recolhendo em cada corpus (patologia; emoção por actor e emoção espontânea), procurámos utilizar sempre os mesmos métodos de análise (Praat; SFS; SPSS, Hoarseness Diagram – para a análise de voz com patologia - e o sistema Feeltrace - para as emoções espontâneas). Os estudos e análises relativos à emoção produzida por actores são complementados por testes de percepção aplicados a falantes nativos de Inglês Americano e a falantes de Português Europeu. Este teste, juntamente com a análise da emoção espontânea, permitiu-nos retirar dados particulares relativos à língua portuguesa. Apesar de haver tanto na expressão como na percepção de emoções muitas características consideradas universais, em Português percebe-se algo de peculiar. Os valores para a expressão neutra; tristeza e alegria são todos muito próximos, ao contrário do que acontece noutras línguas. Além disso estas três emoções (de famílias distintas) são as que mais dificuldades causam (aos dois grupos de informantes) em termos de distinção no teste de percepção. Poderá ser esta a particularidade da expressão da emoção no Português Europeu, podendo estar ligada a factores culturais. Percebe-se ainda, com este trabalho, que a emoção expressa pelo actor se aproxima da emoção espontânea. No entanto, alguns parâmetros apresentam valores diferentes, isto porque o actor tem a tendência de exagerar a emoção. Com este trabalho foram criados corpora originais que serão um recurso importante a disponibilizar para futuras análises numa área que é ainda deficitária, em termos de investigação científica, em Portugal. Tanto os corpora, como respectivos resultados obtidos poderão vir a ser úteis em áreas como as Ciências da Fala; Robótica e Docência.
Resumo:
Na performance de uma obra musical cantada, o cantor tem um papel determinante para a transmissão ao público, não só das suas componentes informativas, de natureza conceptual, a nível musical e literário, mas também na indução nos ouvintes dos estados emocionais intrínsecos a cada momento da obra através de indicadores vocais não verbais. Este estudo teve como objectivo central a análise dos parâmetros acústicos que constituem estes indicadores e a sua eficácia. Procurou-se estabelecer uma relação entre as alterações fisiológicas que caracterizam os processos somáticos que acompanham o despoletar dos estados emocionais e os perfis acústicos das vocalizações produzidas nessas condições, partindo de uma reflexão sobre o cantor e a sua função social, passando pela análise do fenómeno da emoção como parte integrante da biologia do indivíduo e da espécie. O grau de indução emocional no público depende da capacidade de o cantor integrar os processos de expressão da emoção na sua execução musical, reflectindo no perfil acústico daí resultante não só a qualidade da sua técnica e as suas características vocais, mas também as alterações fisiológicas que acompanham a libertação de neurotransmissores e neuromoduladores, as modificações na expressão facial, na forma e grau de tensão do tracto vocal, ou no perfil respiratório. Este mecanismo utiliza o relacionamento entre sinais sonoros e estados emocionais do emissor e do receptor processado através de um grupo específico de neurónios, os neurónios de espelho. Para caracterizar os indicadores acústicos dos estados emocionais mais simples, foi elaborado um conjunto de parâmetros, aplicados na análise de vocalizações recolhidas em situações emocionais induzidas. Os cantores que colaboraram no presente estudo passaram pelo mesmo processo, e os seus parâmetros foram comparados com os do paradigma estabelecido. O grau de compatibilidade com a norma foi medido por um índice onde se valorizaram os parâmetros mais significativos. Estes resultados foram posteriormente aferidos com os de testes onde se procurou determinar o grau de identificação pelo público dos sinais acústicos portadores de sentido emocional em exemplos musicais cantados. Destes, foram seleccionados aqueles que atingiram os níveis de identificação acima de 90% e os inferiores a 50%, procedendo-se à análise dos parâmetros acústicos de segmentos particularmente relevantes extraídos desses exemplos, para definir aqueles que se mostraram decisivos para a escolha do público.
Resumo:
A importância e preocupação dedicadas à autonomia e independência das pessoas idosas e dos pacientes que sofrem de algum tipo de deficiência tem vindo a aumentar significativamente ao longo das últimas décadas. As cadeiras de rodas inteligentes (CRI) são tecnologias que podem ajudar este tipo de população a aumentar a sua autonomia, sendo atualmente uma área de investigação bastante ativa. Contudo, a adaptação das CRIs a pacientes específicos e a realização de experiências com utilizadores reais são assuntos de estudo ainda muito pouco aprofundados. A cadeira de rodas inteligente, desenvolvida no âmbito do Projeto IntellWheels, é controlada a alto nível utilizando uma interface multimodal flexível, recorrendo a comandos de voz, expressões faciais, movimentos de cabeça e através de joystick. Este trabalho teve como finalidade a adaptação automática da CRI atendendo às características dos potenciais utilizadores. Foi desenvolvida uma metodologia capaz de criar um modelo do utilizador. A investigação foi baseada num sistema de recolha de dados que permite obter e armazenar dados de voz, expressões faciais, movimentos de cabeça e do corpo dos pacientes. A utilização da CRI pode ser efetuada em diferentes situações em ambiente real e simulado e um jogo sério foi desenvolvido permitindo especificar um conjunto de tarefas a ser realizado pelos utilizadores. Os dados foram analisados recorrendo a métodos de extração de conhecimento, de modo a obter o modelo dos utilizadores. Usando os resultados obtidos pelo sistema de classificação, foi criada uma metodologia que permite selecionar a melhor interface e linguagem de comando da cadeira para cada utilizador. A avaliação para validação da abordagem foi realizada no âmbito do Projeto FCT/RIPD/ADA/109636/2009 - "IntellWheels - Intelligent Wheelchair with Flexible Multimodal Interface". As experiências envolveram um vasto conjunto de indivíduos que sofrem de diversos níveis de deficiência, em estreita colaboração com a Escola Superior de Tecnologia de Saúde do Porto e a Associação do Porto de Paralisia Cerebral. Os dados recolhidos através das experiências de navegação na CRI foram acompanhados por questionários preenchidos pelos utilizadores. Estes dados foram analisados estatisticamente, a fim de provar a eficácia e usabilidade na adequação da interface da CRI ao utilizador. Os resultados mostraram, em ambiente simulado, um valor de usabilidade do sistema de 67, baseado na opinião de uma amostra de pacientes que apresentam os graus IV e V (os mais severos) de Paralisia Cerebral. Foi também demonstrado estatisticamente que a interface atribuída automaticamente pela ferramenta tem uma avaliação superior à sugerida pelos técnicos de Terapia Ocupacional, mostrando a possibilidade de atribuir automaticamente uma linguagem de comando adaptada a cada utilizador. Experiências realizadas com distintos modos de controlo revelaram a preferência dos utilizadores por um controlo compartilhado com um nível de ajuda associado ao nível de constrangimento do paciente. Em conclusão, este trabalho demonstra que é possível adaptar automaticamente uma CRI ao utilizador com claros benefícios a nível de usabilidade e segurança.
Resumo:
The increasing interest in coral culture for biotechnological applications, to supply the marine aquarium trade, or for reef restoration programs, has prompted researchers to optimize coral culture protocols, with emphasis to ex situ production. When cultured ex situ, the growth performance of corals can be influenced by several physical, chemical and biological parameters. For corals harbouring zooxanthellae, light is one of such key factors, as it can influence the photosynthetic performance of these endosymbionts, as well as coral physiology, survival and growth. The economic feasibility of ex situ coral aquaculture is strongly dependent on production costs, namely those associated with the energetic needs directly resulting from the use of artificial lighting systems. In the present study we developed a versatile modular culture system for experimental coral production ex situ, assembled solely using materials and equipment readily available from suppliers all over the world; this approach allows researchers from different institutions to perform truly replicated experimental set-ups, with the possibility to directly compare experimental results. Afterwards, we aimed to evaluate the effect of contrasting Photosynthetically Active Radiation (PAR) levels, and light spectra emission on zooxanthellae photochemical performance, through the evaluation of the maximum quantum yield of PSII (Fv/Fm) (monitored non-invasively and non-destructively through Pulse Amplitude Modulation fluorometry, PAM), chlorophyll a content (also determined non-destructively by using the spectral reflectance index Normalized Difference Vegetation Index, NDVI), photosynthetic and accessory pigments, number of zooxanthellae, coral survival and growth. We studied two soft coral species, Sarcophyton cf. glaucum and Sinularia flexibilis, as they are good representatives of two of the most specious genera in family Alcyoniidae, which include several species with interest for biotechnological applications, as well as for the marine aquarium trade; we also studied two commercially important scleractinian corals: Acropora formosa and Stylophora pistillata. We used different light sources: hydrargyrum quartz iodide (HQI) lamps with different light color temperatures, T5 fluorescent lamps, Light Emitting Plasma (LEP) and Light Emitting Diode (LED). The results achieved revealed that keeping S. flexibilis fragments under the same light conditions as their mother colonies seems to be photobiologically acceptable for a short-term husbandry, notwithstanding the fact that they can be successfully stocked at lower PAR intensities. We also proved that low PAR intensities are suitable to support the ex situ culture S. cf. glaucum in captivity at lower production costs, since the survival recorded during the experiment was 100%, the physiological wellness of coral fragments was evidenced, and we did not detect significant differences in coral growth. Finally, we concluded that blue light sources, such as LED lighting, allow a higher growth for A. formosa and S. pistillata, and promote significant differences on microstructure organization and macrostructure morphometry in coral skeletons; these findings may have potential applications as bone graft substitutes for veterinary and/or other medical uses. Thus, LED technology seems to be a promising option for scleractinian corals aquaculture ex situ.
Resumo:
Desde que surgiu há mais de 50 anos, a televisão sofreu muitas transformações, tanto ao nível tecnológico (por exemplo com a passagem da emissão a preto/branco para cor, o som analógico para digital, a difusão digital) como a nível da sua influência nas sociedades. Entre outros fatores de ordem tecnológica, a consolidação da Internet com o seu elevado nível de personalização, da experiência de utilização, e a sua enorme quantidade de conteúdos disponíveis, catapultou a televisão no sentido de esta se tornar mais interativa. Assim, o telespectador passou a poder usufruir de uma experiência televisiva que pode, por um lado, ser mais participativa, sendo-lhe possível, por exemplo, alvitrar sobre a qualidade de um programa enquanto assiste à sua exibição, e, por outro, ser mais personalizada, possibilitando-lhe, por exemplo, receber conteúdos automaticamente adequados ao seu perfil e contexto. No entanto, esta experiência mais participativa e personalizável carece de uma identificação, idealmente automática e não intrusiva, de quem pode beneficiar da mesma – o telespectador. Contudo, e apesar de significativos avanços na área da televisão interativa, tanto ao nível da infraestrutura de suporte como ao nível dos serviços disponibilizados, a identificação dos utilizadores é, ainda, uma área de estudo com muitos aspetos por compreender. Os seniores, em particular, são grandes consumidores de televisão e representam uma fatia muito considerável das pessoas que podem beneficiar das potencialidades disponibilizadas pela interatividade presente em muitos serviços atuais. Um número crescente destes serviços são desenhados com o objetivo de promoverem um envelhecimento ativo e um concreto apoio à vida, pelo que os seniores podem beneficiar, em vários aspetos do seu quotidiano, se os utilizarem. Nesta faixa etária, a identificação de utilizadores tem, como elemento potenciador da experiência de utilização, um papel especialmente importante ao nível de um aproveitamento personalizado e dirigido destes serviços. No entanto, atendendo às diferentes combinações de características físicas, sensoriais, cognitivas e, mesmo, de literacia digital que tipificam os seniores, perspetivou-se existir uma dependência do perfil do utilizador na seleção do método de identificação mais adequado, os quais podem ser baseados, por exemplo, num leitor de impressões digitais, instalado no telecomando; na leitura de uma wearable tag ou de um cartão RFiD; no reconhecimento da face e, eventualmente, na voz do utilizador. Assim, a inerente investigação desenrolou-se em várias fases, no sentido de permitir alicerçar a construção de uma matriz de decisão tecnológica que, em função do perfil de utilizador, selecione o sistema de identificação mais adequado. O procedimento metodológico inerente à construção desta matriz de decisão, passou por um longo processo envolvendo utilizadores reais, que se iniciou com a realização de entrevistas exploratórias com o objetivo de permitir conhecer melhor os seniores e a forma como estes encaram a tecnologia e, mais concretamente, a televisão interativa. Foi depois implementado um protótipo de alta-fidelidade, completamente funcional, para a realização de testes com o objetivo de perceber qual a preferência relativamente a um subconjunto de tecnologias de identificação. Estes testes, uma vez que não permitiram testar todas as tecnologias em estudo, revelaram-se inconclusivos, porém permitiram reforçar a necessidade de identificar e caracterizar os referidos aspetos do perfil do utilizador que podem interferir na sua preferência relativamente ao sistema de identificação. As características identificadas constituíram-se como os parâmetros de entrada da matriz, sendo que para preencher as respetivas células realizaramse testes de aceitação, com um conjunto de seniores, tendo por base um protótipo, wizard of oz, especificamente implementado para permitir experienciar todas as tecnologias em estudo. Estes testes foram precedidos pela avaliação das capacidades funcionais dos participantes, nos diversos parâmetros definidos. Este texto relata, assim, todo o processo de investigação que foi conduzido, terminando com uma descrição de exemplos de utilização da matriz de decisão implementada e com a identificação de potenciais caminhos de desenvolvimento deste trabalho.
Resumo:
Participants who were unable to detect familiarity from masked 17 ms faces ([Stone and Valentine, 2004] and [Stone and Valentine, in press-b]) did report a vague, partial visual percept. Two experiments investigated the relative strength of the visual percept generated by famous and unfamiliar faces, using masked 17 ms exposure. Each trial presented simultaneously a famous and an unfamiliar face, one face in LVF and the other in RVF. In one task, participants responded according to which of the faces generated the stronger visual percept, and in the other task, they attempted an explicit familiarity decision. The relative strength of the visual percept of the famous face compared to the unfamiliar face was moderated by response latency and participants’ attitude towards the famous person. There was also an interaction of visual field with response latency, suggesting that the right hemisphere can generate a visual percept differentiating famous from unfamiliar faces more rapidly than the left hemisphere. Participants were at chance in the explicit familiarity decision, confirming the absence of awareness of facial familiarity.
Resumo:
Diagnosis of developmental or congenital prosopagnosia (CP) involves self-report of everyday face recognition difficulties, which are corroborated with poor performance on behavioural tests. This approach requires accurate self-evaluation. We examine the extent to which typical adults have insight into their face recognition abilities across four studies involving nearly 300 participants. The studies used five tests of face recognition ability: two that tap into the ability to learn and recognise previously unfamiliar faces (the Cambridge Face Memory Test, CFMT, Duchaine & Nakayama, 2006 and a newly devised test based on the CFMT but where the study phases involve watching short movies rather than viewing static faces – the CFMT-Films) and three that tap face matching (Benton Facial Recognition Test, BFRT, Benton, Sivan, Hamsher, Varney, & Spreen, 1983; and two recently devised sequential face matching tests). Self-reported ability was measured with the 15-item Kennerknecht et al. (2008) questionnaire; two single-item questions assessing face recognition ability; and a new 77-item meta-cognition questionnaire). Overall, we find that adults with typical face recognition abilities have only modest insight into their ability to recognise faces on behavioural tests. In a fifth study, we assess self-reported face recognition ability in people with CP and find that some people who expect to perform poorly on behavioural tests of face recognition do indeed perform poorly. However, it is not yet clear whether individuals within this group of poor performers have greater levels of insight (i.e., into their degree of impairment) than those with more typical levels of performance.
Resumo:
Developmental prosopagnosia (DP) is commonly referred to as ‘face blindness’, a term that implies a perceptual basis to the condition. However, DP presents as a deficit in face recognition and is diagnosed using memory-based tasks. Here, we test face identification ability in six people with DP, who are severely impaired on face memory tasks, using tasks that do not rely on memory. First, we compared DP to control participants on a standardised test of unfamiliar face matching using facial images taken on the same day and under standardised studio conditions (Glasgow Face Matching Test; GFMT). DP participants did not differ from normative accuracy scores on the GFMT. Second, we tested face matching performance on a test created using images that were sourced from the Internet and so vary substantially due to changes in viewing conditions and in a person’s appearance (Local Heroes Test; LHT). DP participants show significantly poorer matching accuracy on the LHT relative to control participants, for both unfamiliar and familiar face matching. Interestingly, this deficit is specific to ‘match’ trials, suggesting that people with DP may have particular difficulty in matching images of the same person that contain natural day-to-day variations in appearance. We discuss these results in the broader context of individual differences in face matching ability.
Resumo:
Empirical studies concerning face recognition suggest that faces may be stored in memory by a few canonical representations. In cortical area V1 exist double-opponent colour blobs, also simple, complex and end-stopped cells which provide input for a multiscale line/edge representation, keypoints for dynamic routing and saliency maps for Focus-of-Attention. All these combined allow us to segregate faces. Events of different facial views are stored in memory and combined in order to identify the view and recognise the face including facial expression. In this paper we show that with five 2D views and their cortical representations it is possible to determine the left-right and frontal-lateral-profile views and to achieve view-invariant recognition of 3D faces.
Resumo:
Sujeitos com traumatismo crânio-encefálico (TCE) apresentam frequentemente défices no reconhecimento de emoções, sendo estas dificuldades marcadas principalmente pela existência de uma incapacidade em interpretar pistas não-verbais da emoção. Apesar do reconhecimento de emoções em expressões faciais ser largamente estudado, o mesmo não acontece com o reconhecimento da prosódia emocional e em menor grau com o reconhecimento de emoções pela modalidade audiovisual. A presente investigação utilizou a Florida Affect Battery para examinar o reconhecimento emocional nas modalidades visual, auditiva e audiovisual de 17 sujeitos com TCE (quatro com lesão no hemisfério direito, sete no hemisfério esquerdo e seis com lesão bilateral) e 17 sujeitos sem historial de lesão neurológica. No geral, o grupo TCE apresenta desempenhos inferiores no reconhecimento emocional em comparação com o grupo sem lesão. Um efeito de lateralidade hemisférica no reconhecimento emocional emerge com o grupo esquerdo e bilateral a apresentarem mais dificuldades quando comparados com o grupo sem lesão cerebral. Quando analisado os desempenhos dos sujeitos com TCE, considerando a valência emocional (positiva e negativa), verifica-se que quando a modalidade de apresentação é visual as emoções positivas (i.e. a alegria) são mais facilmente reconhecidas e quando a modalidade de apresentação é auditiva as emoções negativas apresentam uma vantagem no reconhecimento emocional. Adicionalmente, o grupo com lesão á direita apresenta desempenhos inferiores no reconhecimento de emoções positivas, enquanto o grupo esquerdo e bilateral apresenta desempenhos inferiores no reconhecimento de emoções negativas. No global, os resultados não apoiam as teorias da superioridade do hemisfério direito no reconhecimento emocional e nas emoções negativas, sugerindo que o processamento emocional implica uma vasta rede de estruturas neuronais, com envolvimento de ambos os hemisférios.
Resumo:
Estudos anteriores sugerem que níveis elevados de ansiedade traço estão associados com uma maior capacidade de reconhecer a expressão facial de medo. No entanto a maioria dos estudos têm recorrido a paradigmas visuais de reconhecimento de emoções e permanece em aberto se esta associação entre ansiedade traço e reconhecimento da emoção medo se generaliza a outras modalidades sensoriais. Neste trabalho fomos analisar num grupo de participantes saudáveis a relação entre a ansiedade traço e o reconhecimento de emoções, incluindo o medo, em diferentes modalidades para além da visual. O grupo de participantes foi dividido em dois grupos consoante o nível de ansiedade traço (alta e baixa) e o seu desempenho analisado na realização da Florida Affect Batery (FAB). De acordo com as investigações anteriores, previu-se que os níveis de eficácia no reconhecimento das diferentes emoções difeririam entre os grupos de baixo nível de ansiedade e alto nível de ansiedade.
Resumo:
Theories of embodied cognition argue that language processing arises not from amodal symbols that redescribe sensorimotor and affective experiences, but from partial simulations (reenactments) of modality-specific states. Recent findings on processing of words and sentences support such a stance emphasizing that the role of the body in the domain of language comprehension should not be overlooked or dismissed. The present research was conducted to extend prior work in two important ways. First, the role of simulation was tested with connected discourse rather than words or sentences presented in isolation. Second, both “online” and “offline” measures of discourse comprehension were taken. In Experiments 1 and 2 participants’ facial postures were manipulated to show that preparing the body for processing of emotion-congruent information improves discourse comprehension. In Experiment 3 the direction of body posture was manipulated to show that implicit properties of simulations, such as spatial dimension or location, are at least somewhat involved in processing of large language segments such as discourse. Finally, in Experiments 4 and 5 participants’ body movement and body posture were manipulated to show that even understanding of language describing metaphorical actions physically impossible to perform involves constructing a sensorimotor simulation of the described event. The major result was that compatibility between embodiment and language strongly modulated performance effectiveness in experiments on simulation of emotion and metaphorical action. The effect of simulation on comprehension of discourse implying spatial dimension was fragile. These findings support an embodied simulation account of cognition suggesting that sensorimotor and affective states are at least partially implicated in “online” and “offline” discourse comprehension.
Resumo:
Background: Artemisia species pollen represents a major cause of allergy in Central Europe. Variations in the pollen season, the influence of climate variables and the prevalence of pollinosis to it were analyzed in Poznan, in western Poland between 1995 and 2004. Methods: A Hirst volumetric spore trap was used for atmospheric sampling. Pollination date trend analysis and Spearman correlation tests were performed. Skin prick tests (SPT) and allergen specific immunoglobulin (Ig)E antibody measurements were performed in 676 and 524 patients, respectively. Results: The Artemisia species pollen season grew longer due to a clear advance in the starting day and only a slightly earlier end point; the peak day also came slightly earlier. Rainfall in the fi rst fortnight of July highly influenced pollen season severity. Temperature was directly correlated with daily Artemisia species pollen levels; relative humidity was inversely correlated. Twelve percent of patients had a positive SPT reaction to Artemisia species. Their symptoms were rhinitis and conjunctivitis (15%), atopic dermatitis (15%), chronic urticaria (14.3%), bronchial asthma (2.4%), and facial and disseminated dermatitis (1.3%). Elevated specifi c IgE concentrations were detected in the sera of 10.1% of patients. Conclusions: Artemisia species pollen is an important cause of pollinosis in western Poland. Pollen season intensity is highly influenced by rainfall in the previous weeks. Trends towards earlier season starts and longer duration, possibly caused by climate change, may have an impact on the allergic population.
Resumo:
Face recognition from images or video footage requires a certain level of recorded image quality. This paper derives acceptable bitrates (relating to levels of compression and consequently quality) of footage with human faces, using an industry implementation of the standard H.264/MPEG-4 AVC and the Closed-Circuit Television (CCTV) recording systems on London buses. The London buses application is utilized as a case study for setting up a methodology and implementing suitable data analysis for face recognition from recorded footage, which has been degraded by compression. The majority of CCTV recorders on buses use a proprietary format based on the H.264/MPEG-4 AVC video coding standard, exploiting both spatial and temporal redundancy. Low bitrates are favored in the CCTV industry for saving storage and transmission bandwidth, but they compromise the image usefulness of the recorded imagery. In this context, usefulness is determined by the presence of enough facial information remaining in the compressed image to allow a specialist to recognize a person. The investigation includes four steps: (1) Development of a video dataset representative of typical CCTV bus scenarios. (2) Selection and grouping of video scenes based on local (facial) and global (entire scene) content properties. (3) Psychophysical investigations to identify the key scenes, which are most affected by compression, using an industry implementation of H.264/MPEG-4 AVC. (4) Testing of CCTV recording systems on buses with the key scenes and further psychophysical investigations. The results showed a dependency upon scene content properties. Very dark scenes and scenes with high levels of spatial–temporal busyness were the most challenging to compress, requiring higher bitrates to maintain useful information.
Resumo:
We present a method for recovering facial shape using an image of a face and a reference model. The zenith angle of the surface normal is recovered directly from the intensities of the image. The azimuth angle of the reference model is then combined with the calculated zenith angle in order to get a new field of surface normals. After integration of the needle map, the recovered surface has the effect of mapped facial features over the reference model. Experiments demonstrate that for the lambertian case, surface recovery is achieved with high accuracy. For non-Lambertian cases, experiments suggest potential for face recognition applications.