994 resultados para Análise fotométrica facial
Resumo:
Existem muitas controvérsias sobre a real interferência da respiração no crescimento craniofacial. Este estudo avaliou a possível relação da influência do padrão respiratório com as variáveis cefalométricas: 1) variáveis esqueléticas sagitais: convexidade do ponto A, profundidade facial, profundidade da maxila e comprimento do corpo mandibular; 2) variáveis esqueléticas verticais: altura facial inferior, eixo facial, cone facial, plano palatal, plano mandibular, altura facial posterior e arco mandibular; 3) variáveis dentárias: protrusão do incisivo inferior e protrusão do incisivo superior. A amostra constituiu-se de 120 crianças do sexo masculino e do sexo feminino com más-oclusões dentárias de Classe I e II-1, respiradores bucais e nasais na fase da dentadura mista e permanente, com indicação para tratamento ortodôntico. Após as avaliações ortodôntica, otorrinolaringológica e fonoaudiológica a amostra foi dividida em 2 grupos: 60 crianças portadoras de más-oclusões Classe I e Classe II-1 respiradoras bucais e 60 crianças portadoras de más-oclusões Classe I e Classe II-1 respiradoras nasais, sendo cada grupo divididos em 3 subgrupos nas faixas etárias: 7 a 8 anos, 9 a 10 anos e 11 a 12 anos. Após a obtenção dos resultados e a interpretação da análise estatística, foi possível concluir que: 1) das relações entre os padrões respiratórios (bucal e nasal) e as variáveis esqueléticas sagitais: constatou-se que houve diferença estatisticamente significante, apresentando-se as variáveis cefalométricas: Convexidade pto. A: aumentada no grupo de respiração bucal, idade de 7 a 8 anos com má-oclusão Classe I. Profundidade facial : aumentada no grupo de respiração bucal, idade de 9 a 10 anos com má-oclusão Classe II-1. Profundidade maxila: aumentada no grupo de respiração bucal, idade de 9 a 10 anos com má-oclusão Classe II-1; 2) das relações entre os padrões respiratórios (bucal e nasal) e as variáveis esqueléticas verticais: constatou-se que houve diferença estatisticamente significante, apresentando-se as variáveis cefalométricas: Cone facial: diminuída no grupo de respiração bucal, idade 9 a 10 anos com má-oclusão Classe I. Arco mandibular : diminuída no grupo de respiração bucal, idade 7 a 8 anos com má-oclusão Classe II-1.; 3) das relações entre os padrões respiratórios (bucal e nasal) e as variáveis dentárias: constatou-se que não houve diferença estatisticamente significante para nenhuma das variáveis dentárias analisadas: protrusão do incisivo inferior e superior , não se relacionando com os padrões respiratórios (bucal e nasal).
Resumo:
Este estudo teve como objetivo aplicar e avaliar a Análise Cefalométrica do Tecido Mole proposta por ARNETT et al. em jovens brasileiros, determinando seus valores médios e comparando com os dos autores. A amostra compôs-se de 60 indivíduos, sendo 24 do sexo masculino e 36 do sexo feminino. Todos brasileiros, leucodermas e portadores de oclusão normal natural, apresentando um mínimo de quatro das seis chaves de oclusão de ANDREWS. A utilização da posição natural da cabeça e da linha vertical verdadeira no momento da obtenção das telerradiografias compuseram a metodologia do trabalho. Avaliaram-se os fatores dentários e os esqueléticos, as espessuras do tecido mole, os comprimentos faciais, as projeções do tecido mole em relação à Linha Vertical Verdadeira e a harmonia intramandibular, a intermaxilar e a facial total. Os resultados demonstraram que os valores médios da amostra estudada apresentaram diferenças em relação aos valores normativos de ARNETT et al. na maioria das variáveis e quando comparados entre si, verificou-se que os americanos apresentaram altura facial maior, perfil facial mais reto e nariz mais proeminente que os brasileiros, tanto para o sexo masculino como para o feminino. O sexo masculino apresentou altura facial e espessura dos tecidos moles maior que o sexo feminino, porem, lábios superior e inferior menos protruídos em relação à Linha Vertical Verdadeira. A
Resumo:
Este trabalho teve como objetivo determinar as normas cefalométricas de medidas da análise lateral de RICKETTS 54 de 1981, numa amostra de indivíduos brasileiros, leucodermas, com oclusão normal, sem tratamento ortodôntico prévio, da Região Norte do Brasil e comparar estes valores com os preconizados por RICKETTS54 realizando a projeção destes valores para 18 anos de idade, a fim de tornar possível esta comparação. E determinar a freqüência dos diferentes tipos faciais obtidos pelo índice VERT (quantidade de crescimento vertical), obtido por meio da análise lateral de RICKETTS et al55 de 1982. O material constou de 28 telerradiografias em norma lateral de 15 indivíduos do sexo masculino e 13 do sexo feminino, com idades entre 20 e 26 anos, com média de idade de 22,42 anos. Estes indivíduos foram selecionados na Faculdade de odontologia do CESUPA (Centro Universitário do Pará). O método eleito para os traçados cefalométricos foi o computadorizado (programa Radiocef 2.0). Os resultados permitiram depreender que esta amostra da Região Norte do Brasil quando comparada aos valores normativos preconizados por RICKETTS54 apresentam: Biprotrusão dentária; maxila protruída; padrão braquifacial com tendência para mordida profunda; os molares superiores encontram-se numa posição mais posterior; incisivos inferiores protruídos e vestibularizados; incisivos superiores com inclinação adequada e bem posicionados na base óssea; lábio inferior equilibrado; profundidade facial aumentada; crescimento equilibrado do eixo facial; mandíbula rotacionada no sentido horário, plano palatal com inclinação no sentido horário. Quanto à freqüência dos tipos faciais obtidos pelo índice VERT, do total da amostra estudada 50% dos indivíduos eram braquifaciais, 39,28% dolicofaciais e 10,72% mesofaciais.(AU)
Resumo:
A construção de um sorriso saudável e estético na atualidade, tem o seu sucesso associado à sinergia de todas as especialidades na área da Medicina Dentária. Este trabalho tem como objetivo determinar quais os aspetos que contribuem para a harmonia do sorriso com base na análise dos elementos faciais. Os components faciais e musculares são particulares de cada individuo e intervém diretamente no tipo de sorriso. Fatores como a raça, a idade e o género são variáveis a ter em consideração na construção de um sorriso harmónico. O presente estudo bibliográfico, faz uma abordagem sobre a estética e harmónica do sorriso analisando os aspetos tegumentares faciais, gengivais e as proporções dentárias adequadas à contrução de um sorriso belo e saudável. A aparência do sorriso tem um grande impato na vida dos indivíduos, podendo afetar desde o convívio social até mesmo as relações profissionais. Este é um dos principais motivos pelo qual pacientes recorrem a ajuda de especialistas da área. O estudo efetuado revelou que a análise da face é fundamental no estudo do sorriso. Ela identifica as caraterísticas menos favoráveis e mais favoráveis de cada pessoa com o intúito de obter um equilíbrio entre a face e o sorriso.
Resumo:
Faces are complex patterns that often differ in only subtle ways. Face recognition algorithms have difficulty in coping with differences in lighting, cameras, pose, expression, etc. We propose a novel approach for facial recognition based on a new feature extraction method called fractal image-set encoding. This feature extraction method is a specialized fractal image coding technique that makes fractal codes more suitable for object and face recognition. A fractal code of a gray-scale image can be divided in two parts – geometrical parameters and luminance parameters. We show that fractal codes for an image are not unique and that we can change the set of fractal parameters without significant change in the quality of the reconstructed image. Fractal image-set coding keeps geometrical parameters the same for all images in the database. Differences between images are captured in the non-geometrical or luminance parameters – which are faster to compute. Results on a subset of the XM2VTS database are presented.
Resumo:
This paper describes a novel framework for facial expression recognition from still images by selecting, optimizing and fusing ‘salient’ Gabor feature layers to recognize six universal facial expressions using the K nearest neighbor classifier. The recognition comparisons with all layer approach using JAFFE and Cohn-Kanade (CK) databases confirm that using ‘salient’ Gabor feature layers with optimized sizes can achieve better recognition performance and dramatically reduce computational time. Moreover, comparisons with the state of the art performances demonstrate the effectiveness of our approach.
Resumo:
Acoustically, vehicles are extremely noisy environments and as a consequence audio-only in-car voice recognition systems perform very poorly. Seeing that the visual modality is immune to acoustic noise, using the visual lip information from the driver is seen as a viable strategy in circumventing this problem. However, implementing such an approach requires a system being able to accurately locate and track the driver’s face and facial features in real-time. In this paper we present such an approach using the Viola-Jones algorithm. Using this system, we present our results which show that using the Viola-Jones approach is a suitable method of locating and tracking the driver’s lips despite the visual variability of illumination and head pose.
Resumo:
Gabor representations have been widely used in facial analysis (face recognition, face detection and facial expression detection) due to their biological relevance and computational properties. Two popular Gabor representations used in literature are: 1) Log-Gabor and 2) Gabor energy filters. Even though these representations are somewhat similar, they also have distinct differences as the Log-Gabor filters mimic the simple cells in the visual cortex while the Gabor energy filters emulate the complex cells, which causes subtle differences in the responses. In this paper, we analyze the difference between these two Gabor representations and quantify these differences on the task of facial action unit (AU) detection. In our experiments conducted on the Cohn-Kanade dataset, we report an average area underneath the ROC curve (A`) of 92.60% across 17 AUs for the Gabor energy filters, while the Log-Gabor representation achieved an average A` of 96.11%. This result suggests that small spatial differences that the Log-Gabor filters pick up on are more useful for AU detection than the differences in contours and edges that the Gabor energy filters extract.
Resumo:
When classifying a signal, ideally we want our classifier to trigger a large response when it encounters a positive example and have little to no response for all other examples. Unfortunately in practice this does not occur with responses fluctuating, often causing false alarms. There exists a myriad of reasons why this is the case, most notably not incorporating the dynamics of the signal into the classification. In facial expression recognition, this has been highlighted as one major research question. In this paper we present a novel technique which incorporates the dynamics of the signal which can produce a strong response when the peak expression is found and essentially suppresses all other responses as much as possible. We conducted preliminary experiments on the extended Cohn-Kanade (CK+) database which shows its benefits. The ability to automatically and accurately recognize facial expressions of drivers is highly relevant to the automobile. For example, the early recognition of “surprise” could indicate that an accident is about to occur; and various safeguards could immediately be deployed to avoid or minimize injury and damage. In this paper, we conducted initial experiments on the extended Cohn-Kanade (CK+) database which shows its benefits.
Resumo:
In automatic facial expression detection, very accurate registration is desired which can be achieved via a deformable model approach where a dense mesh of 60-70 points on the face is used, such as an active appearance model (AAM). However, for applications where manually labeling frames is prohibitive, AAMs do not work well as they do not generalize well to unseen subjects. As such, a more coarse approach is taken for person-independent facial expression detection, where just a couple of key features (such as face and eyes) are tracked using a Viola-Jones type approach. The tracked image is normally post-processed to encode for shift and illumination invariance using a linear bank of filters. Recently, it was shown that this preprocessing step is of no benefit when close to ideal registration has been obtained. In this paper, we present a system based on the Constrained Local Model (CLM) which is a generic or person-independent face alignment algorithm which gains high accuracy. We show these results against the LBP feature extraction on the CK+ and GEMEP datasets.
Resumo:
Occlusion is a big challenge for facial expression recognition (FER) in real-world situations. Previous FER efforts to address occlusion suffer from loss of appearance features and are largely limited to a few occlusion types and single testing strategy. This paper presents a robust approach for FER in occluded images and addresses these issues. A set of Gabor based templates is extracted from images in the gallery using a Monte Carlo algorithm. These templates are converted into distance features using template matching. The resulting feature vectors are robust to occlusion. Occluded eyes and mouth regions and randomly places occlusion patches are used for testing. Two testing strategies analyze the effects of these occlusions on the overall recognition performance as well as each facial expression. Experimental results on the Cohn-Kanade database confirm the high robustness of our approach and provide useful insights about the effects of occlusion on FER. Performance is also compared with previous approaches.
Resumo:
In a clinical setting, pain is reported either through patient self-report or via an observer. Such measures are problematic as they are: 1) subjective, and 2) give no specific timing information. Coding pain as a series of facial action units (AUs) can avoid these issues as it can be used to gain an objective measure of pain on a frame-by-frame basis. Using video data from patients with shoulder injuries, in this paper, we describe an active appearance model (AAM)-based system that can automatically detect the frames in video in which a patient is in pain. This pain data set highlights the many challenges associated with spontaneous emotion detection, particularly that of expression and head movement due to the patient's reaction to pain. In this paper, we show that the AAM can deal with these movements and can achieve significant improvements in both the AU and pain detection performance compared to the current-state-of-the-art approaches which utilize similarity-normalized appearance features only.
Resumo:
Eigen-based techniques and other monolithic approaches to face recognition have long been a cornerstone in the face recognition community due to the high dimensionality of face images. Eigen-face techniques provide minimal reconstruction error and limit high-frequency content while linear discriminant-based techniques (fisher-faces) allow the construction of subspaces which preserve discriminatory information. This paper presents a frequency decomposition approach for improved face recognition performance utilising three well-known techniques: Wavelets; Gabor / Log-Gabor; and the Discrete Cosine Transform. Experimentation illustrates that frequency domain partitioning prior to dimensionality reduction increases the information available for classification and greatly increases face recognition performance for both eigen-face and fisher-face approaches.
Resumo:
Facial expression is an important channel for human communication and can be applied in many real applications. One critical step for facial expression recognition (FER) is to accurately extract emotional features. Current approaches on FER in static images have not fully considered and utilized the features of facial element and muscle movements, which represent static and dynamic, as well as geometric and appearance characteristics of facial expressions. This paper proposes an approach to solve this limitation using ‘salient’ distance features, which are obtained by extracting patch-based 3D Gabor features, selecting the ‘salient’ patches, and performing patch matching operations. The experimental results demonstrate high correct recognition rate (CRR), significant performance improvements due to the consideration of facial element and muscle movements, promising results under face registration errors, and fast processing time. The comparison with the state-of-the-art performance confirms that the proposed approach achieves the highest CRR on the JAFFE database and is among the top performers on the Cohn-Kanade (CK) database.