2 resultados para Parestesia facial

em ReCiL - Repositório Científico Lusófona - Grupo Lusófona, Portugal


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em finais da década de sessenta, um grupo de investigadores descobriu que para um conjunto de emoções básicas existem expressões não-verbais distintas, universais, e provavelmente inatas. Desde então, multiplicaram-se os estudos em diferentes culturas que pretendem testar a tese da universalidade. Muitos deles consistiram no desenvolvimento e validação de sistemas de codificação de acção muscular facial para as expressões das diferentes emoções. Recentemente, têm surgido evidências de universalidade das expressões de algumas emoções auto-conscientes. Esta investigação teve como objectivo testar o comportamento na população portuguesa do University of California, Davis, Set of Emotion Expressions, ou UCDSEE (Tracy, Robins, & Schriber, 2009), um conjunto de 47 fotografias com expressões emocionais básicas e auto-conscientes. Participaram nesta investigação 427 estudantes universitários, a quem foi pedido que as observassem e identificassem as respectivas emoções. As expressões das emoções em estudo foram reconhecidas pela população portuguesa num nível superior ao acaso, exceptuando as de vergonha. O reconhecimento das expressões das emoções básicas foi superior ao das emoções auto- conscientes. O UCDSEE mostrou-se adequado para futuros estudos com a população portuguesa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The effect of multiple sclerosis (MS) on the ability to identify emotional expressions in faces was investigated, and possible associations with patients’ characteristics were explored. 56 non-demented MS patients and 56 healthy subjects (HS) with similar demographic characteristics performed an emotion recognition task (ERT), the Benton Facial Recognition Test (BFRT), and answered the Hospital Anxiety and Depression Scale (HADS). Additionally, MS patients underwent a neurological examination and a comprehensive neuropsychological evaluation. The ERT consisted of 42 pictures of faces (depicting anger, disgust, fear, happiness, sadness, surprise and neutral expressions) from the NimStim set. An iViewX high-speed eye tracker was used to record eye movements during ERT. The fixation times were calculated for two regions of interest (i.e., eyes and rest of the face). No significant differences were found between MS and HC on ERT’s behavioral and oculomotor measures. Bivariate and multiple regression analyses revealed significant associations between ERT’s behavioral performance and demographic, clinical, psychopathological, and cognitive measures.