934 resultados para Auditory perception
Resumo:
Postmitotic hair-cell regeneration in the inner ear of birds provides an opportunity to study the effect of renewed auditory input on auditory perception, vocal production, and vocal learning in a vertebrate. We used behavioral conditioning to test both perception and vocal production in a small Australian parrot, the budgerigar. Results show that both auditory perception and vocal production are disrupted when hair cells are damaged or lost but that these behaviors return to near normal over time. Precision in vocal production completely recovers well before recovery of full auditory function. These results may have particular relevance for understanding the relation between hearing loss and human speech production especially where there is consideration of an auditory prosthetic device. The present results show, at least for a bird, that even limited recovery of auditory input soon after deafening can support full recovery of vocal precision.
Resumo:
A avaliação perceptivo-auditiva tem papel fundamental no estudo e na avaliação da voz, no entanto, por ser subjetiva está sujeita a imprecisões e variações. Por outro lado, a análise acústica permite a reprodutibilidade de resultados, porém precisa ser aprimorada, pois não analisa com precisão vozes com disfonias mais intensas e com ondas caóticas. Assim, elaborar medidas que proporcionem conhecimentos confiáveis em relação à função vocal resulta de uma necessidade antiga dentro desta linha de pesquisa e atuação clínica. Neste contexto, o uso da inteligência artificial, como as redes neurais artificiais, indica ser uma abordagem promissora. Objetivo: Validar um sistema automático utilizando redes neurais artificiais para a avaliação de vozes rugosas e soprosas. Materiais e métodos: Foram selecionadas 150 vozes, desde neutras até com presença em grau intenso de rugosidade e/ou soprosidade, do banco de dados da Clínica de Fonoaudiologia da Faculdade de Odontologia de Bauru (FOB/USP). Dessas vozes, 23 foram excluídas por não responderem aos critérios de inclusão na amostra, assim utilizaram-se 123 vozes. Procedimentos: avaliação perceptivo-auditiva pela escala visual analógica de 100 mm e pela escala numérica de quatro pontos; extração de características do sinal de voz por meio da Transformada Wavelet Packet e dos parâmetros acústicos: jitter, shimmer, amplitude da derivada e amplitude do pitch; e validação do classificador por meio da parametrização, treino, teste e avaliação das redes neurais artificiais. Resultados: Na avaliação perceptivo-auditiva encontrou-se, por meio do teste Coeficiente de Correlação Intraclasse (CCI), concordâncias inter e intrajuiz excelentes, com p = 0,85 na concordância interjuízes e p variando de 0,87 a 0,93 nas concordâncias intrajuiz. Em relação ao desempenho da rede neural artificial, na discriminação da soprosidade e da rugosidade e dos seus respectivos graus, encontrou-se o melhor desempenho para a soprosidade no subconjunto composto pelo jitter, amplitude do pitch e frequência fundamental, no qual obteve-se taxa de acerto de 74%, concordância excelente com a avaliação perceptivo-auditiva da escala visual analógica (0,80 no CCI) e erro médio de 9 mm. Para a rugosidade, o melhor subconjunto foi composto pela Transformada Wavelet Packet com 1 nível de decomposição, jitter, shimmer, amplitude do pitch e frequência fundamental, no qual obteve-se 73% de acerto, concordância excelente (0,84 no CCI), e erro médio de 10 mm. Conclusão: O uso da inteligência artificial baseado em redes neurais artificiais na identificação, e graduação da rugosidade e da soprosidade, apresentou confiabilidade excelente (CCI > 0,80), com resultados semelhantes a concordância interjuízes. Dessa forma, a rede neural artificial revela-se como uma metodologia promissora de avaliação vocal, tendo sua maior vantagem a objetividade na avaliação.
Resumo:
A perda auditiva unilateral (PAUn) é caracterizada pela diminuição da audição em apenas uma orelha. Indivíduos com este tipo de perda auditiva podem apresentar comprometimento nas habilidades auditivas de localização sonora, processamento temporal, ordenação e resolução temporal. O objetivo deste estudo foi verificar as habilidades auditivas de ordenação temporal, resolução temporal e localização sonora, antes e após a adaptação do aparelho de amplificação sonora individual (AASI). Foram avaliados 22 indivíduos, com idades entre 18 e 60 anos, com diagnóstico de PAUn sensorioneural ou mista, de graus leve a severo. O estudo foi dividido em duas etapas: a pré e a pós-adaptação de AASI. Em ambas as etapas, os indivíduos foram submetidos a uma anamnese, aplicação do Questionário de Habilidade Auditiva da Localização da fonte sonora, avaliação simplificada do processamento auditivo (ASPA) e Random Gap Detection Test (RGDT). O presente estudo encontrou diferença estatisticamente significante na avaliação da ASPA, exceto no teste de memória para sons não verbais em sequência (TMSnV), no RGDT e no Questionário de Habilidade Auditiva da Localização Sonora. A conclusão do estudo foi que com o uso efetivo do AASI, indivíduos com PAUn apresentaram melhora nas habilidades auditivas de localização sonora, ordenação e resolução temporal.
Resumo:
A avaliação vocal é realizada predominantemente por meio da avaliação perceptivoauditiva, sendo dependente de conhecimentos teóricos prévios e de treinamento prático e dinâmico. Entretanto, ainda são escassas as iniciativas educacionais que se utilizam das novas tecnologias para o ensino da avaliação perceptivoauditiva da voz. A utilização de estratégias com novas tecnologias de informação e comunicação, hoje tão presentes e familiarizadas no meio universitário, apresentam o intuito de facilitar e otimizar o processo de ensino e aprendizagem. Desta forma, este estudo teve o propósito de elaborar e avaliar um curso a distância em um ambiente virtual de aprendizagem sobre essa temática. Elaborou-se um curso a distância sobre a avaliação perceptivoauditiva da voz organizado em quatro módulos principais: 1. Noções básicas de anatomia e fisiologia da fonação; 2. Ouvindo vozes; 3. Avaliação perceptivoauditiva da voz e 4. Aplicabilidade da avaliação perceptivoauditiva da voz, além de um adicional com vídeos sobre curiosidades e sugestão de material complementar para estudo. O ambiente virtual de aprendizagem (AVA) também apresentou diversas ferramentas educacionais como textos, imagens ilustrativas, videoaulas, vídeos, arquivos de áudio, atividades práticas individuais, fóruns, além de recursos de interatividade entre alunos e tutora. Este material foi antecipadamente avaliado por três especialistas que avaliaram o material positivamente como uma inovadora e importante ferramenta educacional que poderá ser utilizada na formação de estudantes na área de voz. Foram convidados a participar do curso a distância, 133 alunos do 1o ao 4o ano de um curso de graduação em Fonoaudiologia de uma Universidade do interior paulista. Concordaram em participar 33 estudantes e desses, nove concluíram o curso. Os alunos responderam a avaliações de conteúdo nos momentos pré e pós-curso, de forma presencial e a avaliações de cada módulo, realizadas por meio de questões específicas e atividades práticas, no próprio site. Ao término do curso os alunos também responderam a uma avaliação motivacional do AVA. Observou-se diferença estatisticamente significante na média de acertos nas provas pré e pós-curso dos alunos, nas questões teóricas (p= 0,031), nas práticas (p=0,000) e no total (p=0,002), demonstrando que o material elaborado foi capaz de aumentar o conhecimento dos estudantes a respeito de seu tema. O AVA apresentou alto índice de satisfação motivacional e foi avaliado por todos os participantes como um curso impressionante, de acordo com o instrumento de avaliação motivacional utilizado. Conclui-se que foi possível elaborar um ambiente virtual de aprendizagem (AVA), em formato de curso a distância, sobre a temática da avaliação perceptivoauditiva da voz e que o material elaborado apresenta um importante potencial de ensino e aprendizagem sobre esse tema.
Resumo:
This study analyzes the process of semantic change by which the Old Catalan verb sentir developed from a meaning based on general perception to one implying auditory perception. In particular, the article shows that by the end of the 13th century the verb sentir had only semanticized the perception of non-linguistic auditory stimuli and had not fused completely with the meaning of the verb oir, as was the case with the evolution of SĔNTĪRE in other Romance languages (such as Peninsular Spanish). Our study has been based on data analysis of an electronic linguistic corpus using the concepts of E. C. Traugott’s Invited Inferencing Theory of Semantic Change (IITSC) (2012) and the concept of evidentiality.
Resumo:
Relatório de Estágio apresentado à Escola Superior de Artes Aplicadas do Instituto Politécnico de Castelo Branco para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Ensino de Música – Formação Musical e Música de Conjunto.
Resumo:
National Highway Traffic Safety Administration, Washington, D.C.
Resumo:
We investigated the electrophysiological response to matched two-formant vowels and two-note musical intervals, with the goal of examining whether music is processed differently from language in early cortical responses. Using magnetoencephalography (MEG), we compared the mismatch-response (MMN/MMF, an early, pre-attentive difference-detector occurring approximately 200 ms post-onset) to musical intervals and vowels composed of matched frequencies. Participants heard blocks of two stimuli in a passive oddball paradigm in one of three conditions: sine waves, piano tones and vowels. In each condition, participants heard two-formant vowels or musical intervals whose frequencies were 11, 12, or 24 semitones apart. In music, 12 semitones and 24 semitones are perceived as highly similar intervals (one and two octaves, respectively), while in speech 12 semitones and 11 semitones formant separations are perceived as highly similar (both variants of the vowel in 'cut'). Our results indicate that the MMN response mirrors the perceptual one: larger MMNs were elicited for the 12-11 pairing in the music conditions than in the language condition; conversely, larger MMNs were elicited to the 12-24 pairing in the language condition that in the music conditions, suggesting that within 250 ms of hearing complex auditory stimuli, the neural computation of similarity, just as the behavioral one, differs significantly depending on whether the context is music or speech.
Resumo:
This paper reviews a study done to determine the correlation between lipreading, auditory speech perception, language abilities, and hearing loss levels in hearing impaired children.
Resumo:
This paper discusses a test for speech perception and scoring to test likelihood of success with mainstreaming.
Resumo:
Auditory-visual speech perception testing was completed using wordandconsonant-level stimuli in individuals with known degrees of dementia of theAlzheimer’s type. The correlations with the cognitive measures and the speechperception measures (A-only, V-only, AV, VE or AE) did not reveal significantrelationships.
Resumo:
We report two studies of the distinct effects that a word's age of acquisition (AoA) and frequency have on the mental lexicon. In the first study, a purely statistical analysis, we show that AoA and frequency are related in different ways to the phonological form and imageability of different words. In the second study, three groups of participants (34 seven-year-olds, 30 ten-year-olds, and 17 adults) took part in an auditory lexical decision task, with stimuli varying in AoA, frequency, length, neighbourhood density, and imageability. The principal result is that the influence of these different variables changes as a function of AoA: Neighbourhood density effects are apparent for early and late AoA words, but not for intermediate AoA, whereas imageability effects are apparent for intermediate AoA words but not for early or late AoA. These results are discussed from the perspective that AoA affects a word's representation, but frequency affects processing biases.
Resumo:
Objective: To characterize the PI component of long latency auditory evoked potentials (LLAEPs) in cochlear implant users with auditory neuropathy spectrum disorder (ANSD) and determine firstly whether they correlate with speech perception performance and secondly whether they correlate with other variables related to cochlear implant use. Methods: This study was conducted at the Center for Audiological Research at the University of Sao Paulo. The sample included 14 pediatric (4-11 years of age) cochlear implant users with ANSD, of both sexes, with profound prelingual hearing loss. Patients with hypoplasia or agenesis of the auditory nerve were excluded from the study. LLAEPs produced in response to speech stimuli were recorded using a Smart EP USB Jr. system. The subjects' speech perception was evaluated using tests 5 and 6 of the Glendonald Auditory Screening Procedure (GASP). Results: The P-1 component was detected in 12/14 (85.7%) children with ANSD. Latency of the P-1 component correlated with duration of sensorial hearing deprivation (*p = 0.007, r = 0.7278), but not with duration of cochlear implant use. An analysis of groups assigned according to GASP performance (k-means clustering) revealed that aspects of prior central auditory system development reflected in the P-1 component are related to behavioral auditory skills. Conclusions: In children with ANSD using cochlear implants, the P-1 component can serve as a marker of central auditory cortical development and a predictor of the implanted child's speech perception performance. (c) 2012 Elsevier Ireland Ltd. All rights reserved.
Resumo:
In this article, it is shown that IWD incorporates topological perceptual characteristics of both spoken and written language, and it is argued that these characteristics should not be ignored or given up when synchronous textual CMC is technologically developed and upgraded.
Resumo:
The characteristics of moving sound sources have strong implications on the listener's distance perception and the estimation of velocity. Modifications of the typical sound emissions as they are currently occurring due to the tendency towards electromobility have an impact on the pedestrian's safety in road traffic. Thus, investigations of the relevant cues for velocity and distance perception of moving sound sources are not only of interest for the psychoacoustic community, but also for several applications, like e.g. virtual reality, noise pollution and safety aspects of road traffic. This article describes a series of psychoacoustic experiments in this field. Dichotic and diotic stimuli of a set of real-life recordings taken from a passing passenger car and a motorcycle were presented to test subjects who in turn were asked to determine the velocity of the object and its minimal distance from the listener. The results of these psychoacoustic experiments show that the estimated velocity is strongly linked to the object's distance. Furthermore, it could be shown that binaural cues contribute significantly to the perception of velocity. In a further experiment, it was shown that - independently of the type of the vehicle - the main parameter for distance determination is the maximum sound pressure level at the listener's position. The article suggests a system architecture for the adequate consideration of moving sound sources in virtual auditory environments. Virtual environments can thus be used to investigate the influence of new vehicle powertrain concepts and the related sound emissions of these vehicles on the pedestrians' ability to estimate the distance and velocity of moving objects.