816 resultados para Computer-assisted chemotaxonomy
Resumo:
Acoustic feature based speech (syllable) rate estimation and syllable nuclei detection are important problems in automatic speech recognition (ASR), computer assisted language learning (CALL) and fluency analysis. A typical solution for both the problems consists of two stages. The first stage involves computing a short-time feature contour such that most of the peaks of the contour correspond to the syllabic nuclei. In the second stage, the peaks corresponding to the syllable nuclei are detected. In this work, instead of the peak detection, we perform a mode-shape classification, which is formulated as a supervised binary classification problem - mode-shapes representing the syllabic nuclei as one class and remaining as the other. We use the temporal correlation and selected sub-band correlation (TCSSBC) feature contour and the mode-shapes in the TCSSBC feature contour are converted into a set of feature vectors using an interpolation technique. A support vector machine classifier is used for the classification. Experiments are performed separately using Switchboard, TIMIT and CTIMIT corpora in a five-fold cross validation setup. The average correlation coefficients for the syllable rate estimation turn out to be 0.6761, 0.6928 and 0.3604 for three corpora respectively, which outperform those obtained by the best of the existing peak detection techniques. Similarly, the average F-scores (syllable level) for the syllable nuclei detection are 0.8917, 0.8200 and 0.7637 for three corpora respectively. (C) 2016 Elsevier B.V. All rights reserved.
Resumo:
利用Fluent软件、ISAT算法与由CARM(Computer Assisted Reduction Method)简化而来的11组分、7步反应的乙烯简化机理对碳氢燃料/空气的超声速燃烧问题进行数值模拟.研究结果表明这种方法是可利用的.计算得到的压力数据与试验压力值可以比较.
Resumo:
[EU]Enpresak sortzeko UPV/EHUko lehen programek eta programa horietatik sortutako lehen spin-offek hamabost urte baino gehiagoko ibilbidea egin dute jada. Denbora tarte horretan, hain zuzen, UPV/EHUtik hainbat spin-off sortu dira. Logikak agintzen duen moduan, enpresa bakoitzak garapen zehatza izan du, eta gaur egun bizi duen egoera bakarra da. Hala nola, enpresa bakoitzak unibertsitatearekin egun duen harremana ere desberdina da. Bada, ikerlan honen helburu nagusia da, alde batetik, UPV/EHUko egungo testuinguru ekintzailea aztertzea; eta bestetik, unibertsitateak spin-offen sorrera eta garapenean izan duen eragina ikertzea. Horretarako, enpresak sortzeko UPV/EHUko programaren baten babespean sortutako 40 spin-off aztertu dira, web formulario bidez bidalitako inkesta baten bitartez.
Resumo:
As investigações em torno da atuação política da imprensa costumam partir de duas posturas teóricas opostas. De um lado, alguns analistas enfatizam a importância da imprensa para a constituição de uma esfera pública nas democracias modernas. Desse prisma, ela seria encarregada de viabilizar o debate público e submeter ao escrutínio da sociedade as decisões estatais. Do outro lado, uma perspectiva mais cética defende que a imprensa não pode ser tomada como um pilar da esfera pública. Suas rotinas e estruturas a tornariam uma instância de manipulação retórica incompatível com o ideal moderno de um público deliberativo. Contudo, para além dessas oposições é importante notar que o ideal de uma deliberação pública mediada pela imprensa tem funcionado historicamente como um discurso de legitimação para a própria imprensa. Partindo da premissa de que a ideia de esfera pública é uma categoria política, esta pesquisa pretende entender de que modo alguns jornais se servem de uma dada concepção de esfera pública para se autolegitimarem enquanto pilares do debate público democrático. Através do estudo da maneira como a grande imprensa brasileira lidou com o tema das ações afirmativas raciais no ensino superior, este trabalho mostra como determinados enquadramentos midiáticos serviram para que a imprensa reivindicasse para si o status de esfera pública de debate do tema. A pesquisa se baseou numa análise de todos os textos sobre as ações afirmativas raciais no ensino superior publicados entre 2001 e 2009 nos dois principais jornais brasileiros: O Globo e Folha de S. Paulo. No total, 1.831 textos de diferentes tipos (reportagens, artigos, colunas, editoriais, cartas de leitores etc.) foram compilados e analisados a partir de Programas Computacionais de Codificação Assistida de Dados Qualitativos (CAQDAS, na sigla anglófona). A análise indica que ambos os jornais promoveram uma dramatização pública da controvérsia ao organizarem as discussões em torno das ações afirmativas raciais de acordo com determinados modelos de esfera pública. Tal dramatização não somente possibilitou que a imprensa influenciasse os destinos das ações afirmativas raciais no país, apresentando-as como medidas essencialmente polêmicas, mas também limitou a cobertura a estruturas narrativas padronizadas
Resumo:
205 p.
Resumo:
A system of computer assisted grammar construction (CAGC) is presented in this paper. The CAGC system is designed to generate broad-coverage grammars for large natural language corpora by utilizing both an extended inside-outside algorithm and an automatic phrase bracketing (AUTO) system which is designed to provide the extended algorithm with constituent information during learning. This paper demonstrates the capability of the CAGC system to deal with realistic natural language problems and the usefulness of the AUTO system for constraining the inside-outside based grammar re-estimation. Performance results, including coverage, recall and precision, are presented for a grammar constructed for the Wall Street Journal (WSJ) corpus using the Penn Treebank.
Resumo:
This paper investigates a method of automatic pronunciation scoring for use in computer-assisted language learning (CALL) systems. The method utilizes a likelihood-based `Goodness of Pronunciation' (GOP) measure which is extended to include individual thresholds for each phone based on both averaged native confidence scores and on rejection statistics provided by human judges. Further improvements are obtained by incorporating models of the subject's native language and by augmenting the recognition networks to include expected pronunciation errors. The various GOP measures are assessed using a specially recorded database of non-native speakers which has been annotated to mark phone-level pronunciation errors. Since pronunciation assessment is highly subjective, a set of four performance measures has been designed, each of them measuring different aspects of how well computer-derived phone-level scores agree with human scores. These performance measures are used to cross-validate the reference annotations and to assess the basic GOP algorithm and its refinements. The experimental results suggest that a likelihood-based pronunciation scoring metric can achieve usable performance, especially after applying the various enhancements.