434 resultados para LDPC decoding
Resumo:
Negli ultimi quattro anni la summarization astrattiva è stata protagonista di una evoluzione senza precedenti dettata da nuovi language model neurali, architetture transformer-based, elevati spazi dimensionali, ampi dataset e innovativi task di pre-training. In questo contesto, le strategie di decoding convertono le distribuzioni di probabilità predette da un modello in un testo artificiale, il quale viene composto in modo auto regressivo. Nonostante il loro cruciale impatto sulla qualità dei riassunti inferiti, il ruolo delle strategie di decoding è frequentemente trascurato e sottovalutato. Di fronte all'elevato numero di tecniche e iperparametri, i ricercatori necessitano di operare scelte consapevoli per ottenere risultati più affini agli obiettivi di generazione. Questa tesi propone il primo studio altamente comprensivo sull'efficacia ed efficienza delle strategie di decoding in task di short, long e multi-document abstractive summarization. Diversamente dalle pubblicazioni disponibili in letteratura, la valutazione quantitativa comprende 5 metriche automatiche, analisi temporali e carbon footprint. I risultati ottenuti dimostrano come non vi sia una strategia di decoding dominante, ma come ciascuna possieda delle caratteristiche adatte a task e dataset specifici. I contributi proposti hanno l'obiettivo di neutralizzare il gap di conoscenza attuale e stimolare lo sviluppo di nuove tecniche di decoding.
Resumo:
O presente trabalho versa sobre o diagnóstico e a abordagem ortodôntica das anomalias dentárias, enfatizando os aspectos etiológicos que definem tais irregularidades de desenvolvimento. Parece existir uma inter-relação genética na determinação de algumas dessas anomalias, considerando-se a alta frequência de associações. Um mesmo defeito genético pode originar diferentes manifestações fenotípicas, incluindo agenesias, microdontias, ectopias e atraso no desenvolvimento dentário. As implicações clínicas das anomalias dentárias associadas são muito relevantes, uma vez que o diagnóstico precoce de uma determinada anomalia dentária pode alertar o clínico sobre a possibilidade de desenvolvimento de outras anomalias associadas no mesmo paciente ou em outros membros da família, permitindo a intervenção ortodôntica em época oportuna.
Resumo:
A síndrome do X Frágil é a causa mais frequente de deficiência intelectual hereditária. A variante de Dandy-Walker trata-se de uma constelação específica de achados neurorradiológicos. Este estudo relata achados da comunicação oral e escrita de um menino de 15 anos com diagnóstico clínico e molecular da síndrome do X-Frágil e achados de neuroimagem do encéfalo compatíveis com variante de Dandy-Walker. A avaliação fonoaudiológica foi realizada por meio da Observação do Comportamento Comunicativo, aplicação do ABFW - Teste de Linguagem Infantil - Fonologia, Perfil de Habilidades Fonológicas, Teste de Desempenho Escolar, Teste Illinois de Habilidades Psicolinguísticas, avaliação do sistema estomatognático e avaliação audiológica. Observou-se: alteração de linguagem oral quanto às habilidades fonológicas, semânticas, pragmáticas e morfossintáticas; déficits nas habilidades psicolinguísticas (recepção auditiva, expressão verbal, combinação de sons, memória sequencial auditiva e visual, closura auditiva, associação auditiva e visual); e alterações morfológicas e funcionais do sistema estomatognático. Na leitura verificou-se dificuldades na decodificação dos símbolos gráficos e na escrita havia omissões, aglutinações e representações múltiplas com o uso predominante de vogais e dificuldades na organização viso-espacial. Em matemática, apesar do reconhecimento numérico, não realizou operações aritméticas. Não foram observadas alterações na avaliação audiológica periférica. A constelação de sintomas comportamentais, cognitivos, linguísticos e perceptivos, previstos na síndrome do X-Frágil, somada às alterações estruturais do sistema nervoso central, pertencentes à variante de Dandy-Walker, trouxeram interferências marcantes no desenvolvimento das habilidades comunicativas, no aprendizado da leitura e escrita e na integração social do indivíduo.
Resumo:
How information transmission processes between individuals are shaped by natural selection is a key question for the understanding of the evolution of acoustic communication systems. Environmental acoustics predict that signal structure will differ depending on general features of the habitat. Social features, like individual spacing and mating behavior, may also be important for the design of communication. Here we present the first experimental study investigating how a tropical rainforest bird, the white-browed warbler Basileuterus leucoblepharus, extracts various information from a received song: species-specific identity, individual identity and location of the sender. Species-specific information is encoded in a resistant acoustic feature and is thus a public signal helping males to reach a wide audience. Conversely, individual identity is supported by song features susceptible to propagation: this private signal is reserved for neighbors. Finally, the receivers can locate the singers by using propagation-induced song modifications. Thus, this communication system is well matched to the acoustic constraints of the rain forest and to the ecological requirements of the species. Our results emphasize that, in a constraining acoustic environment, the efficiency of a sound communication system results from a coding/decoding process particularly well tuned to the acoustic properties of this environment.
Resumo:
One hundred university students completed tests of spelling production, vocabulary, reading comprehension, reading experience, and reading accuracy (ability to distinguish a previously read word from a similar distractor). Reading experience, as measured by an adaptation of the Author Recognition Test, and reading accuracy contributed to the prediction of spelling beyond the joint contribution of reading comprehension and vocabulary. The results are more consistent with a uni-process model of spelling based on the quality of word-specific orthographic learning, rather than with a dual-process account relying on both word-specific knowledge and rules.
Resumo:
Pattern recognition methods have been successfully applied in several functional neuroimaging studies. These methods can be used to infer cognitive states, so-called brain decoding. Using such approaches, it is possible to predict the mental state of a subject or a stimulus class by analyzing the spatial distribution of neural responses. In addition it is possible to identify the regions of the brain containing the information that underlies the classification. The Support Vector Machine (SVM) is one of the most popular methods used to carry out this type of analysis. The aim of the current study is the evaluation of SVM and Maximum uncertainty Linear Discrimination Analysis (MLDA) in extracting the voxels containing discriminative information for the prediction of mental states. The comparison has been carried out using fMRI data from 41 healthy control subjects who participated in two experiments, one involving visual-auditory stimulation and the other based on bimanual fingertapping sequences. The results suggest that MLDA uses significantly more voxels containing discriminative information (related to different experimental conditions) to classify the data. On the other hand, SVM is more parsimonious and uses less voxels to achieve similar classification accuracies. In conclusion, MLDA is mostly focused on extracting all discriminative information available, while SVM extracts the information which is sufficient for classification. (C) 2009 Elsevier Inc. All rights reserved.
Resumo:
Groups of Grade 3 children were tested on measures of word-level literacy and undertook tasks that required the ability to associate sounds with letter sequences and that involved visual, auditory and phonological-processing skills. These groups came from different language backgrounds in which the language of instruction was Arabic, Chinese, English, Hungarian or Portuguese. Similar measures were used across the groups, with tests being adapted to be appropriate for the language of the children. Findings indicated that measures of decoding and phonological-processing skills were good predictors of word reading and spelling among Arabic- and English-speaking children, but were less able to predict variability in these same early literacy skills among Chinese- and Hungarian-speaking children, and were better at predicting variability in Portuguese word reading than spelling. Results were discussed with reference to the relative transparency of the script and issues of dyslexia assessment across languages. Overall, the findings argue for the need to take account of features of the orthography used to represent a language when developing assessment procedures for a particular language and that assessment of word-level literacy skills and a phonological perspective of dyslexia may not be universally applicable across all language contexts. Copyright (C) 2008 John Wiley & Sons, Ltd.
Resumo:
Rapid access to genetic information is central to the revolution presently occurring in the pharmaceutical industry, particularly In relation to novel drug target identification and drug development. Genetic variation, gene expression, gene function and gene structure are just some of the important research areas requiring efficient methods of DNA screening. Here, we highlight state-of-the-art techniques and devices for gene screening that promise cheaper and higher-throughput yields than currently achieved with DNA microarrays. We include an overview of existing and proposed bead-based strategies designed to dramatically increase the number of probes that can be interrogated in one assay. We focus, in particular, on the issue of encoding and/or decoding (bar-coding) large bead-based libraries for HTS.
Resumo:
Este texto lança algumas reflexões sobre os axiomas do capitalismo que permitem descodificar todas as convenções das sociedades chamadas “selvagens”, e realizar as promessas de poder das sociedades déspotas, “bárbaras”. Simultaneamente, o capitalismo, provoca uma multiplicação das fraturas territoriais e de globalizações de toda ordem. Nessa descodificação de todos os valores, os fluxos (sociais, econômicos, políticos) liberados pelo capitalismo hesitam entre, de um lado, uma descodificação que levaria a uma desterritorialização radical dos processos e, de outro lado, um reaparecimento e re-atualização conservadora desses fluxos liberados pelo próprio processo de “criação destrutiva”.
Resumo:
Esta pesquisa documental analisa as concepções de alfabetização, leitura e escrita subjacentes à Provinha Brasil no período 2008-2012 e o panorama em que esse programa de avaliação é produzido. Parte do referencial bakhtiniano e do conceito de alfabetização de Gontijo (2008, 2013). Ao tomar a Provinha como gênero do discurso, discute os elos precedentes dentro do contexto de produção dessa avaliação, a autoria do Programa e seus principais destinatários. Constata que a Provinha é criada como resposta às demandas de avaliação da alfabetização provenientes de organismos internacionais como o Banco Mundial e a Organização das Nações Unidas para a Educação (Unesco). A avaliação é elaborada pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (Inep) como órgão que coordena as avaliações no País, em colaboração com pesquisadores de universidades e de organizações da sociedade civil, para demonstrar confiabilidade científica aliada à participação democrática no processo de produção. Seus principais destinatários são gestores de Secretarias de Educação e professores. Aos primeiros, cabe aderir ao programa de avaliação e tomar medidas administrativas para sua operacionalização nas redes. Os docentes têm o papel central de seguir as orientações do material e reorganizar sua prática em função de melhorias nos desempenhos das crianças no teste. Estas, por sua vez, são desconsideradas como sujeitos de dizeres e é legitimado um discurso homogeneizador sobre seu desenvolvimento. A partir dos testes aplicados e das matrizes de referência e seus eixos, a pesquisa analisa como a diferenciação teórica entre alfabetização e letramento se concretiza na organização das provas. A alfabetização, entendida como apropriação do sistema de escrita, é avaliada no primeiro eixo do teste principalmente como identificação de unidades menores da língua, como letras, sílabas e fonemas. As habilidades de leitura, ligadas ao letramento como concebido nos pressupostos do programa, são aferidas ora como decodificação de palavras e frases descontextualizadas, ora como apreensão de significado predeterminado do texto. A escrita somente é avaliada no ano de 2008 e por meio de itens que solicitavam codificação de palavras e frases ditadas pelo aplicador. Desse modo, a Provinha Brasil contribui para a subtração das potencialidades políticas e transformadoras do aprendizado da língua materna no País.
Resumo:
Este trabalho tem como objeto de estudo os impressos do Projeto Trilhas, material pedagógico produzido em parceria entre o Instituto Natura, a Comunidade Educativa CEDAC e o Ministério da Educação. Trata-se de uma análise documental com as quais se procurou envolver as noções de enunciado, texto, gênero e suporte que possibilitaram fundamentar a proposta metodológica, pautada pelo diálogo, que teve como escopo problematizar como esse conjunto de materiais pode contribuir no processo do ensino e da aprendizagem das crianças matriculadas nas turmas do primeiro ano do Ensino Fundamental, com foco na análise das concepções de alfabetização, leitura e escrita, engendradas nos materiais. Para isso, o referencial teórico que balizou as reflexões se fundamentou nas contribuições da perspectiva bakhtiniana de linguagem e lançou ancoragens no conceito de alfabetização proposto criticamente por Gontijo (2008). As análises se constituíram como uma arena, isto é, um palco de alteridade. Logo, buscaram compreender como o conceito e as concepções se materializaram nas atividades produzidas pelos sujeitos-autores e problematizaram como os impressos do Projeto Trilhas podem contribuir para a melhoria do ensino e da aprendizagem das crianças matriculadas no primeiro ano do Ensino Fundamental. Com as análises, sustenta-se que o conceito que solidifica a constituição dos impressos deste projeto se aproxima das contribuições de Ferreiro e Teberosky (1999), isto é, a alfabetização é o processo pelo qual as crianças assimilam o código escrito e compreende os usos que são dados a ele nas culturas do escrito. A leitura se configurou como decodificação dos signos linguísticos e compreensão de significados, e a escrita como codificação.
Resumo:
Lossless compression algorithms of the Lempel-Ziv (LZ) family are widely used nowadays. Regarding time and memory requirements, LZ encoding is much more demanding than decoding. In order to speed up the encoding process, efficient data structures, like suffix trees, have been used. In this paper, we explore the use of suffix arrays to hold the dictionary of the LZ encoder, and propose an algorithm to search over it. We show that the resulting encoder attains roughly the same compression ratios as those based on suffix trees. However, the amount of memory required by the suffix array is fixed, and much lower than the variable amount of memory used by encoders based on suffix trees (which depends on the text to encode). We conclude that suffix arrays, when compared to suffix trees in terms of the trade-off among time, memory, and compression ratio, may be preferable in scenarios (e.g., embedded systems) where memory is at a premium and high speed is not critical.
Resumo:
Wyner - Ziv (WZ) video coding is a particular case of distributed video coding (DVC), the recent video coding paradigm based on the Slepian - Wolf and Wyner - Ziv theorems which exploits the source temporal correlation at the decoder and not at the encoder as in predictive video coding. Although some progress has been made in the last years, WZ video coding is still far from the compression performance of predictive video coding, especially for high and complex motion contents. The WZ video codec adopted in this study is based on a transform domain WZ video coding architecture with feedback channel-driven rate control, whose modules have been improved with some recent coding tools. This study proposes a novel motion learning approach to successively improve the rate-distortion (RD) performance of the WZ video codec as the decoding proceeds, making use of the already decoded transform bands to improve the decoding process for the remaining transform bands. The results obtained reveal gains up to 2.3 dB in the RD curves against the performance for the same codec without the proposed motion learning approach for high motion sequences and long group of pictures (GOP) sizes.
Resumo:
Deoxyribonucleic acid, or DNA, is the most fundamental aspect of life but present day scientific knowledge has merely scratched the surface of the problem posed by its decoding. While experimental methods provide insightful clues, the adoption of analysis tools supported by the formalism of mathematics will lead to a systematic and solid build-up of knowledge. This paper studies human DNA from the perspective of system dynamics. By associating entropy and the Fourier transform, several global properties of the code are revealed. The fractional order characteristics emerge as a natural consequence of the information content. These properties constitute a small piece of scientific knowledge that will support further efforts towards the final aim of establishing a comprehensive theory of the phenomena involved in life.
Resumo:
In distributed video coding, motion estimation is typically performed at the decoder to generate the side information, increasing the decoder complexity while providing low complexity encoding in comparison with predictive video coding. Motion estimation can be performed once to create the side information or several times to refine the side information quality along the decoding process. In this paper, motion estimation is performed at the decoder side to generate multiple side information hypotheses which are adaptively and dynamically combined, whenever additional decoded information is available. The proposed iterative side information creation algorithm is inspired in video denoising filters and requires some statistics of the virtual channel between each side information hypothesis and the original data. With the proposed denoising algorithm for side information creation, a RD performance gain up to 1.2 dB is obtained for the same bitrate.