623 resultados para Nonverbal Decoding
Resumo:
Diagnosis involves a complex and overlapping series of steps, each of which may be a source of error and of variability between clinicians. This variation may involve the ability to elicit relevant information from the client or animal, in the accuracy, objectivity and completeness of relevant memory stores, and in psychological attributes including tolerance for uncertainty and willingness to engage in constructive self-criticism. The diagnostic acumen of an individual clinician may not be constant, varying with external and personal factors, with different clients and cases, and with the use made of tests. In relation to clients, variations may occur in the ability to gain their confidence, to ask appropriate questions and to evaluate accurately both verbal and nonverbal responses. Tests may introduce problems of accuracy, validity, sensitivity, specificity, interpretation and general appropriateness for the case. Continuing effectiveness as a diagnostician therefore requires constant attention to the maintenance of adequate and up-to-date skills and knowledge relating to the animals and their diseases and to tests, and of sensitive interpersonal skills.
Resumo:
Este texto lança algumas reflexões sobre os axiomas do capitalismo que permitem descodificar todas as convenções das sociedades chamadas “selvagens”, e realizar as promessas de poder das sociedades déspotas, “bárbaras”. Simultaneamente, o capitalismo, provoca uma multiplicação das fraturas territoriais e de globalizações de toda ordem. Nessa descodificação de todos os valores, os fluxos (sociais, econômicos, políticos) liberados pelo capitalismo hesitam entre, de um lado, uma descodificação que levaria a uma desterritorialização radical dos processos e, de outro lado, um reaparecimento e re-atualização conservadora desses fluxos liberados pelo próprio processo de “criação destrutiva”.
Resumo:
Esta pesquisa documental analisa as concepções de alfabetização, leitura e escrita subjacentes à Provinha Brasil no período 2008-2012 e o panorama em que esse programa de avaliação é produzido. Parte do referencial bakhtiniano e do conceito de alfabetização de Gontijo (2008, 2013). Ao tomar a Provinha como gênero do discurso, discute os elos precedentes dentro do contexto de produção dessa avaliação, a autoria do Programa e seus principais destinatários. Constata que a Provinha é criada como resposta às demandas de avaliação da alfabetização provenientes de organismos internacionais como o Banco Mundial e a Organização das Nações Unidas para a Educação (Unesco). A avaliação é elaborada pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (Inep) como órgão que coordena as avaliações no País, em colaboração com pesquisadores de universidades e de organizações da sociedade civil, para demonstrar confiabilidade científica aliada à participação democrática no processo de produção. Seus principais destinatários são gestores de Secretarias de Educação e professores. Aos primeiros, cabe aderir ao programa de avaliação e tomar medidas administrativas para sua operacionalização nas redes. Os docentes têm o papel central de seguir as orientações do material e reorganizar sua prática em função de melhorias nos desempenhos das crianças no teste. Estas, por sua vez, são desconsideradas como sujeitos de dizeres e é legitimado um discurso homogeneizador sobre seu desenvolvimento. A partir dos testes aplicados e das matrizes de referência e seus eixos, a pesquisa analisa como a diferenciação teórica entre alfabetização e letramento se concretiza na organização das provas. A alfabetização, entendida como apropriação do sistema de escrita, é avaliada no primeiro eixo do teste principalmente como identificação de unidades menores da língua, como letras, sílabas e fonemas. As habilidades de leitura, ligadas ao letramento como concebido nos pressupostos do programa, são aferidas ora como decodificação de palavras e frases descontextualizadas, ora como apreensão de significado predeterminado do texto. A escrita somente é avaliada no ano de 2008 e por meio de itens que solicitavam codificação de palavras e frases ditadas pelo aplicador. Desse modo, a Provinha Brasil contribui para a subtração das potencialidades políticas e transformadoras do aprendizado da língua materna no País.
Resumo:
Este trabalho tem como objeto de estudo os impressos do Projeto Trilhas, material pedagógico produzido em parceria entre o Instituto Natura, a Comunidade Educativa CEDAC e o Ministério da Educação. Trata-se de uma análise documental com as quais se procurou envolver as noções de enunciado, texto, gênero e suporte que possibilitaram fundamentar a proposta metodológica, pautada pelo diálogo, que teve como escopo problematizar como esse conjunto de materiais pode contribuir no processo do ensino e da aprendizagem das crianças matriculadas nas turmas do primeiro ano do Ensino Fundamental, com foco na análise das concepções de alfabetização, leitura e escrita, engendradas nos materiais. Para isso, o referencial teórico que balizou as reflexões se fundamentou nas contribuições da perspectiva bakhtiniana de linguagem e lançou ancoragens no conceito de alfabetização proposto criticamente por Gontijo (2008). As análises se constituíram como uma arena, isto é, um palco de alteridade. Logo, buscaram compreender como o conceito e as concepções se materializaram nas atividades produzidas pelos sujeitos-autores e problematizaram como os impressos do Projeto Trilhas podem contribuir para a melhoria do ensino e da aprendizagem das crianças matriculadas no primeiro ano do Ensino Fundamental. Com as análises, sustenta-se que o conceito que solidifica a constituição dos impressos deste projeto se aproxima das contribuições de Ferreiro e Teberosky (1999), isto é, a alfabetização é o processo pelo qual as crianças assimilam o código escrito e compreende os usos que são dados a ele nas culturas do escrito. A leitura se configurou como decodificação dos signos linguísticos e compreensão de significados, e a escrita como codificação.
Resumo:
Lossless compression algorithms of the Lempel-Ziv (LZ) family are widely used nowadays. Regarding time and memory requirements, LZ encoding is much more demanding than decoding. In order to speed up the encoding process, efficient data structures, like suffix trees, have been used. In this paper, we explore the use of suffix arrays to hold the dictionary of the LZ encoder, and propose an algorithm to search over it. We show that the resulting encoder attains roughly the same compression ratios as those based on suffix trees. However, the amount of memory required by the suffix array is fixed, and much lower than the variable amount of memory used by encoders based on suffix trees (which depends on the text to encode). We conclude that suffix arrays, when compared to suffix trees in terms of the trade-off among time, memory, and compression ratio, may be preferable in scenarios (e.g., embedded systems) where memory is at a premium and high speed is not critical.
Resumo:
Wyner - Ziv (WZ) video coding is a particular case of distributed video coding (DVC), the recent video coding paradigm based on the Slepian - Wolf and Wyner - Ziv theorems which exploits the source temporal correlation at the decoder and not at the encoder as in predictive video coding. Although some progress has been made in the last years, WZ video coding is still far from the compression performance of predictive video coding, especially for high and complex motion contents. The WZ video codec adopted in this study is based on a transform domain WZ video coding architecture with feedback channel-driven rate control, whose modules have been improved with some recent coding tools. This study proposes a novel motion learning approach to successively improve the rate-distortion (RD) performance of the WZ video codec as the decoding proceeds, making use of the already decoded transform bands to improve the decoding process for the remaining transform bands. The results obtained reveal gains up to 2.3 dB in the RD curves against the performance for the same codec without the proposed motion learning approach for high motion sequences and long group of pictures (GOP) sizes.
Resumo:
The advances made in channel-capacity codes, such as turbo codes and low-density parity-check (LDPC) codes, have played a major role in the emerging distributed source coding paradigm. LDPC codes can be easily adapted to new source coding strategies due to their natural representation as bipartite graphs and the use of quasi-optimal decoding algorithms, such as belief propagation. This paper tackles a relevant scenario in distributedvideo coding: lossy source coding when multiple side information (SI) hypotheses are available at the decoder, each one correlated with the source according to different correlation noise channels. Thus, it is proposed to exploit multiple SI hypotheses through an efficient joint decoding technique withmultiple LDPC syndrome decoders that exchange information to obtain coding efficiency improvements. At the decoder side, the multiple SI hypotheses are created with motion compensated frame interpolation and fused together in a novel iterative LDPC based Slepian-Wolf decoding algorithm. With the creation of multiple SI hypotheses and the proposed decoding algorithm, bitrate savings up to 8.0% are obtained for similar decoded quality.
Resumo:
Deoxyribonucleic acid, or DNA, is the most fundamental aspect of life but present day scientific knowledge has merely scratched the surface of the problem posed by its decoding. While experimental methods provide insightful clues, the adoption of analysis tools supported by the formalism of mathematics will lead to a systematic and solid build-up of knowledge. This paper studies human DNA from the perspective of system dynamics. By associating entropy and the Fourier transform, several global properties of the code are revealed. The fractional order characteristics emerge as a natural consequence of the information content. These properties constitute a small piece of scientific knowledge that will support further efforts towards the final aim of establishing a comprehensive theory of the phenomena involved in life.
Resumo:
Dissertação apresentada à Escol a Superior de Educação de Lisboa para obtenção de grau de mestre em Ciências da Educação, especialidade Educação Especial: Problemas Graves de Cognição e Multideficiência
Resumo:
In distributed video coding, motion estimation is typically performed at the decoder to generate the side information, increasing the decoder complexity while providing low complexity encoding in comparison with predictive video coding. Motion estimation can be performed once to create the side information or several times to refine the side information quality along the decoding process. In this paper, motion estimation is performed at the decoder side to generate multiple side information hypotheses which are adaptively and dynamically combined, whenever additional decoded information is available. The proposed iterative side information creation algorithm is inspired in video denoising filters and requires some statistics of the virtual channel between each side information hypothesis and the original data. With the proposed denoising algorithm for side information creation, a RD performance gain up to 1.2 dB is obtained for the same bitrate.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações
Resumo:
Este relatório apresenta o trabalho realizado no âmbito da unidade curricular de Tese/Dissertação do Mestrado em Engenharia Electrotécnica e de Computadores - área de especialização de Telecomunicações. Pretende-se desenvolver um sistema distribuído de seguimento, no exterior, de plataformas móveis equipadas com receptores de baixo custo. O sistema deve, em tempo útil, realizar a aquisição, descodificação e tratamento dos dados emiti- dos pelo Global Navigation Satellite System (GNSS), das observações efectuadas pelo receptor e da informação proveniente do European Geostationary Navigation Overlay System (EGNOS). O objectivo é determinar, a partir deste conjunto de informação e para cada plataforma ligada, a posição em modo absoluto, as correcções diferenciais e, finalmente, a posição em modo diferencial. Optou-se por receber as correcções diferenciais de área alargada do EGNOS através da Internet, permitindo, assim, que receptores sem capacidade de receber directamente informação do EGNOS possam também usufruir desta fonte de informação complementar. As correcções diferenciais a aplicar às observações de cada receptor são geradas através do conceito de estacão de referência virtual - Virtual Reference Station (VRS) - a partir da posição aproximada do receptor e das correcções de área alargada provenientes do EGNOS. A determinação da posição em modo diferencial das plataformas móveis é efectuada segundo o conceito de Inverted Di®erential Global Navigation Satellite System (IDGNSS) e utilizando uma arquitectura do tipo Cliente-Servidor. Por último, os resultados, que são armazenados numa base de dados, são disponibilizados ao utilizador através de uma aplicação Web. O utilizador pode, assim, efectuar o seguimento de qualquer plataforma móvel ligada ao sistema a partir de qualquer dispositivo com navegador e acesso à Internet.
Resumo:
Neste artigo procuramos abordar a importância da comunicação não verbal na interpretação e as dificuldades provenientes da sua articulação com a linguagem verbal, neste âmbito. Apresenta-se um elenco seleccionado de recursos não verbais considerados essenciais e frequentes com os quais o profissional desta área se pode confrontar e sugerem-se algumas formas de como/quando os integrar na interpretação.
Resumo:
O principal objectivo da animação de personagens virtuais é o de contar uma história através da utilização de personagens virtuais emocionalmente expressivos. Os personagens têm personalidades distintas, e transmitem as suas emoções e processos de pensamento através dos seus comportamentos (comunicação não verbal). As suas acções muitas das vezes constituem a geração de movimentos corporais complexos. Existem diversas questões a considerar quando se anima uma entidade complexa, tais como, a posição das zonas móveis e as suas velocidades. Os personagens virtuais são um exemplo de entidades complexas e estão entre os elementos mais utilizados em animação computacional. O foco desta dissertação consistiu na criação de uma proposta de sistema de animação de personagens virtuais, cujos movimentos e expressões faciais são capazes de transmitir emoções e estados de espírito. Os movimentos primários, ou seja os movimentos que definem o comportamento dos personagens, são provenientes da captura de movimentos humanos (Motion Capture). As animações secundárias, tais como as expressões faciais, são criadas em Autodesk Maya recorrendo à técnica BlendShapes. Os dados obtidos pela captura de movimentos, são organizados numa biblioteca de comportamentos através de um grafo de movimentos, conhecido por Move Tree. Esta estrutura permite o controlo em tempo real dos personagens através da gestão do estado dos personagens. O sistema possibilita também a transição eficaz entre movimentos semelhantes e entre diferentes velocidades de locomoção, minimizando o efeito de arrastamento de pés conhecido como footskate. Torna-se assim possível definir um trajecto que o personagem poderá seguir com movimentos suaves. Estão também disponíveis os resultados obtidos nas sessões de avaliação realizadas, que visaram a determinação da qualidade das transições entre animações. Propõem-se ainda o melhoramento do sistema através da implementação da construção automática do grafo de movimentos.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações