948 resultados para Algebraic decoding
Resumo:
A model describing coherent quantum tunnelling between two trapped Bose-Einstein condensates is discussed. It is not well known that the model admits an exact solution, obtained some time ago, with the energy spectrum derived through the algebraic Bethe ansatz. An asymptotic analysis of the Bethe ansatz equations leads us to explicit expressions for the energies of the ground and the first excited states in the limit of weak tunnelling and all energies for strong tunnelling. The results are used to extract the asymptotic limits of the quantum fluctuations of the boson number difference between the two Bose-Einstein condensates and to characterize the degree of coherence in the system.
Resumo:
Este texto lança algumas reflexões sobre os axiomas do capitalismo que permitem descodificar todas as convenções das sociedades chamadas “selvagens”, e realizar as promessas de poder das sociedades déspotas, “bárbaras”. Simultaneamente, o capitalismo, provoca uma multiplicação das fraturas territoriais e de globalizações de toda ordem. Nessa descodificação de todos os valores, os fluxos (sociais, econômicos, políticos) liberados pelo capitalismo hesitam entre, de um lado, uma descodificação que levaria a uma desterritorialização radical dos processos e, de outro lado, um reaparecimento e re-atualização conservadora desses fluxos liberados pelo próprio processo de “criação destrutiva”.
Resumo:
Esta pesquisa documental analisa as concepções de alfabetização, leitura e escrita subjacentes à Provinha Brasil no período 2008-2012 e o panorama em que esse programa de avaliação é produzido. Parte do referencial bakhtiniano e do conceito de alfabetização de Gontijo (2008, 2013). Ao tomar a Provinha como gênero do discurso, discute os elos precedentes dentro do contexto de produção dessa avaliação, a autoria do Programa e seus principais destinatários. Constata que a Provinha é criada como resposta às demandas de avaliação da alfabetização provenientes de organismos internacionais como o Banco Mundial e a Organização das Nações Unidas para a Educação (Unesco). A avaliação é elaborada pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (Inep) como órgão que coordena as avaliações no País, em colaboração com pesquisadores de universidades e de organizações da sociedade civil, para demonstrar confiabilidade científica aliada à participação democrática no processo de produção. Seus principais destinatários são gestores de Secretarias de Educação e professores. Aos primeiros, cabe aderir ao programa de avaliação e tomar medidas administrativas para sua operacionalização nas redes. Os docentes têm o papel central de seguir as orientações do material e reorganizar sua prática em função de melhorias nos desempenhos das crianças no teste. Estas, por sua vez, são desconsideradas como sujeitos de dizeres e é legitimado um discurso homogeneizador sobre seu desenvolvimento. A partir dos testes aplicados e das matrizes de referência e seus eixos, a pesquisa analisa como a diferenciação teórica entre alfabetização e letramento se concretiza na organização das provas. A alfabetização, entendida como apropriação do sistema de escrita, é avaliada no primeiro eixo do teste principalmente como identificação de unidades menores da língua, como letras, sílabas e fonemas. As habilidades de leitura, ligadas ao letramento como concebido nos pressupostos do programa, são aferidas ora como decodificação de palavras e frases descontextualizadas, ora como apreensão de significado predeterminado do texto. A escrita somente é avaliada no ano de 2008 e por meio de itens que solicitavam codificação de palavras e frases ditadas pelo aplicador. Desse modo, a Provinha Brasil contribui para a subtração das potencialidades políticas e transformadoras do aprendizado da língua materna no País.
Resumo:
O presente trabalho investigou o problema da modelagem da dispersão de compostos odorantes em presença de obstáculos (cúbicos e com forma complexa) sob condição de estabilidade atmosférica neutra. Foi empregada modelagem numérica baseada nas equações de transporte (CFD1) bem como em modelos algébricos baseados na pluma Gausseana (AERMOD2, CALPUFF3 e FPM4). Para a validação dos resultados dos modelos e a avaliação do seu desempenho foram empregados dados de experimentos em túnel de vento e em campo. A fim de incluir os efeitos da turbulência atmosférica na dispersão, dois diferentes modelos de sub-malha associados à Simulação das Grandes Escalas (LES5) foram investigados (Smagorinsky dinâmico e WALE6) e, para a inclusão dos efeitos de obstáculos na dispersão nos modelos Gausseanos, foi empregado o modelo PRIME7. O uso do PRIME também foi proposto para o FPM como uma inovação. De forma geral, os resultados indicam que o uso de CFD/LES é uma ferramenta útil para a investigação da dispersão e o impacto de compostos odorantes em presença de obstáculos e também para desenvolvimento dos modelos Gausseanos. Os resultados também indicam que o modelo FPM proposto, com a inclusão dos efeitos do obstáculo baseado no PRIME também é uma ferramenta muito útil em modelagem da dispersão de odores devido à sua simplicidade e fácil configuração quando comparado a modelos mais complexos como CFD e mesmo os modelos regulatórios AERMOD e CALPUFF. A grande vantagem do FPM é a possibilidade de estimar-se o fator de intermitência e a relação pico-média (P/M), parâmetros úteis para a avaliação do impacto de odores. Os resultados obtidos no presente trabalho indicam que a determinação dos parâmetros de dispersão para os segmentos de pluma, bem como os parâmetros de tempo longo nas proximidades da fonte e do obstáculo no modelo FPM pode ser melhorada e simulações CFD podem ser usadas como uma ferramenta de desenvolvimento para este propósito. Palavras chave: controle de odor, dispersão, fluidodinâmica computacional, modelagem matemática, modelagem gaussiana de pluma flutuante, simulação de grandes vórtices (LES).
Resumo:
Este trabalho tem como objeto de estudo os impressos do Projeto Trilhas, material pedagógico produzido em parceria entre o Instituto Natura, a Comunidade Educativa CEDAC e o Ministério da Educação. Trata-se de uma análise documental com as quais se procurou envolver as noções de enunciado, texto, gênero e suporte que possibilitaram fundamentar a proposta metodológica, pautada pelo diálogo, que teve como escopo problematizar como esse conjunto de materiais pode contribuir no processo do ensino e da aprendizagem das crianças matriculadas nas turmas do primeiro ano do Ensino Fundamental, com foco na análise das concepções de alfabetização, leitura e escrita, engendradas nos materiais. Para isso, o referencial teórico que balizou as reflexões se fundamentou nas contribuições da perspectiva bakhtiniana de linguagem e lançou ancoragens no conceito de alfabetização proposto criticamente por Gontijo (2008). As análises se constituíram como uma arena, isto é, um palco de alteridade. Logo, buscaram compreender como o conceito e as concepções se materializaram nas atividades produzidas pelos sujeitos-autores e problematizaram como os impressos do Projeto Trilhas podem contribuir para a melhoria do ensino e da aprendizagem das crianças matriculadas no primeiro ano do Ensino Fundamental. Com as análises, sustenta-se que o conceito que solidifica a constituição dos impressos deste projeto se aproxima das contribuições de Ferreiro e Teberosky (1999), isto é, a alfabetização é o processo pelo qual as crianças assimilam o código escrito e compreende os usos que são dados a ele nas culturas do escrito. A leitura se configurou como decodificação dos signos linguísticos e compreensão de significados, e a escrita como codificação.
Resumo:
Nos anos mais recentes, observa-se aumento na adoção das técnicas de silvicultura de precisão em florestas plantadas no Brasil. Os plantios de eucalipto ocorrem preferencialmente em áreas com baixa fertilidade de solo e consequentemente baixa produtividade. Logo, para otimizar ao máximo a produção, é necessário saber o quanto essa cultura pode produzir em cada local (sítio). Objetivou-se aplicar uma metodologia que utiliza técnicas de estatística, geoestatística e geoprocessamento, no mapeamento da variabilidade espacial e temporal de atributos químicos do solo cultivado com eucalipto, em área de 10,09 ha, situada no sul do estado do Espírito Santo. Os atributos químicos da fertilidade do solo estudados foram: fósforo (P), potássio (K), cálcio (Ca) e magnésio (Mg), no ano da implantação do povoamento do eucalipto, em 2008, e três anos após, em 2011. O solo foi amostrado em duas profundidades, 0-0,2 m e 0,2-0,4 m, nos 94 pontos de uma malha regular, com extensão de 33 x 33 m. Os dados foram analisados pela estatística descritiva e, em seguida, pela geoestatística, por meio do ajuste de semivariogramas. Diferentes métodos de interpolação foram testados para produzir mapas temáticos mais precisos e facilitar as operações algébricas utilizadas. Com o auxílio de índices quantitativos, realizou-se uma análise geral da fertilidade do solo, por meio da álgebra de mapas. A metodologia utilizada neste estudo possibilitou mapear a variabilidade espacial e temporal de atributos químicos do solo. A análise variográfica mostrou que todos os atributos estudados apresentaram-se estruturados espacialmente, exceto para o atributo P, no Ano Zero (camada 0-0,2 m) e no Ano Três (ambas as camadas). Os melhores métodos de interpolação para o mapeamento de cada atributo químico do solo foram identificados com a ajuda gráfica do Diagrama de Taylor. Mereceram destaque, os modelos esférico e exponencial nas interpolações para a maioria dos atributos químicos do solo avaliados. Apesar de a variação espacial e temporal dos atributos estudados apresentar-se, em média, com pequena variação negativa, a metodologia usada mostrou variações positivas na fertilidade do solo em várias partes da área de estudo. Além disso, os resultados demonstram que os efeitos observados são majoritariamente em função da cultura, uma vez que não foram coletadas amostras de solo em locais adubados. A produtividade do sítio florestal apresentou-se com tendências semelhantes às variações ocorridas na fertilidade do solo, exceto para o magnésio, que se mostrou com tendências espaciais para suporte de elevadas produtividades, de até 50 m3 ha-1 ano-1. Além de mostrar claramente as tendências observadas para as variações na fertilidade do solo, a metodologia utilizada confirma um caminho operacional acessível para empresas e produtores florestais para o manejo nutricional em florestas plantadas. O uso dos mapas facilita a mobilização de recursos para melhorar a aplicação de fertilizantes e corretivos necessários.
Resumo:
A numerical comparison is performed between three methods of third order with the same structure, namely BSC, Halley’s and Euler–Chebyshev’s methods. As the behavior of an iterative method applied to a nonlinear equation can be highly sensitive to the starting points, the numerical comparison is carried out, allowing for complex starting points and for complex roots, on the basins of attraction in the complex plane. Several examples of algebraic and transcendental equations are presented.
Resumo:
Lossless compression algorithms of the Lempel-Ziv (LZ) family are widely used nowadays. Regarding time and memory requirements, LZ encoding is much more demanding than decoding. In order to speed up the encoding process, efficient data structures, like suffix trees, have been used. In this paper, we explore the use of suffix arrays to hold the dictionary of the LZ encoder, and propose an algorithm to search over it. We show that the resulting encoder attains roughly the same compression ratios as those based on suffix trees. However, the amount of memory required by the suffix array is fixed, and much lower than the variable amount of memory used by encoders based on suffix trees (which depends on the text to encode). We conclude that suffix arrays, when compared to suffix trees in terms of the trade-off among time, memory, and compression ratio, may be preferable in scenarios (e.g., embedded systems) where memory is at a premium and high speed is not critical.
Resumo:
We derive a set of differential inequalities for positive definite functions based on previous results derived for positive definite kernels by purely algebraic methods. Our main results show that the global behavior of a smooth positive definite function is, to a large extent, determined solely by the sequence of even-order derivatives at the origin: if a single one of these vanishes then the function is constant; if they are all non-zero and satisfy a natural growth condition, the function is real-analytic and consequently extends holomorphically to a maximal horizontal strip of the complex plane.
Resumo:
Wyner - Ziv (WZ) video coding is a particular case of distributed video coding (DVC), the recent video coding paradigm based on the Slepian - Wolf and Wyner - Ziv theorems which exploits the source temporal correlation at the decoder and not at the encoder as in predictive video coding. Although some progress has been made in the last years, WZ video coding is still far from the compression performance of predictive video coding, especially for high and complex motion contents. The WZ video codec adopted in this study is based on a transform domain WZ video coding architecture with feedback channel-driven rate control, whose modules have been improved with some recent coding tools. This study proposes a novel motion learning approach to successively improve the rate-distortion (RD) performance of the WZ video codec as the decoding proceeds, making use of the already decoded transform bands to improve the decoding process for the remaining transform bands. The results obtained reveal gains up to 2.3 dB in the RD curves against the performance for the same codec without the proposed motion learning approach for high motion sequences and long group of pictures (GOP) sizes.
Resumo:
The advances made in channel-capacity codes, such as turbo codes and low-density parity-check (LDPC) codes, have played a major role in the emerging distributed source coding paradigm. LDPC codes can be easily adapted to new source coding strategies due to their natural representation as bipartite graphs and the use of quasi-optimal decoding algorithms, such as belief propagation. This paper tackles a relevant scenario in distributedvideo coding: lossy source coding when multiple side information (SI) hypotheses are available at the decoder, each one correlated with the source according to different correlation noise channels. Thus, it is proposed to exploit multiple SI hypotheses through an efficient joint decoding technique withmultiple LDPC syndrome decoders that exchange information to obtain coding efficiency improvements. At the decoder side, the multiple SI hypotheses are created with motion compensated frame interpolation and fused together in a novel iterative LDPC based Slepian-Wolf decoding algorithm. With the creation of multiple SI hypotheses and the proposed decoding algorithm, bitrate savings up to 8.0% are obtained for similar decoded quality.
Resumo:
Deoxyribonucleic acid, or DNA, is the most fundamental aspect of life but present day scientific knowledge has merely scratched the surface of the problem posed by its decoding. While experimental methods provide insightful clues, the adoption of analysis tools supported by the formalism of mathematics will lead to a systematic and solid build-up of knowledge. This paper studies human DNA from the perspective of system dynamics. By associating entropy and the Fourier transform, several global properties of the code are revealed. The fractional order characteristics emerge as a natural consequence of the information content. These properties constitute a small piece of scientific knowledge that will support further efforts towards the final aim of establishing a comprehensive theory of the phenomena involved in life.
Resumo:
In the energy management of the isolated operation of small power system, the economic scheduling of the generation units is a crucial problem. Applying right timing can maximize the performance of the supply. The optimal operation of a wind turbine, a solar unit, a fuel cell and a storage battery is searched by a mixed-integer linear programming implemented in General Algebraic Modeling Systems (GAMS). A Virtual Power Producer (VPP) can optimal operate the generation units, assured the good functioning of equipment, including the maintenance, operation cost and the generation measurement and control. A central control at system allows a VPP to manage the optimal generation and their load control. The application of methodology to a real case study in Budapest Tech, demonstrates the effectiveness of this method to solve the optimal isolated dispatch of the DC micro-grid renewable energy park. The problem has been converged in 0.09 s and 30 iterations.
Resumo:
The management of energy resources for islanded operation is of crucial importance for the successful use of renewable energy sources. A Virtual Power Producer (VPP) can optimally operate the resources taking into account the maintenance, operation and load control considering all the involved cost. This paper presents the methodology approach to formulate and solve the problem of determining the optimal resource allocation applied to a real case study in Budapest Tech’s. The problem is formulated as a mixed-integer linear programming model (MILP) and solved by a deterministic optimization technique CPLEX-based implemented in General Algebraic Modeling Systems (GAMS). The problem has also been solved by Evolutionary Particle Swarm Optimization (EPSO). The obtained results are presented and compared.
Resumo:
In the energy management of a small power system, the scheduling of the generation units is a crucial problem for which adequate methodologies can maximize the performance of the energy supply. This paper proposes an innovative methodology for distributed energy resources management. The optimal operation of distributed generation, demand response and storage resources is formulated as a mixed-integer linear programming model (MILP) and solved by a deterministic optimization technique CPLEX-based implemented in General Algebraic Modeling Systems (GAMS). The paper deals with a vision for the grids of the future, focusing on conceptual and operational aspects of electrical grids characterized by an intensive penetration of DG, in the scope of competitive environments and using artificial intelligence methodologies to attain the envisaged goals. These concepts are implemented in a computational framework which includes both grid and market simulation.