955 resultados para aço avançado de alta resistência
Resumo:
O módulo de resiliência (MR) é hoje um dos parâmetros-chave para o dimensionamento empírico-mecanístico de pavimentos flexíveis. Há, entretanto, algumas peculiaridades no ensaio de tração indireta com cargas cíclicas que ocasionam variações na sua determinação. A investigação de tais fatores é necessária para que a magnitude do seu efeito sobre o valor de MR seja quantificada. Para isto, esta pesquisa avaliou, através de uma análise paramétrica, os algoritmos apresentados pelo Protocolo P07 do LTPP, análogo ao método correntemente utilizado pelas instituições brasileiras de pesquisa em pavimentação, e pela pesquisa NCHRP 1-28/1-28A para determinação dos deslocamentos resilientes, bem como o efeito do pulso e freqüência de carregamento e níveis de tensão de tração (%RT) em duas misturas asfálticas: uma mistura com ligante asfáltico convencional e outra com ligante asfáltico modificado por adição de borracha. Foram necessárias adaptações no equipamento de compressão diametral cíclica utilizado na pesquisa, e também a montagem de um sistema de posicionamento de sensores que permitisse a gravação de deslocamentos horizontais e verticais viabilizando a determinação do coeficiente do Poisson. Realizaram-se ensaios de MR e resistência à tração (RT) às temperaturas de 10°, 25° e 35°C e, complementarmente, ensaio de fadiga (tensão controlada) a 25°C. Os resultados obtidos demonstram a alta sensibilidade do valor de MR aos algoritmos de cálculo dos deslocamentos resilientes; o algoritmo apresentado pela pesquisa 1-28/ 1-28A do NCHRP foi considerado adequado. Observou-se a dependência do MR ao pulso de carga, à freqüência de ensaio e também ao nível de tensão aplicado durante o ensaio. A magnitude desta dependência, entretanto, é função do tipo de mistura e da temperatura sob a qual o ensaio foi realizado. A determinação do coeficiente de Poisson pareceu ser bastante suscetível ao sistema de medição utilizado, tendo apresentando uma grande variabilidade. Nos ensaios de vida de fadiga sob tensão controlada pode-se evidenciar a redução dos valores de MR dentro da zona de condicionamento. Propõe-se ainda que a defasagem medida entre o pulso de carga e o pulso de deslocamento no ensaio de MR, possa ser usada como indicador do comportamento visco-elástico das misturas, uma vez que apresentou comportamento análogo ao do ângulo de fase.
Resumo:
O desenvolvimento de materiais tipo Burley resistente a Murcha Bacteriana é de suma importância para a fumicultura brasileira. Em fumo tipo Burley não existem variedades comerciais com boa adaptação resistentes à R. solanacearum. O objetivo desse trabalho foi determinar o efeito da seleção artificial para resistência à murcha bacteriana na população Burley x Virgínia em diferentes gerações segregantes. Este estudo foi realizado em um infectário de R. solanacearum, localizado em Santa Cruz do Sul, RS. Foi realizado cruzamento entre um cultivar tipo Burley moderadamente resistente (BY 26) e um material tipo Virgínia resistente à murcha (Oxford 207). Foram comparados quatro gerações F1, F3, F5, F7, pai moderadamente resistente (BY 26), pai resistente (OX 207) e uma testemunha suscetível (01528). O delineamento experimental utilizado foi de blocos ao acaso, com quatro repetições e 10 plantas em cada parcela, para uniformizar e aumentar o nível de severidade da moléstia, as plantas foram inoculadas através da deposição de 20 mL de uma suspensão (108 UFC/mL) de R. solanacearum. Para a murcha bacteriana não houve diferença significativa entre as médias das quatro gerações e nem destas com o genitor resistente, já que provavelmente a seleção efetuada em todas as gerações foi suficiente para manter os níveis de resistência observados na geração F1. Observou-se em F7 que várias linhas já estavam fixas com níveis de resistência à murcha semelhante ao genitor resistente. Portanto, os resultados finais mostraram que a seleção artificial foi eficiente para selecionar a resistência à murcha bacteriana, e que é possível transferir resistência a R. solanacearum de fumo Virgínia para fumo tipo Burley – mantendo as características desejadas de cor e tipo do fumo Burley com a resistência similar a do pai resistente.
Resumo:
O objetivo desse estudo explano-exploratório é determinar os antecedentes à resistência a sistemas empresariais. Com esse intuito, por meio de levantamento bibliográfico: (a) conceituou-se o comportamento de resistência, (b) identificaram-se os fatores que influenciam o comportamento de resistência, (c) definiu-se o objeto do comportamento de resistência, (d) elaborou-se um meta-modelo contendo os fatores que influenciam o comportamento de resistência e (e) desenvolveu-se o questionário estruturado como instrumento de coleta de dados. Durante o período de aplicação do instrumento de coleta de dados foram obtidos 169 questionários válidos, preenchidos por gestores de tecnologia da informação. A partir dos dados obtidos, a pesquisa valeu-se das técnicas de análise fatorial exploratória, análise fatorial confirmatória e modelagem de equações estruturais para confirmar o modelo proposto por teorias do campo de gerenciamento de sistemas de informação. No entanto, verificou-se que o meta-modelo de resistência a sistemas empresariais, apresentando: (a) as características idiossincráticas das pessoas ou grupos, (b) as características dos sistemas a serem implantados e (c) a interação das características pessoais e do sistema com o contexto organizacional, subdividida em interação sócio-técnica e interação poder e política, não se confirmou na realidade estudada. Dessa forma, após modificações no meta-modelo inicial, identificou-se um modelo onde os fatores “Sistemas” e “Inclinação Pessoal” explicaram aproximadamente 49% da variância do fenômeno de comportamento de resistência a sistemas empresariais.
Resumo:
A incipiente alta nas expectativas de inflação futura combinada com a busca do governo por juros nominais mais baixos e o maior intervencionismo via medidas convencionais e não convencionais na gestão da política econômica, pode ter deteriorado a percepção dos agentes de mercado quanto à credibilidade da Autoridade Monetária, mesmo que indicadores tradicionais de credibilidade ainda não mostrem isso. Este trabalho intui que a resposta de ativos à divulgação de dados macroeconômicos apresenta informações sobre a percepção do mercado da credibilidade do Banco Central, utilizando, então, uma base de dados de alta frequência para medir as respostas dos ativos e empregando o teste econométrico quasi-local level (QLL), busca avaliar se houve alguma instabilidade nos coeficientes de respostas que indique uma variação na percepção ao longo do tempo. A série de dados analisada compreende o período de 2006 a 2011 e o trabalho conclui que não houve variação nos coeficientes e, portanto, se houve alguma mudança positiva ou negativa na percepção de credibilidade, esta não pode ser inferida pelo método proposto.
Resumo:
O trabalho a seguir objetivou o desenvolvimento de um meta-modelo de análise para estudo do fenômeno da resistência durante a implementação de um sistema de gerenciamento eletrônico de documentos (GED). O estudo foi conduzido por meio de uma abordagem quantitativa e explanatória e buscou elencar os principais expoentes da literatura acadêmica no tema da resistência. A partir de suas concepções, os fatores mais relevantes no campo da resistência contextualizada a um sistema de gerenciamento eletrônico de documentos foram evidenciados. O meta-modelo gerado, o qual serviu de base para a análise estatística, identificou os seguintes antecedentes ao comportamento de resistência: características pessoais, sistemas e interação. Este, por sua vez, divide-se na interação poder e política e na interação sócio-técnica. A partir da identificação desses vetores e montagem do meta-modelo, foi elaborado um questionário de investigação, o qual foi distribuído via Internet. Foram colhidas 133 respostas de usuários que tivessem vivenciado pelo menos uma experiência de implantação de um sistema de gerenciamento eletrônico de documentos. Os dados foram então submetidos a tratamento estatístico na ferramenta SPSS por meio de análise fatorial e regressão linear múltipla. Os resultados obtidos permitiram identificar os fatores de maior influência no comportamento de resistência e confirmar/refutar as hipóteses originalmente propostas. O meta-modelo gerado também promoveu a discussão dos resultados com base na teoria utilizada, gerando novos insights para o entendimento do comportamento de resistência no contexto do GED.
Resumo:
O objetivo deste estudo foi avaliar a influência de diferentes condições de polimerização sobre: microdureza Knoop, resistência ao impacto, grau de conversão e temperatura de transição vítrea (Tg) de uma resina acrílica quimicamente ativada (Jet - Artigos Odontológicos Clássico Ltda.). O material foi polimerizado de acordo com as seguintes condições: grupo 1, as amostras foram polimerizadas em contato com o ar, durante 1h, sob temperatura e pressão ambiente; grupo 2, após a polimerização da resina em contato com o ar, durante 1h, sob temperatura e pressão ambiente, a mesma foi submetida a um ciclo adicional de aquecimento em forno de microondas, durante 3 min, a 500W; grupo 3, as amostras foram polimerizadas em água, sob pressão de 20 psi, em uma temperatura de 50°C, durante 15 minutos. Para o ensaio de microdureza Knoop, foram confeccionados sete corpos-de-prova, para cada um dos três grupos experimentais. O corpo-de-prova consistiu de uma placa de resina acrílica quimicamente ativada, com grampos, simulando aparelhos ortodônticos removíveis. Dos sete corpos-de-prova, de cada grupo, dois também foram utilizados para a determinação do grau de conversão e Tg, através da Calorimetria Exploratória Diferencial (DSC). Para o ensaio de resistência ao impacto, foram confeccionados 12 corpos-de-prova para cada grupo, com dimensões de 64,00x10,00x3,20mm. Os resultados mostraram diferenças entre os grupos, através da ANOVA e do teste de Tukey (p ≤ 0,01), apresentando maiores valores de microdureza para o grupo 3, seguido dos grupos 2 e 1. Para o ensaio de resistência ao impacto, os valores obtidos para as amostras do grupo 3 foram superiores aos demais grupos, não havendo diferença estatística entre os grupos 1 e 2 O grau de conversão e Tg foram avaliados de forma descritiva, apresentando um padrão de comportamento coerente com as demais propriedades, ou seja, o grupo 3 apresentou valores mais altos de grau de conversão e Tg, seguido pelos grupos 2 e 1. Os resultados deste trabalho indicam que o melhor comportamento clínico poderá ser esperado do grupo submetido à polimerização em água a 50°C, sob pressão de 20 psi (grupo 3), seguido do grupo 2 (com ciclo adicional em microondas) e, por fim, pelo grupo 1 (polimerizado ao ar).
Resumo:
A implementação de programas de controle de salmonela em suínos, com objetivo de diminuir os riscos de infecção alimentar em humanos, exige métodos rápidos e baratos para medir a intensidade da infecção, bem como reduzir seus fatores de risco. A partir disso, desenvolveu-se um teste de ELISA, utilizando antígeno lipopolissacarídeo do sorovar Typhimurium, pela sua similaridade antigênica com os sorovares prevalentes em suínos no Rio Grande do Sul. O teste padronizado foi utilizado na determinação da soroprevalência em 65 rebanhos suínos, os quais participaram de estudo para identificação de fatores de risco. As granjas foram classificadas em três categorias de soroprevalência, baixa (até 40%), média (40-70%) e alta (mais de 70%) prevalência, estabelecidas como variável explicada. As respostas do questionário contituíram as variáveis explicativas. Aquelas associadas à variável explicada pelo teste de χ2 (p ≤ 0,1) foram submetidas à análise fatorial de correspondência múltipla (AFCM). Paralelamente, foram avaliados seis desinfetantes (amônia quaternária, glutaraldeído, iodóforo, hipoclorito de sódio (1 e 0,1%), fenol e ácido peracético) frente a amostras de Salmonella Typhimurium isoladas de suínos. Os produtos foram testados na presença e ausência de matéria orgânica, sob duas diferentes temperaturas e, posteriormente, frente a 8 isolados com diferentes perfis de resistência antimicrobiana, por um tempo de contato de 5 minutos. O teste de ELISA identificou a soroconversão nos animais inoculados (7 dias p.i.) e contatos (21 dias p.i.), bem como o aumento no número de animais positivos após infecção natural (28,6% para 76,9%). A sensibilidade e a especificidade do teste foram respectivamente de 92 e 100%. Após adaptações para suco de carne, estabelecendo o soro como referência, a sensibilidade do teste para suco de carne foi de 88,12% e a especificidade 70,43%. Em análise de concordância entre os testes, o índice kappa foi de 5,78, com p=0,002 no teste MacNemar. A AFCM identificou a associação da maior soroprevalência com o seguinte grupo de variáveis: nas granjas terminadoras, uso de ração peletizada, distribuição de dejetos a menos de 100m do local de captação de água, não utilização de comedouro do modelo comedouro/bebedouro, transporte com freteiro misturando animais de várias granjas; enquanto nas granjas de ciclo completo apareceram ingredientes de ração desprotegidos de outros animais, ausência de controle de roedores, ração seca, ausência de cerca, não uso da pintura com cal após lavagem e desinfecção e a entrada de outras pessoas além do técnico na granja. Todos os desinfetantes foram eficazes na ausência de matéria orgânica, nas duas temperaturas testadas. Entretanto, quando na presença de matéria orgânica ou após cinco minutos de contato, somente o hipoclorito de sódio (1%), fenol e o ácido peracético foram eficazes. Dessa forma, ao estabelecer uma ferramenta sorológica para medir a infecção pelos principais sorovares de Salmonella que afetam os suínos no sul do Brasil e identificar fatores de risco associados à alta soroprevalência, será possível dar início à implementação e validação de protocolos de controle da infecção em rebanhos.
Resumo:
Neste trabalho, a literatura (estado da arte) sobre Agricultura de Precisão é revisada. Um equipamento para a aquisição de dados foi desenvolvido, foi feita uma descrição detalhada do mesmo e são apresentados os testes de campo para sua validação.
Resumo:
Vetores de expressão são ferramentas moleculares úteis para investigar a função de genes tanto em sistemas procarióticos quanto eucarióticos. O fungo Metarhizium anisopliae, utilizado no controle biológico de artrópodes, é bem caracterizado em nível molecular. Genes candidatos a participar do processo de infecção de hospedeiros tem sido isolados utilizando estratégias em que o gene candidato é predefinido (enzimas hidrolíticas, por exemplo) ou estratégias mais globais como projetos de ESTs e a análise de bibliotecas de subtração. A superexpressão tem sido o método adotado para verificar a participação de genes isolados no processo de infecção. Esta estratégia tem sido baseada no promoter heterólogo PgpdA de Aspergillus nidulans. Neste trabalho, o gene que codifica o fator de alongamento de tradução tef-1 α de Metarhizium anisopliae foi clonado e a sua região promotora foi localizada e utilizada na construção de um vetor de expressão. Somente uma cópia do gene tef-1α está presente no genoma de M. anisopliae e o seu perfil de expressão foi analisado. Uma árvore filogenética foi construída baseada nos ortógos de tef-1 α e mostrou uma alta correlação com o fungo Cordyceps taii. A região de 639 pb à montante do codon de iniciação (ATG) foi utilizada com sucesso para a expressão do gene repórter sGFP e do gene bar, que confere resistência ao glifosinato de amônio, em M. anisopliae. Os transformantes construídos não apresentaram alteração na sua virulência em bioensaios com carrapatos, em relação a linhagem receptora. Além disso, demonstramos que o nível de expressão permite a detecção óptica da fluorescência de sGFP durante a infecção dos carrapatos. Desta forma, o vetor desenvolvido será uma ferramenta útil para a superexpressão em Metarhizium.
Resumo:
Controvérsias existem sobre os benefícios da hemodiálise de alto fluxo e alta eficiência em relação a hemodiálise convencional. Este estudo compara, através de parâmetros clínicos, laboratoriais, avaliação do sistema nervoso periférico e autônomo, os pacientes em hemodiálise convencional(HDC) e, após, em hemodiálise de alto fluxo e alta eficiência(HDAF), usando os mesmos parâmetros da cinética da uréia, por um período de tempo de 4-8 meses em cada modalidade de tratamento hemodialitico. O sistema nervoso periférico foi avaliado através da miografia e da neurografia de membros superiores e inferiores. O estudo da variabilidade da freqüência cardíaca, através de seis índices no domínio do tempo, foi usado para avaliar o sistema nervoso autônomo nestes pacientes. Não houve diferença quanto às manifestações intradialíticas nos dois tipos de hemodiálise e nem alteração dos níveis tensionais no período de acompanhamento. Na avaliação laboratorial, verificou-se diferença estatisticamente significativa entre a HDC e HDAF nos seguintes parâmetros: creatinina(9,6mg/dl±2,3x10,9mg/dl±2,0;p<0,01),reserva alcalina (16,5mEq/l±2,5x18,2mEq/l±2,7; p<0,05), ácido úrico(6,3mg/dl±1,3x7,1mg/dl±1,64;p<0,01), fósforo(6,4mg/dl±1,3x7,2mg/dl ±1,4;p<0,01) e albumina(4,1mg/ml±0,5x3,8mg/ml±0,27;p<0,01). Observou-se melhora significativa da velocidade de condução sensitiva do nervo ulnar na HDAF(40,72m/s±5,11x48,01m/s±7,7;p<0,05). Houve redução significativa da variabilidade da freqüência cardíaca nos pacientes urêmicos em hemodiálise, comparativamente ao grupo de indivíduos normais. Concluiu-se que não houve diferença significativa nos parâmetros clínicos entre os dois tipos de hemodiálise. Observou-se redução significativa da albumina na HDAF, bem como aumento significativo da creatinina, reserva alcalina, fósforo e ácido úrico. Houve melhora significativa da velocidade de condução sensitiva do nervo ulnar nos pacientes em HDAF. Os pacientes em hemodiálise apresentam deterioração significativa do Sistema Nervoso Autônomo comparativamente ao grupo controle.
Resumo:
O presente trabalho discute o tema dos dirigentes públicos, atores recentemente debatidos pela literatura como um grupo específico que atua orientado a resultados e à criação de valor público. Em geral, são escassos os estudos que discutem os dirigentes públicos empiricamente; assim, mostraremos os papéis que desempenham argumentando que são atores fundamentais para a formulação e implementação das políticas públicas na medida em que são capazes de dialogar tanto com a esfera política como com a da gestão. Para isso, analisaremos o caso Chileno, experiência bastante consolidada que reconhece o dirigente público como ator distinto dos demais, regido por regras específicas de recrutamento, seleção, nomeação e gestão segundo acordos de resultados. Apresentaremos uma análise dos dirigentes chilenos baseada em uma perspectiva histórica tanto sobre o surgimento e consolidação do Sistema de Alta Direção Pública como em relação às tensões e complementaridades entre tecnocratas e políticos que marcaram os governos chilenos no período que compreende desde a redemocratização até os dias atuais. Mostraremos que este Sistema nasce no contexto de um acordo político entre governo e oposição em busca da modernização e profissionalização do Estado e que as dimensões da política e da gestão são pilares centrais do modelo, presentes em todas as suas esferas, tais como seu desenho institucional e regras de gestão de pessoas e do desempenho.
Resumo:
Este trabalho visa a disponibilização de um ambiente de alto desempenho, do tipo cluster de computadores, com alta exatidão, obtida através da utilização da biblioteca C–XSC. A alta exatidão na solução de um problema é obtida através da realização de cálculos intermediários sem arredondamentos como se fossem em precisão infinita. Ao final do cálculo, o resultado deve ser representado na máquina. O resultado exato real e o resultado representado diferem apenas por um único arredondamento. Esses cálculos em alta exatidão devem estar disponíveis para algumas operações aritméticas básicas, em especial as que possibilitam a realização de somatório e de produto escalar. Com isso, deseja-se utilizar o alto desempenho através de um ambiente de cluster onde se tem vários nodos executando tarefas ou cálculos. A comunicação será realizada por troca de mensagens usando a biblioteca de comunicação MPI. Para se obter a alta exatidão neste tipo de ambiente, extensões ou adaptações nos programas paralelos tiveram que ser disponibilizadas para garantir que a qualidade do resultado final realizado em um cluster, onde vários nodos colaboram para o resultado final do cálculo, mantivesse a mesma qualidade do resultado que é obtido em uma única máquina (ou nodo) de um ambiente de alta exatidão. Para validar o ambiente proposto foram realizados testes básicos abordando o cálculo do produto escalar, a multiplicação entre matrizes, a implementação de solvers intervalares para matrizes densas e bandas e a implementação de alguns métodos numéricos para a resolução de sistemas de equações lineares com a característica da alta exatidão. Destes testes foram realizadas análises e comparações a respeito do desempenho e da exatidão obtidos com e sem o uso da biblioteca C–XSC, tanto em programas seqüenciais como em programas paralelos. Com a conseqüente implementação dessas rotinas e métodos será aberto um vasto campo de pesquisa no que se refere ao estudo de aplicações reais de grande porte que necessitem durante a sua resolução (ou em parte dela) da realização de operações aritméticas com uma exatidão melhor do que a obtida usualmente pelas ferramentas computacionais tradicionais.
Resumo:
O projeto do trem de alta velocidade que fará o transporte de passageiros entre as duas maiores metrópoles do país é um dos principais investimentos do Plano de Aceleração do Crescimento (PAC). Depois do insucesso apresentado no primeiro processo de licitação, devido à falta de proposta de investidores privados, o Governo Federal decidiu alterar a sua participação no plano de investimentos, adicionalmente, nesta segunda tentativa, prevista para ocorrer em setembro de 2013, o Governo informou que reduzirá o valor mínimo da outorga a ser pago pelo concessionário vencedor em 3,2%, o que aumentará o investimento do Estado em cerca de R$ 900 milhões. O setor público busca através das medidas destacadas, aumentar a atratividade do projeto e divulgou que poderá aumentar a sua participação acionária no projeto, de 45% das cotas da SPE que controlará o TAV para cerca de 80%. O presente estudo discute a concessão de uma garantia de demanda mínima de passageiros, os resultados obtidos através da metodologia de opções reais indicam que elas podem gerar um aumento do VPL de 22,2% e um custo para os cofres públicos de apenas 2,86% do total investido no projeto.
Resumo:
O padrão H.264 foi desenvolvido pelo JVT, que foi formado a partir de uma união entre os especialistas do VCEG da ITU-T e do MPEG da ISO/IEC. O padrão H.264 atingiu seu objetivo de alcançar as mais elevadas taxas de processamento dentre todos os padrões existentes, mas à custa de um grande aumento na complexidade computacional. Este aumento de complexidade impede, pelo menos na tecnologia atual, a utilização de codecs H.264 implementados em software, quando se deseja a decodi cação de vídeos de alta de nição em tempo real. Essa dissertação propõe uma solução arquitetural de hardware, denominada MoCHA, para compensação de movimento do decodi cador de vídeo de alta de nição, segundo o padrão H.264/AVC. A MoCHA está dividida em três blocos principais, a predição dos vetores de movimento, o acesso à memória e o processamento de amostras. A utilização de uma cache para explorar a redundância dos dados nos acessos à mem ória, em conjunto com melhorias propostas, alcançou economia de acessos à memória superior a 60%, para os casos testados. Quando uma penalidade de um ciclo por troca de linha de memória é imposta, a economia de ciclos de acesso supera os 75%. No processamento de amostras, a arquitetura realiza o processamento dos dois blocos, que dão origem ao bloco bi-preditivo, de forma serial. Dessa forma, são economizados recursos de hardware, uma vez que a duplicação da estrutura de processamento não é requerida. A arquitetura foi validada a partir de simulações, utilizando entradas extraídas de seqüências codi cadas. Os dados extraídos, salvos em arquivos, serviam de entrada para a simulação. Os resultados da simulação foram salvos em arquivos e comparados com os resultados extraídos. O processador de amostras do compensador de movimento foi prototipado na placa XUP Virtex-II Pro. A placa possui um FPGA VP30 da família Virtex-II PRO da Xilinx. O processador PowerPC 405, presente no dispositivo, foi usado para implementar um test bench para validar a operação do processador de amostras mapeado para o FPGA. O compensador de movimento para o decodi cador de vídeo H.264 foi descrito em VHDL, num total de 30 arquivos e cerca de 13.500 linhas de código. A descrição foi sintetizada pelo sintetizador Syplify Pro da Symplicity para o dispositivo XC2VP30-7 da Xilinx, consumindo 8.465 slices, 5.671 registradores, 10.835 LUTs, 21 blocos de memó- ria interna e 12 multiplicadores. A latência mínima para processar um macrobloco é de 233 ciclos, enquanto a máxima é de 590, sem considerar misses na cache. A freqüência máxima de operação foi de 100,5 MHz. A arquitetura projetada é capaz de processar, no pior caso, 36,7 quadros HDTV de 1080 por 1920, inteiramente bi-preditivos, por segundo. Para quadros do tipo P, que não utilizam a bi-predição, a capacidade de processamento sobe para 64,3 quadros por segundo. A arquitetura apresentada para o processamento de quadros bi-preditivos e a hierarquia de memória são, até o momento, inéditas na literatura. Os trabalhos relativos a decodi cadores completos não apresentam a solução para esse processamento. Os resultados apresentados tornam a MoCHA uma solução arquitetural capaz de fazer parte de um decodi cador para vídeos de alta definição.