941 resultados para padrão unimodal
Resumo:
Esta dissertação apresenta um modelo conceitual do padrão de comportamento de pedestres em travessias semaforizadas. O modelo propõe uma estrutura de classificação dos pedestres de acordo com suas atitudes ao atravessar uma via. A análise envolve a consideração de fatores que podem influenciar as decisões dos pedestres sobre onde e quando iniciar a trajetória de travessia. O uso adequado das travessias semaforizadas é definido como conformidade de travessia. A conformidade de travessia pode ser de dois tipos: espacial, relacionada à localização em que o pedestre atravessa a via e, temporal, relacionada ao momento em que o pedestre decide iniciar a travessia. O modelo conceitual foi aplicado na área central da cidade de Porto Alegre. Com o objetivo de estimar as conformidades de travessia foram realizadas modelagens com redes neurais artificiais. Esta ferramenta proporciona o entendimento de problemas com alto grau de complexidade, que agregam variáveis com relações não-lineares entre si. As variáveis utilizadas na modelagem foram (i) gap máximo, (ii) gap crítico, (iii) 85° percentil de gaps, (iv) volume de pedestres, (v) volume de veículos, (vi) velocidade de veículos, (vii) largura da via, (viii) largura da travessia e, (ix) tempo de espera pelo verde no semáforo. Os resultados demonstraram que as características particulares de cada local têm influência nas conformidades de travessia. As análises de sensibilidade dos modelos indicaram que as variáveis relacionadas às características locais de geometria e condições de entorno das travessias exercem maior influência sobre a conformidade de travessia espacial. Por outro lado, a modelagem indicou que as características do regime do tráfego são os aspectos mais importantes na determinação da conformidade de travessia temporal.
Resumo:
Nos lagos artificiais dos parques de Porto Alegre, pode-se observar um número muito grande de tartarugas, tanto a nativa Trachemys dorbigni quanto a norte-americana Trachemys scripta elegans estando abundantemente presentes nos mesmos. Este trabalho realizou-se nos lagos do Parque Moinhos de Vento e Jardim Botânico com o objetivo de se obter dados a respeito do comportamento de assoalhamento, interações agressivas realizadas durante esta atividade e biologia termal desses quelônios. Nessas coletas, os exemplares foram marcados, suas temperaturas cloacais registradas e dados morfométricos foram medidos. Realizou-se amostragens no período de setembro de 2003 a outubro de 2004, com coletas de dados para comportamento de assoalhamento e biologia termal ocorrendo quinzenalmente em ambos lagos. As amostragens a respeito das interações agressivas ocorreram durante quatro dias por estação do ano somente no Parque Moinhos de Vento. O padrão de comportamento de assoalhamento encontrado para ambas as espécies foi basicamente do tipo unimodal simétrico para os dois locais de coleta, sendo T. scripta elegans a espécie que ocupou previamente os locais disponíveis para esta atividade. As temperaturas corpóreas de ambas espécies coletadas dentro d’água, foram altamente relacionadas com a temperatura da água, enquanto indivíduos coletados em assoalhamento, apresentaram temperaturas cloacais mais relacionadas com as temperaturas do substrato que estava sendo utilizado, do que com as temperaturas do ar. Foi obtida uma taxa de 2,3 interações agressivas por hora observada, considerando-se esta atividade como bastante freqüente entre as espécies observadas. T. scripta elegans demonstrou-se mais agressiva que T. dorbigni causando, assim, uma interferência no comportamento de assoalhamento da mesma, e apresentando um perfil muito semelhante às características termorregulatórias que possui em seu hábitat natural.
Resumo:
Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.
Resumo:
Este trabalho estuda o comportamento do consumo dos principais meios de mídia na sociedade brasileira, investigando se ele está relacionado à classe social de um indivíduo. Sendo assim, foi feito um levantamento teórico sobre consumo de mídia, classes sociais e comportamento do consumidor. Posteriormente, são estudados quais outros fatores, além da classe social, influenciam no padrão do consumo de mídia, a partir de uma análise de correspondência. Para isso, são examinadas características sociais, demográficas e comportamentais das amostras de indivíduos que consomem cada mídia. Ademais, a análise de correspondência também permite examinar o poder das variáveis estudadas em cada meio como influenciador na decisão de compra, conforme mostra a teoria do comportamento do consumidor.
Resumo:
Este trabalho analisa o impacto da profissionalização legislativa no padrão de carreira dos deputados mineiros e fluminenses. Para esta análise, é desenvolvida uma medida de profissionalização que se adapta à realidade brasileira, levando em consideração o índice criado por Squire (1992), o qual argumenta que a profissionalização do Legislativo Estadual, nos Estados Unidos, é decorrente da estrutura governamental que sofreu grandes mudanças nos últimos quarenta anos e que as suas causas e efeitos devem ser estudados cuidadosamente. Para tal fim, foi utilizada uma base de dados de profissionalização referente aos anos de 2002, 2006 e 2010 nas Assembléias Legislativas dos Estados de Minas Gerais (ALMG) e do Rio de Janeiro (ALERJ). A hipótese testada é a de que instituições mais profissionalizadas geram maiores incentivos e recursos para que os deputados tentem a reeleição e obtenham maior êxito na sua estratégia.
Resumo:
O trabalho está inserido na grande área do direito societário, especificamente sob a temática dos conflitos de interesses nas deliberações de S.A.´s listadas em Bolsa de Valores. O objetivo assumido foi o de percorrer criticamente as propostas teóricas empregadas na interpretação do problema jurídico resultante destes conflitos, para depois realizar um estudo empírico sobre uma modalidade negocial potencialmente conflitiva, as transações entre partes relacionadas. Após o estudo da lógica norteadora das propostas doutrinárias, sustenta-se a hipótese de que as explicações da literatura jurídica brasileira variam na razão do conceito aberto de “interesse da companhia”, articulado de acordo com a posição da parte representada pelo advogado. Arbitrariamente concebidas como formais ou substancias, tais interpretações cuidam do momento de violação do interesse da companhia, respectivamente, visando proibir ou garantir o exercício de voto do interessado por meio de entendimentos convenientes ao tempo do litígio. Diante deste comprometimento do raciocínio abstrato com a prática da advocacia, sugere-se a abordagem do tema por outra proposta teórica, vinculada a uma noção específica do Direito. Compreendido como um provedor de informações relevantes aos interessados nas operações das empresas, ele atua na regulação dos dados exigidos destas sociedades e na confecção das informações produzidas individualmente por elas. Tal transparência, junto das regras que vinculam o mercado, forma o conteúdo conceitual da expressão governança corporativa, desenvolvido em torno da proposta chamada de “sistema de governança corporativa”. A interpretação das informações dos diversos possíveis sistemas deve oferecer ao tomador de decisão a chance de conhecer os seus poderes, prerrogativas, incentivos, competências, limitações e proibições, de modo a avaliar se a sua escolha é uma boa prática de governo da empresa, segundo o sistema no qual ela opera. Aos terceiros interessados, deve servir para verificar se o processo decisório segue o esperado pelo ambiente negocial que o sistema de governança delineia. No tema do conflito de interesses, a sugestão de pensar o problema por esta noção do Direito visa respaldar a criação e divulgação de regras próprias pelas empresas listadas, as quais alimentem o aludido sistema de governança e sirvam à tomada de decisões que orientem o alinhamento dos objetivos dissonantes envolvidos na companhia, sem que haja a necessidade de recorrer ao arbitramento externo. O trabalho empírico se debruça então nos estudos destas regras particulares aplicáveis às transações entre partes relacionadas, tais mecanismos são colhidos nos formulários de referência das 100 companhias mais líquidas da BM&FBovespa no ano de 2011. Os resultados mostram que apenas 6% das empresas possuem procedimentos para identificar as relações conflituosas decorrentes da modalidade negocial estudada e 29% para tratar o problema. Os números relativos às sociedades que estabelecem regras para a administração dos conflitos de interesses nas deliberações de assembleia geral e conselho de administração também são baixos, respectivamente, 7% e 13% apresentam mecanismos de identificação, 4% e 11% para o seu tratamento. A baixa frequência mostrada pelos resultados à luz da proposta teórica construída identifica uma oportunidade, qual seja, a de pensar a mitigação do problema por esta via particular e extrajudicial.
Resumo:
Este artigo examina a relação entre informações acerca do background dos prefeitos brasileiros e o padrão dos seus respectivos gastos. Usando dados das eleições de 1996, 2000, 2004 e 2008, busca-se investigar se o nível educacional e a ocupação prévia desses governantes afetam a maneira como os mesmos realizam os gastos municipais. Os resultados sugerem que prefeitos cuja ocupação anterior tenha sido político, em média, gastam menos (entre 1.8% e 2.0%) do que prefeitos com algumas outras experiências. Os dados apontam ainda que o nível de escolaridade dos prefeitos não tem efeitos sobre o nível de gastos. Políticos de carreira, uma vez no executivo local, gastam menos em urbanismo (entre 3.32% e 8.95% sobre o percentual gasto com urbanismo) e saúde (entre 1.55%. e 3.9% sobre o percentual gasto com saúde) e mais em transporte (de 6.69% a 9.41% sobre o percentual gasto com transporte) e administração (entre 3.46% e 5.63% sobre o percentual gasto com administração) do que profissionais com outra formação.
Resumo:
O mercado de gastronomia em São Paulo é um mercado de altamente competitivo e que atende a um público extremamente exigente. Os fatores que determinam o sucesso ou insucesso de um empreendimento dentro deste mercado vão muito além da execução dos pratos – eles estão ligados ao nível do entendimento sobre um ambiente de atuação bastante específico e às respostas estratégicas construídas em função deste entendimento. Esta dissertação propõe tentar estudar a capacidade dos restaurantes de São Paulo em gerar e capturar valor na cadeia na qual se inserem, considerando suas estratégias (de diferenciação ou redução de custo), gestão de imagem e das diversas decisões tomadas por restaurantes de com diferentes estruturas societárias e distintos modelos de gestão. A análise será conduzida com base em conceitos de estratégia (sobretudo à luz das ideias acerca do modelo de valor - Brandenburger & Stuart (1996) – o que implica na compreensão da cadeia de valor na qual se inserem estes estabelecimentos). Por meio da observação crítica sobre o gerenciamento estratégico deste tipo de negócio, pretendemos distinguir as diferentes formas de atuação dos restaurantes.
Resumo:
A teoria do custo padrão ressente-se de um tratamento matemático, como o que aqui é proposto. Conforme foi salientado no início, este tratamento matemático, embora substancialmente simples, é todavia absolutamente rigoroso e também é completo quando visto do prisma que se adotou. Modelamos a distinção necessariamente explícita entre a produção contínua e a produção descreta, através do uso dos modelos algébricos a dois e três fatores, respectivamente. Unificamos de uma maneira sitemática a abordagem dos três elementos básicos do custo, simplificando de um lado e generalizando do outro. Esta unificação levou aos elementos diretos também, como deve ser, todo o rigorismo analítico do elemento indireto. Ampliou-see a estreita visão das variações de preço e quantidade com a consideração da variação de unidades, qua acarretou automaticamente a substituição do conceito de variação total pelo de variação total orçamentária. A modelagem algébrica não tem a vantagem da visualidade que a modelagem gráfica oferece, mas tem, por outro lado, a superioridade que a generalização apresente. Com efeito, foi a generalização das definições das variações que permitiu os resultados obtidos, aqui resumidos. Mas as razões do método gráfico são também apreciáveis.Assim, o desdobramento da variação total em variação de preço e variação de quantidade é ainda mais ressaltada pelo método gráfico, no qual se vê a variação de quantidade como o resultado de um deslocamento horizontal do ponto cuja abcissa é a quantidade e cuja ordenada é o custo total. Também a variação de preço lá aparece como o resultado da variação do coeficiente angular da reta do custo. Implicando em um deslocamento do ponto representativo da produção. Graficamente também se vê a análise das variações de preço e quantidade nas suas componentes pura e mista.Finalmente os modelos tabulares para os sistemas de produção discreto e contínuo apresentam da maneira mais simples possível todas as variações e seus respectivos custos analisadores. A forma tabular é a mais apreciada pelo administrador prático, pouco efeito à algebra e a geometria. Já o mesmo não se pode dizer do desdobramento, feito por muitos autores, da variação de preço em variação de capacidade e variação de orçamento. Da variação de capacidade já se evidenciou a inadequação do nome, dado que ela não é função da variação de preço. Isto não é mera questão teminológica. A terminologia apenas traz à luz a essência da dificuldade. E nossa proposição que este desdobramento seja descartado por ser totalmente sem significação, mesmo para o elemento indireto, para o qual foi proposto. Esta consideração é importante para a consideração da variação das unidades. Assim, introduzido o orçamento na análise das variaçãoes, a variação de orçamento que verdadeiramente merece este nome é a variação total orçamentária, ou seja, a diferença entre o custo efetivo e o custo orçado, a qual inclui como suas componentes a variação de unidades, a variação da quantidade e a variação de preço. O que é importante na análise da variação de preço é a consideração de variação mista de preço e de quantidade. Foi dado bastante destaque a este desdobramento com a apresentação de mais de um método para o tratamento analítico do desdobramento. Também foi devidamente ressaltada a questão das responsabilidades administrativas derivadas da variação mista
Resumo:
A teoria de custo padrão ressente-se de um tratamento matemático, como o que aqui é proposto. Conforme foi salientado no início, este tratamento matemático, embora substancialmente simples, é todavia absolutamente rigoroso e também é completo quando visto do prisma que se adotou. Modelamos a distinção necessariamente explícita entre a produção contínua e a produção discreta, através do uso dos modelos algébricos a dois e três fatores, respectivamente. Unificamos de uma maneira sistemática a abordagem dos três elementos básicos do custo, simplificando de um lado e generalizando do outro. Esta unificação levou aos elementos diretos, como deve ser, todo o rigorismo analítico do elemento indireto. Ampliou-se a estreita visão das variaçoes de preço e quantidade com a consideração da variação de unidades, que acarretou automaticamente a substituição do conceito de variação total pelo de variação total orçamentária
Resumo:
Trata o presente estudo, da teoria geral dos Oligopólios Internacionais do ponto de vista da sua funcionalidade e estratégia global à longo prazo (crescimento da taxa de acumulação com equilíbrio financeiro) e dos possíveis limites que essa estratégia encontra a nível global e em particular no caso do Brasil. O contexto teórico geral desse trabalho envolve a reflexão crítica em torno de três aspectos fundamentais da teoria dos oligopólios internacionais, que alinhamos do seguinte modo: a) internacionalização do capital, b) seu impacto sobre a periferia e c) a administração da lei do valor e crises. Finalmente estudamos a extensão e interiorização do processo produtivo em função do financiamento interno no Brasil e os problemas gerados pela não funcionalidade orgânica entre o capital produtivo e o capital financeiro. Procuramos também verificar os limites encontrados em relação ao seu pleno desenvolvimento.
Resumo:
A radioproteção dos pacientes submetidos a exames radiográficos está diretamente ligada à qualidade e à repetição das radiografias realizadas. Esta dissertação é apresentada sob a forma de três artigos. O artigo I avaliou a qualidade de 300 radiografias panorâmicas enviadas a clínicas de ortodontia. As radiografias foram classificadas como excelentes (não se observam erros), aceitáveis para diagnóstico (observam-se erros, contudo os mesmos não impedem o diagnóstico) e inaceitáveis (imagem sem valor diagnóstico). Um total de 16,33% das radiografias foi considerado excelente, 78,66% aceitáveis para o diagnóstico e 5% inaceitáveis. Encontrou-se uma média de 1.54 erros por radiografia, sendo os mais freqüentemente encontrados a falta de contato da língua com o palato (21%), aparecimento de imagens fantasma (19,66%), mento inclinado para cima (15,66%), paciente à frente do plano de foco (13,33%), cabeça girada (13,33%), imagens com alta densidade (10,33%) e com baixa densidade (8,66%). Concluiu-se que os padrões de qualidade da amostra estão de acordo com o preconizado em Guidelines on Radiology Standards for Primary Dental Care, segundo os quais se admite até 10% de imagens inaceitáveis. Contudo, cabe salientar que não se conhece o índice de repetições nas clínicas onde as radiografias da amostra foram obtidas e, tendo passado por um controle de qualidade prévio, todas as imagens deveriam ser classificadas como excelentes ou aceitáveis. O artigo II avaliou a freqüência dos erros que levaram à repetição de radiografias panorâmicas realizadas no Serviço de Radiologia da FO-UFRS. O livro de registros do Serviço mostrou um total de 3815 radiografias panorâmicas realizadas no período de junho de 2002 a junho de 2005. No mesmo período o Serviço apresentou 330 radiografias panorâmicas repetidas, resultando em índice de repetição de 8,65% dos exames. Os erros mais freqüentemente encontrados foram: paciente posicionado à frente do plano de foco (25,15%); cabeça girada para direita ou esquerda (24,84%); cabeça inclinada para frente (21,21%); paciente posicionado atrás do plano de foco (20,30%); imagem com a alta densidade (19,69%); imagem com baixa densidade (17,27%); imagem com baixo contraste (16,96%); imagem com alto contraste (12,72%); cabeça inclinada para direita ou esquerda (12,42%); corte do côndilo na radiografia (11,21); corte do mento na radiografia (8,48%); ausência de contato da língua com o palato (7,27%); paciente se moveu durante a exposição (4,94%); cabeça inclinada para trás (2,72%) e aparecimento de imagem fantasma (2,12%). Encontrou-se uma média de 2,07 erros por radiografia. Conclui-se que os erros mais freqüentemente cometidos foram classificados como erros de posicionamento do paciente e que o Serviço de Radiologia da FO-UFRGS apresenta um índice de repetição de radiografias panorâmicas satisfatório, estando de acordo com os padrões de qualidade estabelecidos pelo Guidelines on Radiology Standards for Primary Dental Care. O artigo III teve por objetivo verificar o efeito da radiação emitida em radiografias panorâmicas sobre as células da borda lateral direita da língua, através da avaliação das alterações nucleares, antes e depois da exposição aos raios X. A amostra foi constituída de 42 indivíduos adultos jovens do gênero masculino, sendo 22 deles pertencentes ao grupo que realizou uma radiografia panorâmica (grupo I) e os outros 20 pacientes pertencentes ao grupo II, que realizou duas radiografias panorâmicas. O exame citopatológico das células esfoliadas da mucosa da língua foi realizado antes da incidência radiográfica e 10 dias após. As células foram obtidas através da raspagem e as lâminas foram coradas pela técnica de Feulgen. Para observação das alterações citopatológicas foram analisadas 2.000 células em cada lâmina e quantificados os micronúcleos, buds, broken eggs, cariorrexes e células binucleadas. As lâminas foram analisadas por um único observador. Constatou-se que existe diferença significativa (p=0,01) para as variáveis broken egg, bud, cariorrexe e célula binucleada antes e depois da exposição à radiação ionizante. Na comparação entre os grupos, verificou-se que as variáveis cariorrexe e célula binucleada apresentaram diferença significativa (p=0,01), ambas com valores superiores para o grupo II.
Resumo:
Este estudo buscou incluir mais um ponto de dados às evidências que se acumulam a partir do trabalho de Olivei e Tenreyro (2007, 2010), que encontrou evidências empíricas sobre a importância da rigidez dos salários nominais sobre os efeitos reais da política monetária, explorando a ligação entre os diferentes padrões dos reajustes salariais encontrados nos países e o comportamento do produto e dos preços diante de choques de política monetária. Para o Brasil, inovações na política monetária que ocorrem no segundo trimestre ou no quarto trimestre provocariam uma resposta mais intensa do PIB do ponto de vista da significância estatística. Por outro lado, os choques monetários que ocorrem no primeiro ou no terceiro trimestre são associados a reações do produto com pouca significância estatística. Para a inflação, não foram conseguidas respostas estatisticamente significantes para nenhum tipo de trimestre. Incentivado por informações concretas sobre o calendário dos reajustes salariais, que sugerem a redefinição de uma grande fração dos salários entre março e maio e entre outubro e novembro, propomos uma possível explicação para as respostas diferenciadas baseadas em alteração concentrada dos contratos dos salários.
Resumo:
O padrão H.264 foi desenvolvido pelo JVT, que foi formado a partir de uma união entre os especialistas do VCEG da ITU-T e do MPEG da ISO/IEC. O padrão H.264 atingiu seu objetivo de alcançar as mais elevadas taxas de processamento dentre todos os padrões existentes, mas à custa de um grande aumento na complexidade computacional. Este aumento de complexidade impede, pelo menos na tecnologia atual, a utilização de codecs H.264 implementados em software, quando se deseja a decodi cação de vídeos de alta de nição em tempo real. Essa dissertação propõe uma solução arquitetural de hardware, denominada MoCHA, para compensação de movimento do decodi cador de vídeo de alta de nição, segundo o padrão H.264/AVC. A MoCHA está dividida em três blocos principais, a predição dos vetores de movimento, o acesso à memória e o processamento de amostras. A utilização de uma cache para explorar a redundância dos dados nos acessos à mem ória, em conjunto com melhorias propostas, alcançou economia de acessos à memória superior a 60%, para os casos testados. Quando uma penalidade de um ciclo por troca de linha de memória é imposta, a economia de ciclos de acesso supera os 75%. No processamento de amostras, a arquitetura realiza o processamento dos dois blocos, que dão origem ao bloco bi-preditivo, de forma serial. Dessa forma, são economizados recursos de hardware, uma vez que a duplicação da estrutura de processamento não é requerida. A arquitetura foi validada a partir de simulações, utilizando entradas extraídas de seqüências codi cadas. Os dados extraídos, salvos em arquivos, serviam de entrada para a simulação. Os resultados da simulação foram salvos em arquivos e comparados com os resultados extraídos. O processador de amostras do compensador de movimento foi prototipado na placa XUP Virtex-II Pro. A placa possui um FPGA VP30 da família Virtex-II PRO da Xilinx. O processador PowerPC 405, presente no dispositivo, foi usado para implementar um test bench para validar a operação do processador de amostras mapeado para o FPGA. O compensador de movimento para o decodi cador de vídeo H.264 foi descrito em VHDL, num total de 30 arquivos e cerca de 13.500 linhas de código. A descrição foi sintetizada pelo sintetizador Syplify Pro da Symplicity para o dispositivo XC2VP30-7 da Xilinx, consumindo 8.465 slices, 5.671 registradores, 10.835 LUTs, 21 blocos de memó- ria interna e 12 multiplicadores. A latência mínima para processar um macrobloco é de 233 ciclos, enquanto a máxima é de 590, sem considerar misses na cache. A freqüência máxima de operação foi de 100,5 MHz. A arquitetura projetada é capaz de processar, no pior caso, 36,7 quadros HDTV de 1080 por 1920, inteiramente bi-preditivos, por segundo. Para quadros do tipo P, que não utilizam a bi-predição, a capacidade de processamento sobe para 64,3 quadros por segundo. A arquitetura apresentada para o processamento de quadros bi-preditivos e a hierarquia de memória são, até o momento, inéditas na literatura. Os trabalhos relativos a decodi cadores completos não apresentam a solução para esse processamento. Os resultados apresentados tornam a MoCHA uma solução arquitetural capaz de fazer parte de um decodi cador para vídeos de alta definição.