975 resultados para Inversão de tempo de percurso


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A doença de Marek (MD), causada por um alfaherpesvírus, é uma enfermidade linfoproliferativa que acomete principalmente galinhas. Como não existe tratamento, a melhor forma de prevenção e controle da MD é através do uso de vacinas atenuadas, que vêm sendo usadas desde 1970. Este trabalho descreve a análise de vacinas vivas congeladas contra o sorotipo 3 do vírus da doença de Marek (herpesvírus de peru – HVT) por PCR em tempo real (qPCR) e por cultivo em células de embrião de galinha. Foram avaliadas três vacinas (cepa FC126) provenientes de distintos fabricantes. As análises da homogeneidade inter e intra-lote apresentaram, respectivamente, média ± desvio padrão de 2,6 ± 1,7%, 2,1 ± 1,1% e 1,2 ± 0,1% e média ± desvio padrão de 1,5 ± 0,1%, 1,2 ± 0,8% e 1,0 ± 0,3% para A, B e C, respectivamente. A qPCR subestimou os títulos das vacinas concentradas 4x e superestimou os títulos das vacinas diluídas 8x, enquanto o cultivo celular superestimou os títulos das vacinas concentradas. As vacinas apresentaram quantidades diferentes de células/dose e unidade formadoras de placa/dose. Conseqüentemente, a relação PFU/célula também foi diferente, o que demonstra a necessidade de construção de curvas diferentes, para cada fabricante, para a titulação por qPCR.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o intuito de utilizar uma rede com protocolo IP para a implementação de malhas fechadas de controle, este trabalho propõe-se a realizar um estudo da operação de um sistema de controle dinâmico distribuído, comparando-o com a operação de um sistema de controle local convencional. Em geral, a decisão de projetar uma arquitetura de controle distribuído é feita baseada na simplicidade, na redução dos custos e confiabilidade; portanto, um diferencial bastante importante é a utilização da rede IP. O objetivo de uma rede de controle não é transmitir dados digitais, mas dados analógicos amostrados. Assim, métricas usuais em redes de computadores, como quantidade de dados e taxa de transferências, tornam-se secundárias em uma rede de controle. São propostas técnicas para tratar os pacotes que sofrem atrasos e recuperar o desempenho do sistema de controle através da rede IP. A chave para este método é realizar a estimação do conteúdo dos pacotes que sofrem atrasos com base no modelo dinâmico do sistema, mantendo o sistema com um nível adequado de desempenho. O sistema considerado é o controle de um manipulador antropomórfico com dois braços e uma cabeça de visão estéreo totalizando 18 juntas. Os resultados obtidos mostram que se pode recuperar boa parte do desempenho do sistema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Estado exerce a função jurisdicional com a finalidade de composição dos conflitos litigiosos, sendo o processo o meio pelo qual ela se materializa. Com isso, tem-se o acesso à justiça, no sentido de ser garantido o exame de uma pretensão, em tempo aceitável, com a segurança de um tratamento adequado, que seja reflexo dos valores da sociedade em que se vive. O Poder Judiciário sofre críticas de toda ordem: no Brasil dos dias atuais, a morosidade é o principal problema apontado. Tanto é assim, que a sociedade brasileira passou a exigir uma solução para isso com tamanha ênfase, que a razoável duração do processo foi incluída no rol de garantias individuais da Constituição da República. Muitas alternativas têm sido buscadas com a intenção de reduzir o tempo de duração do processo, sendo a via eletrônica uma dessas opções. No ano de 2006, entrou em vigor a Lei n. 11.419, que trata da informatização do processo judicial. Este estudo realizou uma avaliação do contexto que levou à busca pela rápida solução dos litígios, com análise da lei que instituiu o meio eletrônico na tramitação dos processos, restrito a esta ótica de redução do tempo de duração do processo. Com base em um estudo de caso realizado no 4o Juizado Especial Cível da Comarca de Porto Velho, demonstrou- se que, ao menos nesta unidade jurisdicional, houve efetiva diminuição no tempo de duração dos processos. Ponderou-se, ainda, acerca do software livre que está sendo disponibilizado pelo Conselho Nacional de Justiça para uso por parte dos tribunais, o Processo Judicial eletrônico – PJe, concluindo-se que a ferramenta terá condições de servir de instrumento para redução do termo final do processo. Finalizou-se esta dissertação com considerações sobre tudo o que foi estudado, ressaltando a idéia de que todos os atores que atuam na solução dos conflitos devem contribuir para que seja alcançada a paz.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo teve o objetivo de examinar a contribuição do processo eletrônico na redução do tempo médio de tramitação do processo. Para alcançar este objetivo, realizou-se pesquisa descritiva documental, com dados de campo coletados, em junho de 2009, em catorze Juizados Especiais Federais e três Turmas Recursais da 2ª Região, totalizando 1444 processos (físicos e eletrônicos) que atingiram a baixa finda no referido mês. Os principais resultados indicam que, no período observado, o processo eletrônico foi mais célere do que o processo físico, alcançando, em média, 70% de redução do tempo de tramitação do processo. Sustentam também que essa redução é variável no tempo transcorrido entre fases distintas do processo. Nesse contexto, propõe-se a criação de indicador de Tempo Médio de Tramitação do Processo, que indique a ocorrência atualizada de cada fase selecionada, em comparação com o passado, pois ambos constituem referência para análise e estudo de situações e tomadas de decisão relativas à celeridade na prestação jurisdicional, sem perda da qualidade dos resultados já obtidos. Em síntese, os resultados sustentam a premissa de que o processo eletrônico é uma das ferramentas valiosas para combater a morosidade no Poder Judiciário e auxiliar no aumento do Índice de Confiança na Justiça no Brasil, fortalecendo o Poder Judiciário e ampliando o acesso à Justiça. Ao final, apresentam-se conclusões e sugestões que têm em vista acelerar e ampliar o acesso à justiça.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudo da teoria das opções reais que incorpora à avaliação de projetos de investimentos, as opções de crescimento e as flexibilidades gerenciais que surgem devido às incertezas existentes no ambiente no qual as empresas operam. Aborda os métodos tradicionais de avaliação de investimentos baseados no fluxo de caixa descontado (FCD), destaca as suas vantagens e limitações; a teoria das opções reais mostrando suas vantagens em relação aos métodos tradicionais; e um estudo de caso. Tem como objetivo principal apresentar que a teoria das opções reais é viável e complementar aos métodos tradicionais de avaliação de investimentos na indústria de mineração de ferro, com a abordagem da avaliação em tempo discreto. Este método permite especificar o problema de análise e resolvê-lo com o uso de programa de software de análise de decisão disponível no mercado de forma mais simples e mais intuitivo que os métodos tradicionais de avaliação de opções reais e permite maior flexibilidade na modelagem do problema de avaliação. A modelagem das opções reais do projeto baseia-se no uso de árvore de decisão binomial para modelar o processo estocástico. A avaliação é realizada em quatro passos de acordo com a metodologia proposta por Copeland e Antikarov (2001) e Brandão e Dyer (2005): modelagem do ativo básico, ou seja, cálculo do valor presente líquido sem flexibilidade; criação do modelo binomial utilizando o software computacional para modelar o ativo básico, computando as probabilidades neutras a risco; modelagem das opções reais no projeto; e resolução da árvore binomial, ou seja, análise das opções reais. Os resultados apresentados demonstram que é possível implementar a abordagem da avaliação de opções reais em projetos de investimentos na indústria de mineração de ferro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta um conjunto de ferramentas que exploram as capacidades recentes das placas gráficas de computadores pessoais para prover a visualização e a interação com volumes de dados. O objetivo é oferecer ao usuário ferramentas que permitam a remoção interativa de partes não relevantes do volume. Assim, o usuário é capaz de selecionar um volume de interesse, o que pode tanto facilitar a compreensão da sua estrutura quanto a sua relação com os volumes circundantes. A técnica de visualização direta de volumes através do mapeamento de texturas é explorada para desenvolver estas ferramentas. O controle programável dos cálculos realizados pelo hardware gráfico para gerar a aparência de cada pixel na tela é usado para resolver a visibilidade de cada ponto do volume em tempo real. As ferramentas propostas permitem a modificação da visibilidade de cada ponto dentro do hardware gráfico, estendendo o benefício da visualização acelerada por hardware. Três ferramentas de interação são propostas: uma ferramenta de recorte planar que permite a seleção de um volume de interesse convexo; uma ferramenta do tipo “borracha”, para eliminar partes não relevantes da imagem; e uma ferramenta do tipo “escavadeira”, para remover camadas do volume Estas ferramentas exploram partes distintas do fluxo de visualização por texturas, onde é possível tomar a decisão sobre a visibilidade de cada ponto do volume. Cada ferramenta vem para resolver uma deficiência da ferramenta anterior. Com o recorte planar, o usuário aproxima grosseiramente o volume de interesse; com a borracha, ele refina o volume selecionado que, finalmente, é terminado com a escavadeira. Para aplicar as ferramentas propostas ao volume visualizado, são usadas técnicas de interação conhecidas, comuns nos sistemas de visualização 2D. Isto permite minimizar os esforços do usuário no treinamento do uso das ferramentas. Finalmente, são ilustradas as aplicações potenciais das ferramentas propostas para o estudo da anatomia do fígado humano. Nestas aplicações foi possível identificar algumas necessidades do usuário na visualização interativa de conjuntos de dados médicos. A partir destas observações, são propostas também novas ferramentas de interação, baseadas em modificações nas ferramentas propostas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo medir o tempo de duração dos processos judiciais envolvendo direitos sociais na seara educacional e verificar de que forma esse tempo afeta a fruição desses direitos. Visando atingir tais objetivos, foram identificados e analisados os processos judiciais, desde a sua entrada na 1.ª instância da justiça estadual até a data da sessão de julgamento do acórdão na 2.ª instância do Tribunal de Justiça de Minas Gerais. De forma subsidiária, o trabalho também identificou quem eram os litigantes, a influência da concessão das liminares no tempo de duração dos processos, a variação do tempo do processo com base na localização da comarca em que se inicia o processo e a existência de etapas mortas na tramitação dos processos judiciais. O pressuposto que guiou a pesquisa é o da possibilidade do perecimento de determinados direitos, como o direito ao oferecimento de vagas em creches e o direito ao acesso ao ensino superior público de forma gratuita, ante uma duração excessiva do tempo do processo judicial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O corpo humano, em qualquer sociedade, é objeto de adestramento e socialização de acordo com as representações próprias a cada cultura. No Brasil, além das agências e processos de socialização informal, privilegia-se durante o Estado Novo (1937-1945) uma agência para exercer especificamente esta tarefa. Neste período a Educação Física se consubstancia como disciplina obrigatória em estabelecimentos de ensino. O novo programa, ao mesmo tempo que modela os "corpos", pretende incutir nos "espíritos" as representações "oficiais" da sociedade brasileira: aperfeiçoamento da raça, sentimento nacionalista, unidade nacional e a nova ordem social. Por possuir técnicas que se caracterizam por sua sutileza e: dissimulação, a Educação Física valora explicitamente locais e relações sociais supostamente qualificados de "naturais", "livres" e "amplos", mas que são contextualizados, entretanto, num quadro - rígido de disciplina.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Numa retrospectiva do processo de urbanização, observamos a sua associação a dois outros processos: o de adensamento construtivo e o de degradação do ambiente, em vários momentos sendo tidos como um só. Essa abordagem dificulta a consideração de outras possibilidades. A partir da mudança de enfoque, da linearidade da história, para a espacialização da geografia, procuramos focalizar dois temas principais – clima urbano e forma urbana. Os climas urbanos são modificações locais das condições atmosféricas. Ao longo de um percurso pela cidade, sucedemse áreas com características relacionadas a diversos aspectos físicos, morfológicos e atividades humanas. Notam-se diferenças de temperatura, de ventilação e de umidade, entre ruas ou bairros de uma cidade, que podem ser mais, ou menos, quentes, úmidos, ventilados do que a média preponderante na região. A forma urbana é logo lembrada quando nos referimos às cidades, mas estas não se restringem à sua aparência física, ao seu desenho em uma planta, a configurações externas ou a estudos volumétricos e estilísticos. As cidades são caracterizadas por todos esses aspectos, englobando ainda sua evolução, organização social, degradação ambiental e intrínsecas relações. Em um momento de agravamento dos problemas ambientais urbanos, é de extrema pertinência discutir o quanto a forma urbana interfere sobre a qualidade de vida no ambiente urbano Ao mesmo tempo, questionamos os mitos da cidade caótica e refletimos sobre os limites do adensamento construtivo, considerando diferentes variáveis. O que é conforto? Qual seria a forma urbana ideal? Chegaremos à cidade compacta, sustentável e dotada de qualidade de vida? Quais os limites e possibilidades do adensamento construtivo? No município do Recife – PE, algumas de nossas hipóteses foram validadas, através da observação dos fatos gerais, tais como urbanização e degradação ambiental, chegamos à compreensão de fatos locais, como a formação de microclimas e a produção de diferentes graus de conforto em cada uma das quatro áreas analisadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Passiflora é um gênero neotropical que apresenta uma grande variabilidade floral e foliar, o que dificulta enormemente sua classificação taxonômica. A característica mais marcante do gênero é a corona de filamentos em suas flores. Para melhor entender a taxonomia de Passiflora, foram analisadas sete regiões de seu DNA, englobando os genomas plastidial, mitocondrial e nuclear de 104 espécies. Essas espécies incluem 19 dos 23 subgêneros da classificação morfológica antiga e todos os quatro subgêneros da classificação mais recente, também baseada em caracteres externos. Os resultados corroboraram a proposta mais recente, que divide o gênero em quatro subgêneros (Astrophea, Decaloba, Deidamioides e Passiflora), com a adição de mais um, Tryphostemmatoides. Os três subgêneros com o número de espécies mais representativo (Astrophea, Decaloba e Passiflora) formam grupos monofiléticos estatisticamente bem fundamentados. No entanto, Deidamioides não é monofilético em todas as análises e marcadores, enquanto que Tryphostemmatoides é representado por apenas uma espécie. Foram também estudadas as prováveis datas de surgimento de Passiflora e sua diversificação nos três principais subgêneros, através do estudo de quatro regiões do DNA, englobando também os três genomas, em 70 espécies. Verificou-se que o gênero Passiflora deve ter aparecido há cerca de 42 milhões de anos atrás (Ma); Decaloba parece ter sido o primeiro subgênero a se estabelecer (35 Ma), enquanto que os subgêneros Astrophea e Passiflora devem ter se diversificado há 24 Ma Estes dois subgêneros parecem ter tido uma radiação rápida em comparação a Decaloba, que possui árvores filogenéticas com comprimentos dos ramos significativamente maiores que os outros dois. As adaptações morfológicas a diferentes polinizadores devem ter sido as principais responsáveis pela radiação rápida. A herança organelar de dois subgêneros, Decaloba e Passiflora, foi investigada através de um e quatro híbridos interespecíficos, respectivamente. A herança foi estritamente materna para a mitocôndria e o cloroplasto em Decaloba, enquanto que no subgênero Passiflora ocorreu herança materna para o DNA mitocondrial e paterna para o DNA plastidial. Esses resultados reforçam os dados obtidos pela filogenia, no que se refere à diferenciação e diversificação dos subgêneros, pois há evidências de que a herança materna dos cloroplastos seja ancestral em plantas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Embora há muito tempo já se tenha conhecimento da importância da recuperação de informações temporais, não existe um SGBD temporal que tenha sido desenvolvido unicamente para aplicações comerciais, que supra todas as necessidades e abranja todos os aspectos temporais necessários a estas aplicações. O SGBD da Oracle, a partir da versão 8i, possibilita a inserção de características temporais similares às de tempo de transação no BD, através de um pacote de tempo denominado Time Series Cartridge. Entretanto, em muitos casos, a utilização deste cartucho de tempo não é suficiente para que se possa implementar por completo tudo o que foi especificado na modelagem do sistema. A modelagem completa da realidade só é alcançada se forem utilizadas em conjunto as características de tempo de transação e de tempo de validade no banco de dados. Neste trabalho são sugeridos e implementados mecanismos para a inserção e o gerenciamento do tempo de validade no SGBD Oracle. O tempo de validade é administrado através da execução de funções, procedimentos, gatilhos e objetos, organizados em forma de um pacote, de maneira que este possa ser utilizado em conjunto com o Time Series Cartridge.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nosso trabalho trata do estatuto trágico do tempo nas obras maiores de Jean Racine, a saber Andromaque et Bajazet. O que engendra o trágico de Andromaque? O que funda o trágico em Bajazet? Como o tempo intervém nestas duas peças, transformando-as em tragédias? Após um breve percurso teórico sobre a questão do tempo no teatro, propomos uma análise dessas duas peças.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A relação com a teoria das cordas renovou o interesse nas teorias quânticas de campo formuladas num espaço-tempo não-comutativo. O principal aspecto dessas teorias é o assim chamado "mecanismo UV/IR", segundo o qual divergências ultravioletas são parcialmente convertidas em infravermelhas. Para certos modelos, estas singularidades infravermelhas originadas do mecanismo UV/IR podem inviabilizar a solução perturbativa da teoria de campos. A questão principal, portanto, é encontrar teorias que sejam consistentes quando formuladas num espaço-tempo não-comutativo, sendo os modelos supersimétricos particularmente promissores neste sentido. Neste trabalho, examinamos as teorias de calibre supersimétricas Abelianas (NCSQED) e não-Abelianas com grupo de calibre U(N) (NCSYM) formuladas num espaço-tempo não-comutativo de quatro dimensões. Emambos os casos, calculamos as funções de vértice utilizando o formalismo covariante de supercampos que é tornado completamente operacional. Consideramos tanto as teorias N = 1 quanto as com supersimetria estendida. Mostramos rigorosamente que, a um laço da teoria de perturbações, estes modelos são livres de singularidades infravermelhas UV/IR não-integráveis. Para a função de dois pontos da NCSQED esta afirmação vale em qualquer calibre, ao passo que, para a função de três pontos, as singularidades infravermelhas UV/IR perigosas se anulam num calibre particular. Já para a NCSYM, demonstramos que as correções quânticas às funções de vértice de dois e três pontos não apresentam os efeitos indesejáveis do mecanismo UV/IR graças a certas relações envolvendo traços dos geradores do grupo de calibre que, surpreendentemente, são satisfeitas apenas na representação fundamental do grupoU (N). Como esperado, a função de dois pontos é também finita na teoria N = 4.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O pó de aciaria elétrica (PAE) é um resíduo sólido gerado na coleta do material particulado no processo de fabricação do aço em forno elétrico a arco. A classificação segundo norma NBR 10004 para o mesmo é classe I – Perigoso, porque apresenta metais pesados (chumbo e cádmio) em sua constituição, que lixiviam em água excedendo os limites máximos estabelecidos por esta norma. Os elementos ferro e zinco são os constituintes majoritários presentes no PAE. O conhecimento da forma como estes elementos estão combinados é de suma importância antes do estudo de novas tecnologias para processamento do resíduo. Este trabalho teve como objetivos principais caracterizar química, física, estrutural e morfologicamente o PAE e avaliar a influência do tempo na redução carbotérmica deste resíduo. Na etapa de caracterização do PAE as seguintes técnicas foram utilizadas: análise granulométrica, análise química, microscopia eletrônica de varredura (MEV), análise por dispersão de energia (EDS), análise digitalizada de mapeamento de raios-x, difração de raios-x (DRX) e espectroscopia Mössbauer. Os experimentos de redução foram realizados em forno mufla na temperatura de 1050°C, em três tempos de redução: 15, 30 e 60 minutos. O agente redutor utilizado foi um carvão gaúcho, proveniente da mina de Faxinal, beneficiado e contendo 17% de cinza. A quantidade de carbono utilizada nos experimentos foi de 50% em excesso em relação a quantidade estequiométrica. O grau de metalização do ferro das amostras reduzidas foi avaliado via técnicas de análise química via-úmida e espectroscopia Mössbauer. O grau de remoção do zinco nas amostras reduzidas foi avaliado via técnica de análise química por Espectrometria de Emissão Atômica por Plasma – ICP. Através da etapa de caracterização verificou-se que o ferro e o zinco são os elementos majoritários presentes no PAE, e estão combinados na forma dos seguintes óxidos: Fe3O4, ZnFe2O4, FeCr2O4, Ca0,15Fe2,85O4 e ZnO. Nos ensaios de redução verificou-se que inicialmente ocorre a redução dos óxidos de ferro. O máximo grau de metalização obtido no tempo de 60 minutos foi em torno de 50%. A análise estatística mostrou que objetivando maximizar a variável de resposta (grau de metalização) e garantir economia o tempo de 15 minutos se mostrou o mais adequado. Para as fases com zinco, verificou-se que após a decomposição da ZnFe2O4 e tempos maiores de redução teve início a redução da ZnO. Com 60 minutos na temperatura de 1050°C o grau de remoção do zinco foi de 95%.