27 resultados para Estimação das componentes de variância
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.
Resumo:
Durante a análise sísmica de estruturas complexas, o modelo matemático empregado deveria incluir não só as distribuicões irregulares de massas e de rigidezes senão também à natureza tridimensional da ecitação sísmica. Na prática, o elevado número de graus de liberdade involucrado limita este tipo de análise à disponibilidade de grandes computadoras. Este trabalho apresenta um procedimento simplificado, para avaliar a amplificação do movimento sísmico em camadas de solos. Sua aplicação permitiria estabelecer critérios a partir dos quais avalia-se a necessidade de utilizar modelos de interação solo-estrutura mais complexos que os utilizados habitualmente. O procedimento proposto possui as seguientes características : A- Movimento rígido da rocha definido em termos de três componentes ortagonais. Direção de propagação vertical. B- A ecuação constitutiva do solo inclui as características de não linearidade, plasticidade, dependência da história da carga, dissipação de energia e variação de volume. C- O perfil de solos é dicretizado mediante um sistema de massas concentradas. Utiliza-se uma formulação incremental das equações de movimento com integração directa no domínio do tempo. As propriedades pseudo-elásticas do solo são avaliadas em cada intervalo de integração, em função do estado de tensões resultante da acção simultânea das três componentes da excitação. O correcto funcionamento do procedimento proposto é verificado mediante análises unidimensionais (excitação horizontal) incluindo estudos comparativos com as soluções apresentadas por diversos autores. Similarmente apresentam-se análises tridimensionais (acção simultânea das três componentes da excitação considerando registros sísmicos reais. Analisa-se a influência que possui a dimensão da análise (uma análise tridimensional frente a três análises unidimensionais) na resposta de camadas de solos submetidos a diferentes níveis de exçitação; isto é, a limitação do Princípio de Superposisão de Efeitos.
Resumo:
Através da utilização de sistemas de controle informatizados, indústrias buscam uma caracterização mais completa de seus processos, gerando, freqüentemente, um grande volume de dados acerca de inúmeras variáveis de desempenho dos processos. Entretanto essa grande massa de dados é subaproveitada, visto que as cartas de controle multivariadas tradicionais, tais como as cartas de Hotelling, MCUSUM e MEWMA não são suficientemente robustas para tratar com um grande número de variáveis correlacionadas, pois foram concebidas para monitorar um número reduzido de variáveis de qualidade do produto final. Diante disso, ferramentas multivariadas mais robustas, que incorporam essas informações, vêm sendo desenvolvidas; dentre estas, destaca-se a Multiway Principal Component Analysis (Análise de Componentes Principais Multidirecionais; ACPM). Neste trabalho, apresenta-se a base teórica para a elaboração de uma carta de controle a partir da estratégia ACPM, para monitoramento on-line de processos em bateladas. Nesses processos, aferições freqüentes de variáveis de processo são disponibilizadas durante a realização de cada batelada. As cartas de controle baseadas em ACPM permitem o tratamento de variáveis autocorrelacionadas, com médias que descrevem trajetórias não lineares se observadas em momentos seqüenciados no tempo. Tais variáveis aparecem com freqüência em processos por bateladas. Uma aplicação das cartas de controle baseadas em ACPM em um sub-processo de produção de borracha para cobertura de pneus ilustra a utilização da ferramenta.
Resumo:
A modelagem e desenvolvimento de sistemas embarcados ("embedded systems") de forma distribuída, tende a ser uma tarefa extremamente complexa, especialmente quando envolve sistemas heterogêneos e sincronização de tarefas. Com a utilização do modelo de componentes de software é possível descrever, de uma forma simplificada, todos os elementos de distribuição e de comunicação para este tipo de sistemas. Neste sentido, a especificação de uma ferramenta capaz de auxiliar na modelagem e no desenvolvimento deste tipo de aplicação, certamente irá tornar o trabalho mais simples. Esta dissertação inicia por uma análise comparativa entre as tecnologias passíveis de serem utilizadas na definição de sistemas distribuídos heterogêneos, focando-se principalmente nas metodologias de modelagem, e nos mecanismos e middlewares de comunicação. Dos conceitos formados a partir desta análise é descrita uma ferramenta, baseada em componentes de software. A ferramenta é uma extensão do projeto SIMOO-RT, onde foram adicionados os conceitos de componente de software, biblioteca de componentes e diagrama de implantação. Além disso, foram realizadas modificações no sistema de geração de código, para dar suporte aos novos conceitos da ferramenta. A dissertação termina com a descrição de alguns estudos de caso utilizados para validar a ferramenta.
Resumo:
Este estudo identifica a relação entre controle percebido e desempenho acadêmico de crianças em situação de risco social e pessoal na cidade de Porto Alegre. Foram examinadas 61 crianças, sendo 30 meninos e 31 meninas com idades de 7 a 8 anos, que freqüentavam a primeira série de duas escolas estaduais da periferia de Porto Alegre. Os dados foram obtidos através da aplicação de uma escala de controle percebido, o CAMI ( Control, agency, Interview), que verifica os componentes de crenças como locus de controle, atribuição de causalidade, auto-eficácia e desamparo aprendido, bem como foram utilizados o Teste de Desempenho Escolar e o desempenho atribuídos a cada criança com base nas provas finais do ano letivo, resultando em aprovado e reprovado. Quarenta e três crianças tiveram como resultado a aprovação e dezoito foram reprovadas. Os resultados deste estudo foram obtidos através de regressão múltipla e logística, médias e análise de variância (ANOVA). Os resultados encontrados neste estudo confirmam que existe relação entre controle percebido e desempenho acadêmico, como também que as crenças de controle, crenças de capacidade e crenças de estratégia variam de acordo com a idade e o gênero.
Resumo:
o objetivo desta pesquisa foi mensurar o grau de importância dos componentes do processo educacional na construção das competências básicas prioritárias para uma instituição de ensino específico. Em virtude do objetivo geral da pesquisa, identificaram-se, também, as competências básicas requeridas dos técnicos de nível médio pelo mercado de trabalho paranaense. No referencial teórico analisou-se a evolução histórica brasileira e o contexto atual para se compreender a necessidade de uma educação eficaz, as competências básicas requeridas dos profissionais de hoje, a educação brasileira e, em especial, a educação profissional- seu histórico nacional e sua situação atual. Por fim, abordou-se nessa revisão, elementos do processo educacional que promovem o desenvolvimento de competências nos ambientes escolares. O método que caracteriza o desenvolvimento da presente pesquisa está fundamentado nos princípios do QFD - Quality Function Deployment. Os dados e informações para consolidar a pesquisa foram obtidos de forma bem diversificada, sendo, basicamente, através de pesquisas qualitativas e quantitativas, com dois públicos distintos: profissionais da área educacional e profissionais do mercado em geral Esta pesquisa utilizou o Centro Estadual de Educação Profissional de Curitiba como um estudo de caso em particular, entretanto seus métodos e grande parte dos resultados obtidos podem ser reutilizados para outras instituições públicas e privadas de ensino, principalmente localizadas no Estado do Paraná. A análise de dados foi efetuada sobre os componentes do processo educacional, que, para esta pesquisa, foram classificados em dois grandes grupos: processo ensino-aprendizagem e recursos, que por sua vez, foram subdivididos em recurso docente, discente, material e de gestão. Com a utilização do QFD, foram estabelecidos graus de importância para os componentes de cada recurso, bem como para os componentes do processo ensino-aprendizagem, o que possibilitou identificar os mais importantes para a construção das competências básicas na instituição de ensino em questão.
Resumo:
O presente trabalho estima uma nova relação entre emprego e inflação para o Brasil, tendo como pano de fundo hipóteses propostas pelo arcabouço neo-keynesiano. Quatro hipóteses são testadas e sustentadas ao longo de todo o trabalho: i) os agentes não possuem racionalidade perfeita; ii) a imperfeição no processo de formação das expectativas dos agentes pode ser um fator determinante no componente inercial da inflação brasileira; iii) a inflação possui um componente inercial autônomo, que não depende de choques verificados em mercados isolados; e, iv) relações não-lineares entre inflação e desemprego são capazes de fornecer melhores explicações para o comportamento da economia nos últimos 12 anos. Enquanto as duas primeiras hipóteses são verificadas através de um modelo com mudanças markovianas, as duas últimas são testadas a partir da estimação de uma Curva de Phillips convexa, estimadas pelo Filtro de Kalman. Entretanto, mesmo fazendo uso destas estimativas, as funções de resposta da política monetária apresentam as mesmas propriedades de estimativas tradicionais para o Brasil.
Resumo:
Neste trabalho analisamos processos estocásticos com decaimento polinomial (também chamado hiperbólico) da função de autocorrelação. Nosso estudo tem enfoque nas classes dos Processos ARFIMA e dos Processos obtidos à partir de iterações da transformação de Manneville-Pomeau. Os objetivos principais são comparar diversos métodos de estimação para o parâmetro fracionário do processo ARFIMA, nas situações de estacionariedade e não estacionariedade e, além disso, obter resultados similares para o parâmetro do processo de Manneville-Pomeau. Entre os diversos métodos de estimação para os parâmetros destes dois processos destacamos aquele baseado na teoria de wavelets por ser aquele que teve o melhor desempenho.
Resumo:
Neste trabalho analisamos alguns processos com longa dependência sazonais, denotados por SARFIMA(0,D, 0)s, onde s é a sazonalidade. Os estudos de estimação e previsão estão baseados em simulações de Monte Carlo para diferentes tamanhos amostrais e diferentes sazonalidades. Para estimar o parâmetro D de diferenciação sazonal utilizamos os estimadores propostos por Geweke e Porter-Hudak (1983), Reisen (1994) e Fox e Taqqu (1986). Para os dois primeiros procedimentos de estimação consideramos seis diferentes maneiras de compor o número de regressores necessários na análise de regressão, com o intuito de melhor comparar seus desempenhos. Apresentamos um estudo sobre previsão h-passos à frente utilizando os processos SARFIMA(0,D, 0)s no qual analisamos o erro de previsão, as variâncias teórica e amostral, o vício, o pervício e o erro quadrático médio.
Resumo:
A tarefa de estimação de movimento, utilizada na compressão de vídeo digital, é normalmente realizada em hardware por processador dedicado, uma vez que demanda expressiva capacidade computacional. Este trabalho propõe e desenvolve uma arquitetura de hardware para realizar o cálculo dos vetores de movimento no contexto de compressão de vídeo digital. Essa arquitetura para estimação de movimento é composta pelos blocos: interface de entrada e saída (E/S), matriz de processamento com 64 elementos de processamento, unidade de comparação e unidade de controle. A arquitetura foi descrita em linguagem VHDL de maneira que o número de bits utilizados para representação da luminância dos pontos é configurável. A partir desta descrição, foi gerado um protótipo para dados representados em 4 bits utilizando um kit de desenvolvimento baseado no dispositivo FPGA XC2S150 da Xilinx. Para validação do algoritmo e da arquitetura implementada, além da simulação, foi desenvolvido um software para plataforma PC capaz de exercitar as funcionalidades do protótipo. O PC é utilizado como dispositivo controlador de E/S para esta validação, na qual uma implementação do algoritmo em software e outra em linguagem de descrição de hardware são comparadas. A máxima freqüência de trabalho do protótipo, estimada por simulação da arquitetura mapeada no FPGA XC2S150, é de 33 MHz. A esta freqüência o núcleo da arquitetura paralela de 64 elementos de processamento realiza cerca de 2,1 GOps (bilhões de operações inteiras por segundo). Esta arquitetura de hardware calcula os vetores de movimento para vídeo no formato 640x480 pontos à taxa de 107,32 quadros por segundo, ou um quadro a cada 9,3 ms. A arquitetura implementada para luminânica em 4 bits ocupa 16 pinos de E/S, 71,1% dos blocos lógicos do FPGA e 83,3% dos blocos de memória disponíveis no dispositivo XC2S150.
Resumo:
A Engenharia de Software tornou-se uma das principais áreas de concentração do mundo da Ciência da Computação, pois ela abrange métodos para construir sistemas, ferramentas que fornecem apoio a construção e os procedimentos a seguir para que os métodos estejam de acordo com as ferramentas usadas [PRE 95]. No desenvolvimento de sistemas cada vez mais complexos vê-se a necessidade da utilização de equipes de pessoas no projeto e implementação. Essas pessoas podem estar geograficamente dispersas e portanto possuem a necessidade de troca de informações para que os sistemas desenvolvidos sejam adequados com o objetivo inicial e de qualidade. Assim, os sistemas cooperativos, chamados de groupware, tornaram-se uma importante ferramenta utilizada por esse grupo de profissionais para que as tarefas desenvolvidas em grupo se tornem interativas e eficientes. A interação entre as pessoas que estão trabalhando cooperativamente deve ser a mais produtiva possível, sendo semelhante ao trabalho em grupo em um único local. Assim, a percepção das atividades que estão sendo realizadas devem estar disponíveis para cada profissional, através da Interface Homem-Computador do sistema groupware que estão utilizando. Este trabalho apresenta uma “biblioteca” de Componentes de Percepção que fornecem as informações necessárias para que as pessoas que estão participando da tarefa cooperativa tenham a percepção das atividades que estão sendo realizadas, como também quem e como as estão fazendo. Esses componentes são uma extensão do Ambiente PROSOFT Cooperativo, fornecendo assim uma especificação formal de forma a garantir completeza, corretude e ausência de ambigüidades que são muito difíceis de se conseguir com uma descrição informal.
Resumo:
Xenólitos ultramáficos, carregados até a superfície da Terra por magmatismo básico alcalino intraplaca, fornecem evidências diretas da natureza e processos envolvidos em modificações do manto litosférico subcontinental, como fusão parcial e metassomatismo. Estes xenólitos têm sido utilizados para identificar processos relacionados a evolução da litosfera continental, estimar a composição original do manto e a escala das heterogeneidades mantélicas. Raramente xenólitos ultramáficos mantélicos são encontrados em ambientes convergentes, no entanto na Patagônia (sul da América do Sul), diversas ocorrências são identificadas em basaltos alcalinos na região de arco e back arc da Cordilheira do Andes. Estes xenólitos oportunizam o estudo dos processos de interação entre a cunha mantélica, a placa oceânica subductada e a astenosfera. Nesta dissertação são apresentados dados petrográficos, mineralógicos, geoquímicos e de isótopos de Sr e O em 22 xenólitos ultramáficos de dois centros vulcânicos Mioceno-Holoceno distintos: Cerro del Mojon (41°06’S-70°13’W) e Estancia Alvarez (40°46’S-68°46’W), localizados na borda NW do Platô de Somuncura, norte de Patagônia (Argentina). A suíte de xenólitos ultramáficos do Cerro del Mojon consiste de espinélio dunitos e harzburgitos mantélicos anidros (Grupo1), espinélio lherzolitos mantélicos anidros (Grupo 2a) e hidratados (Grupo 2b) e espinélio clinopiroxenitos crustais (Grupo 3). Os xenólitos mantélicos do Grupo 1 são depletados (empobrecidos em ETR pesados e HFSE, com baixas razões 87Sr/86Sr em Cpx – 0,7028-0.7037), de alta PT (16-19 kbar, 950-1078 ºC), e têm evidências de metassomatismo críptico (enriquecimento em K, Na ETR leves) atribuído a componentes derivados de sedimentos da placa oceânica subductada, EM 2 (87Sr/86Sr em RT até 0,7126, 87Rb/86Sr até 1,66 e δ18O até +6.78‰). Estes valores anomalamente altos foram obtidos em amostras com bolsões de reação ao redor do espinélio, induzidos pela percolação de fluidos metassomáticos sob altas pressões seguida por descompressão (Sp+fluido→ Cpx+Ol+Sp+melt-andesítico-traquítico). Os xenólitos do Grupo 2 são moderadamente depletados (empobrecidos em HFSE, com baixas a altas razões 87Sr/86Sr em RT e Cpx – 0,7031-0,7045 e δ18O +5-6.2‰), de baixa PT (14-15 kbar, 936-942 ºC), e têm evidências de metassomatismo modal e críptico (enriquecimento em ETR leves, Na, K, Ti, Sr, Hf e anfibólio modal). O metassomatismo críptico parece estar relacionado ao mesmo agente metassomatizante do Grupo 1, mas ocorre em menor intensidade. O metassomatismo modal, no entanto, tem outra origem, podendo ser derivado de fontes mantélicas profundas. A quebra do anfibólio metassomático durante a descompressão e ascensão dos xenólitos até a superfície formou bolsões de reação ao redor do anfibólio (Anf→Cpx+Ol+Sp+melts-basálticos & andesíticos). A suíte de xenólitos ultramáficos de Estancia Alvarez consiste de espinélio harzburgitos anidros mantélicos (Grupo 1a) e espinélio dunitos anidros crustais (Grupo 1b), ambos com veios de serpentina. Os xenólitos mantélicos do Grupo 1a são depletados (empobrecidos em ETR leves e HFSE), de profundidades variadas (P entre 11-18 kbar) e de baixa T (877-961 ºC). Estes xenólitos têm enriquecimento em ETR leves, B, Rb e K, que pode estar relacionado a percolação de fluidos ricos em H2O e LILE gerados pela desidratação de filossilicatos dos sedimentos da placa oceânica (EM 2), como evidenciado por veios de serpentina e altas razões 87Sr/86Sr (0,7046-0,7298), 87Rb/86Sr (0,07-5,63) e valores de δ18O (até +7,88‰).
Resumo:
Alta disponibilidade é uma das propriedades mais desejáveis em sistemas computacionais, principalmente em aplicações comerciais que, tipicamente, envolvem acesso a banco de dados e usam transações. Essas aplicações compreendem sistemas bancários e de comércio eletrônico, onde a indisponibilidade de um serviço pode representar substanciais perdas financeiras. Alta disponibilidade pode ser alcançada através de replicação. Se uma das réplicas não está operacional, outra possibilita que determinado serviço seja oferecido. No entanto, réplicas requerem protocolos que assegurem consistência de estado. Comunicação de grupo é uma abstração que tem sido aplicada com eficiência a sistemas distribuídos para implementar protocolos de replicação. Sua aplicação a sistemas práticos com transações e com banco de dados não é comum. Tipicamente, sistemas transacionais usam soluções ad hoc e sincronizam réplicas com protocolos centralizados, que são bloqueantes e, por isso, não asseguram alta disponibilidade. A tecnologia baseada em componentes Enterprise JavaBeans (EJB) é um exemplo de sistema prático que integra distribuição, transações e bancos de dados. Em uma aplicação EJB, o desenvolvedor codifica o serviço funcional que é dependente da aplicação, e os serviços não–funcionais são inseridos automaticamente. A especificação EJB descreve serviços não–funcionais de segurança, de transações e de persistência para bancos de dados, mas não descreve serviços que garantam alta disponibilidade. Neste trabalho, alta disponibilidade é oferecida como uma nova propriedade através da adição de serviços não–funcionais na tecnologia EJB usando abstrações de comunicação de grupo. Os serviços para alta disponibilidade são oferecidos através da arquitetura HA (highly-available architecture) que possui múltiplas camadas. Esses serviços incluem replicação, chaveamento de servidor, gerenciamento de membros do grupo e detecção de membros falhos do grupo. A arquitetura HA baseia-se nos serviços já descritos pela especificação EJB e preserva os serviços EJB existentes. O protocolo de replicação corresponde a uma subcamada, invisível para o usuário final. O serviço EJB é executado por membros em um grupo de réplicas, permitindo a existência de múltiplos bancos de dados idênticos. Conflitos de acesso aos múltiplos bancos de dados são tratados estabelecendo–se uma ordem total para aplicação das atualizações das transações. Esse grupo é modelado como um único componente e gerenciado por um sistema de comunicação de grupo. A combinação de conceitos de bancos de dados com comunicação de grupo demonstra uma interessante solução para aplicações com requisitos de alta disponibilidade, como as aplicações EJB. Os serviços adicionais da arquitetura HA foram implementados em protótipo. A validação através de um protótipo possibilita que experimentos sejam realizados dentro de um ambiente controlado, usando diferentes cargas de trabalho sintéticas. O protótipo combina dois sistemas de código aberto. Essa característica permitiu acesso à implementação e não somente à interface dos componentes dos sistemas em questão. Um dos sistemas implementa a especificação EJB e outro implementa o sistema de comunicação de grupos. Os resultados dos testes realizados com o protótipo mostraram a eficiência da solução proposta. A degradação de desempenho pelo uso de réplicas e da comunicação de grupo é mantida em valores adequados.
Resumo:
A adsorção em leito fixo de carvão ativado granular é uma das mais importantes alternativas para a remoção de compostos orgânicos voláteis em efluentes aquosos, em concentrações baixas. O objetivo deste trabalho é colocar em funcionamento uma unidade piloto de adsorção e desenvolver uma metodologia para avaliar o comportamento de adsorventes nesta planta como a usada no projeto de unidades de adsorção de leito fixo. Esta planta piloto possui uma coluna de 20 mm de diâmetro interno, encamisada. Ela é equipada com espectrofotômetro UV on-line, que permite a medida da concentração de componentes orgânicos voláteis na corrente de efluente. Também, possui módulos para a aquisição de dados de temperatura, vazão e pressão diferencial. Nessa planta, foram realizados experimentos, à temperatura ambiente, para aquisição de curvas de ruptura experimentais da adsorção de tolueno de uma corrente aquosa, em um leito fixo de carvão ativado. O leito era composto por um carvão ativado granular (8 x 12 mesh). Diferentes alturas de leito (5 e 10 cm) e vazões ( 0,8 e 1,6 L.h-1) foram testados, mantendo a concentração de tolueno na alimentação em aproximadamente 50 ppm. Concomitantemente, foram realizados testes para a caracterização do adsorvente, obtendo-se 15,4 % de conteúdo de umidade e 8,7 % de cinzas, massa específica bulk de 0,5 g.mL-1, massa específica real de 1,72 g.mL-1 e 681 m2.g-1 de área superficial A estimação da difusividade mássica e do coeficiente de transferência de massa referente à fase sólida foram obtidos através de dados de testes cinéticos, obtendo-se, respectivamente, os valores médios de 6,1 cm2.h-1 e 0,0162 cm.h-1. As alturas das zonas de transferência de massa obtidas para a vazão de 0,8 L.h-1 aumentaram com o aumento da altura do leito, indicando comportamento de padrões proporcionais. Além disso, analisaram-se dados preliminares de pressão diferencial no leito, que indicam que ela aumentou enquanto havia adsorção. A metodologia desenvolvida poderá ser aplicada para estudar a adsorção com outros pares adsorvente/adsorvato.