999 resultados para sistema de controle interno


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho detalha a estruturação de um sistema de confirmação metrológica segundo critérios estabelecidos nas normas ISO da série 9000 / 1994. Após a introdução ao trabalho, é apresentada a revisão bibliográfica efetuada, onde se buscou esclarecer os conceitos fundamentais sobre metrologia e os critérios definidos nas normas ISO da série 9000.Na seqüência apresenta-se o estudo de caso efetuado na empresa Andreas Stihl Moto-Serras Ltda sobre a implementação do sistema de confirmação metrológica, a metodologia adotada, as dificuldades e ganhos obtidos. Uma proposta de estruturação destes sistemas também é descrita a partir a avaliação dos dados apresentados na revisão bibliográfica e da experiência obtida durante a implantação do sistema de confirmação metrológica na Andreas stihl Moto-Serras Ltda. Para finalizar, encerra-se o trabalho com as conclusões obtidas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O crescimento desordenado das cidades tem gerado muitos problemas de infraestrutura e impactos ao meio ambiente. No que se refere aos recursos hídricos, problemas de abastecimento, poluição e enchentes são cada vez mais constantes. À medida que a cidade se urbaniza e se impermeabiliza, vários são os impactos que vão atuar no sentido de provocar ou agravar as enchentes urbanas. No caso da drenagem urbana é preciso repensar o que vem sendo feito, buscando soluções alternativas às atualmente apresentadas, uma vez que estas não têm se mostrado eficientes. Uma possível solução para estes problemas é a aplicação de medidas de controle do escoamento na fonte, dentre elas o microrreservatório de detenção. Baseando-se na busca de soluções para os problemas citados, este trabalho tem o objetivo geral de verificar experimentalmente o funcionamento de microrreservatórios de detenção no controle da geração do escoamento superficial. Para isso foi construído um módulo experimental nas dependências do IPH, composto por um microrreservatório de 1m3, monitorado através de linígrafos que registram as vazões de entrada e saída, recebendo contribuição de uma área de 337,5m2. O período de monitoramento iniciou em agosto de 2000 e se estendeu até janeiro de 2001. De posse dos dados coletados foi possível fazer uma análise da eficiência deste dispositivo no controle do escoamento superficial, bem como estudar a real necessidade de manutenção da estrutura. Também foi feita uma análise do impacto da presença de sedimentos (folhagens) na água de escoamento nas estruturas de descarga. O trabalho também deixa uma contribuição no que se refere a critérios de projeto e dimensionamento de estruturas desta natureza. Finalmente foi possível concluir que o sistema é eficiente no controle da vazão de pico, porém o reservatório não permitiu um aumento no tempo de resposta da bacia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A busca da melhoria de produtos siderúrgicos leva uma atenção especial para a área da aciaria. Neste trabalho foram estudados os fatores que dificultam o controle da temperatura do aço líquido dentro das faixas objetivadas para o lingotamento contínuo. Esse descontrole tende a afetar negativamente a qualidade do aço. A exigência crescente é pelo controle em faixas cada vez mais restritas, necessitando para tal, um controle rígido da temperatura nas etapas do refino secundário que antecedem o lingotamento. Este trabalho buscou identificar as causas do descontrole de temperaturas mediante a observação “in loco” do processo da aciaria e propor soluções tecnológicas específicas, visto que cada aciaria tem as suas peculiaridades. Para tanto, desenvolveu-se um método para garantir a qualidade das informações do processo e a utilização dessas na previsão das perdas térmicas do aço líquido durante a etapa de desgaseificação e lingotamento contínuo. Um modelo matemático das panelas, desenvolvido e calibrado com dados obtidos na planta, é apresentado como uma solução para a estabilização das perdas térmicas que ocorrem para os refratários das panelas. Por fim, um sistema de aquecimento das válvulas submersas do distribuidor do lingotamento contínuo é proposto, ensaiado e aprovado com ótimos resultados. Todas as soluções encontradas estão sendo diretamente implementadas na aciaria.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A indústria da construção civil é caracterizada por um elevado nível de desperdícios, baixa inovação tecnológica e gerencial, e baixa qualidade de seus produtos. Este fato traz à construção civil uma imagem de setor atrasado e, muitas vezes, causa a desmotivação de seus profissionais. Neste contexto, a aplicação de novos conceitos e princípios de gestão da produção, muitos deles oriundos da indústria automobilística, pode contribuir para a modernização da construção civil. Neste sentido, o processo de planejamento e controle da produção (PCP) tem um papel importante na aplicação dos novos conceitos de gestão da produção. O presente trabalho tem como objetivo geral propor diretrizes para a manutenção e o aperfeiçoamento do PCP em empresas construtoras, utilizando conceitos e princípios gerais de gestão da produção. A pesquisa foi realizada através de um estudo de caso em uma empresa construtora, sendo dividida em três etapas. Inicialmente, foi realizada uma análise no sistema de planejamento e controle da produção existente. Na segunda etapa, foram entrevistados diretores, gerentes de produção, representantes de clientes e fornecedores da empresa, e realizadas visitas e coleta de dados em obras. Além disso, realizou-se um estudo de caso mais aprofundado em uma das obras da empresa. Após, durante a terceira fase desta pesquisa, foram analisados os dados obtidos e propostas as diretrizes para a manutenção e o aperfeiçoamento do processo de PCP Entre as principais conclusões deste estudo, podem ser destacados os fatores que contribuíram para o sucesso da implementação do sistema de PCP: a existência de um sistema de gestão da qualidade baseado na norma ISO-9001, o papel desempenhado pelo coordenador do planejamento e as reuniões de aprendizagem semanal envolvendo todos os gerentes de produção. Observou-se também que o atendimento dos requisitos do cliente aumentou com a implementação do sistema de PCP.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objeto de estudo desta dissertação é a aplicação de ferramentas para o controle da qualidade e melhoria do processo de produção de uma etapa construtiva de edificações residenciais. As ferramentas aplicadas são: i) controle estatístico do processo – CEP, e; ii) dispositivos Poka-Yoke. A etapa construtiva mencionada é a elevação da estrutura de concreto armado. O estudo foi motivado pela necessidade de melhorar o sistema de manufatura de uma empresa construtora de Porto Alegre – RS, com vistas a reduzir o tempo de construção de suas edificações (lead-time de produção). Para tanto, a partir de conceitos teóricos do Sistema Toyota de Produção – STP, analisou-se o processo produtivo atual para a referida etapa construtiva, identificaram-se perdas existentes no processo e foram propostas melhorias. As ferramentas de qualidade CEP e Poka-Yoke enquadram-se dentro dessa perspectiva de melhoria. Através da sua aplicação, pretende-se eliminar algumas das perdas existentes no processo de construção melhorando sua produtividade e a qualidade do produto final. A aplicação do CEP tem como objetivo avaliar a capacidade do fornecedor de concreto de atender às exigências dos consumidores, de acordo com o que é estipulado pelas normas brasileiras de fabricação e aceitação de concreto, sem impor-lhes ônus desnecessário. A avaliação é efetuada através do monitoramento da variabilidade da propriedade que melhor caracteriza a qualidade do concreto, qual seja, a sua resistência à compressão axial. Os dispositivos Poka-Yoke, por sua vez, são aplicados com funções de controle da qualidade e prevenção de defeitos e, como ferramentas auxiliares na melhoria de atividades produtivas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com a globalização do mercado e o alto nível de competitividade no setor educacional, as organizações, para manterem-se, devem ser ágeis e competentes. Neste contexto, a gestão eficiente dos recursos e a obtenção de informações precisas que apóiem a tomada de decisão dependerão, em grande parte, de um sistema de informações de custos. Este sistema deverá ter como base um método de custeio que forneça informações, a fim de atender as distintas necessidades dos gestores dos diversos níveis hierárquico e das diversas áreas de atuação. O trabalho consiste no estudo de uma metodologia de custeio aplicável a uma Instituição de Ensino Superior – IES privada, a qual atenda as três perspectivas que são fornecer informações para embasar a composição dos preços, para apoiar o processo decisório e para o planejamento e controle de gastos. Para tanto, partiu-se da pesquisa bibliográfica no levantamento do estado da arte relacionada ao tema. Com o estudo de caso buscou-se a identificação das necessidades de informações de custos, demandadas pelos gestores da IES, por meio de pesquisa qualitativa. A partir dessa identificação, as necessidades foram cruzadas com os métodos de custeio existentes, o que permitiu a identificação do método mais adequado a IES. Nesta etapa foi possível o cruzamento entre a teoria e a prática, onde foram comparados o método proposto em relação ao atual método adotado pela IES o que possibilitou a identificação das deficiências do modelo atual e suas causas. A partir disto, propõe-se uma sistemática mais adequada para apoiar a tomada de decisão, com o intuito de melhoria do desempenho da instituição. Os resultados obtidos demonstram o cumprimento do objetivo onde, considerando as necessidades de informações de custos dos gestores, o método de custeio por atividades é o mais adequado para o suporte a gestão da IES.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho, é estudado o controle da transmissão do som numa placa retangular e fina. Para tanto, é encontrada a resposta dinâmica da placa, excitada por forças harmônicas pontuais e piezomomentos, obtida usando uma base não-clássica e uma análise modal. A radiação sonora emitida pela vibração da placa é encontrada. A potência sonora radiada pode ser calculada aplicando controle ativo diretamente na estrutura, na forma de uma entrada vibratória, uma vez conhecida a resposta na superfície da placa, obtendo-se uma signicativa redução analitica. Os piezocerâmicos, modelados como quatro momentos pontuais, são unidos a superfície da placa como atuadores. A potência sonora transmitida antes e depois do controle é comparada, usando diferentes número de atuadores. Uma estratégia clássica de controle linear quadrático (LQR) e empregada no contexto de um procedimento de otimização da posição dos atuadores do sistema.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho tem como objetivo identificar, analisar e selecionar as variáveis prioritárias para o controle de um Sistema Digital de Controle Distribuído (SDCD) de transporte pneumático de esferas de uma Petroquímica. O método adotado no estudo foi o Desenho Comentado de Guimarães (1993), onde o usuário é filmado enquanto desenha e verbaliza sobre como se dá o funcionamento e o controle do sistema em estudo. O método permitiu conhecer as necessidades e prioridades dos sujeitos envolvidos na pesquisa e identificou diferenças entre as opiniões, que impactam na concepção da interface: basicamente, os operadores e engenheiros entendem o funcionamento do sistema de forma semelhante mas divergem na forma de conceber uma tela para o controle do mesmo sistema. Os sujeitos engenheiros foram mais detalhistas e preocupados com a segurança do sistema, ao verbalizarem mais variáveis nos dois modos de operação (funcionamento e controle) se comparados com os operadores. Os operadores mostraram preferência por uma interface que represente a área. Pode-se concluir que os operadores têm uma visão local (operacional) do sistema supervisório e os engenheiros têm uma visão global (gerencial) do mesmo sistema. Uma proposta de interface que concilie os conhecimentos teórico e tácito dos dois sujeitos parece ser a melhor alternativa de interface a ser testada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho objetiva identificar a influência das privatizações na evolução do sistema de telefonia fixa e móvel celular brasileiro. O estudo foi desenvolvido avaliando-se um período de três anos pré-privatização versus pós-privatização, desconsiderando-se o ano em que ocorreu a troca do controle acionário das companhias. Para a execução do estudo, utilizou-se duas amostras distintas, uma para cada período, que representavam parcelas semelhantes da receita total do mercado para os respectivos períodos antes e pós-privatização. De modo a atingir o objetivo central do trabalho, desenvolveu-se o tema em quatro aspectos: desempenho das empresas de telefonia, qualidade e universalização dos serviços de telefonia, geração de divisas para o governo pelas empresas de telefonia e variação nos preços dos serviços de telefonia fixa. Para operacionalizar a análise, utilizou-se um conjunto de indicadores para cada um dos aspectos abordados e aplicou-se, primeiramente, o teste não-paramétrico de Kolmogorov- Smirnov. Em seguida, constatou-se que a forma de distribuição dos dados, antes desconhecida, atendia aos pressupostos dos testes paramétricos e aplicou-se, também, aos conjuntos de indicadores o teste t de Student de modo a perceber diferenças mais sutis principalmente nos casos em que o primeiro teste não detectou diferenças significativas. A avaliação geral dos resultados tende a rejeitar a hipótese nula de que a privatização das empresas de telefonia não reverteu em ganhos para o Estado e a população em geral. Esta conclusão baseia-se na análise dos quatro conjuntos de indicadores que apresentaram as seguintes evidências: em geral, a maioria dos indicadores de desempenho das empresas sinalizam uma queda em sua performance entre antes e depois das privatizações; a análise dos indicadores de qualidade e universalização dos serviços apresentaram sensível melhora, evidenciando uma evolução em termos de qualidade e de popularização dos serviços de telefonia; os indicadores de geração de divisas para o Estado apresentaram um crescimento no montante absoluto arrecadado, mas sem um aumento significativo na proporção da carga tributária incidente; a análise da evolução dos preços dos serviços de telefonia fixa revela que, considerando-se os efeitos inflacionários, houve uma redução destes preços no período pós-privatização comparando-se com o período pré-privatização.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta Tese apresenta o SAM (Sistema Adaptativo para Multimídia), que consiste numa ferramenta de transmissão e recepção de sinais multimídia através de redes de computadores. A ferramenta pode ser utilizada para transmissões multimídia gravadas (vídeo sob demanda) ou ao vivo, como aulas a distância síncronas, shows e canais de TV. Seu maior benefício é aumentar o desempenho e a acessibilidade da transmissão, utilizando para isso um sinal codificado em camadas, onde cada camada é transmitida como um grupo multicast separado. O receptor, utilizando a ferramenta, adapta-se de acordo com a sua capacidade de rede e máquina no momento. Assim, por exemplo, um receptor com acesso via modem e outro via rede local podem assistir à transmissão na melhor qualidade possível para os mesmos. O principal foco da Tese é no algoritmo de controle de congestionamento do SAM, que foi denominado ALM (Adaptive Layered Multicast). O algoritmo ALM tem como objetivo inferir o nível de congestionamento existente na rede, determinando a quantidade de camadas que o receptor pode suportar, de forma que a quantidade de banda recebida gere um tráfego na rede que seja eqüitativo com outros tráfegos ALM concorrentes, ou outros tráfegos TCP concorrentes. Como se trata de transmissões multimídia, é desejável que a recepção do sinal seja estável, ou seja, sem muitas variações de qualidade, entretanto, o tráfego TCP concorrente é muito agressivo, dificultando a criação de um algoritmo estável. Dessa forma, desenvolveu-se dois algoritmos que formam o núcleo desta Tese: o ALMP (voltado para redes privativas), e o ALMTF (destinado a concorrer com tráfego TCP). Os elementos internos da rede, tais como os roteadores, não necessitam quaisquer modificações, e o protocolo funciona sobre a Internet atual. Para validar o método, se utilizou o software NS2 (Network Simulator), com modificações no código onde requerido. Além disso, efetuou-se uma implementação inicial para comparar os resultados das simulações com os da implementação real. Em http://www.inf.unisinos.br/~roesler/tese e também no CD anexo a esta Tese, cuja descrição encontra-se no Anexo B, podem ser encontrados todos os programas de apoio desenvolvidos para esta Tese, bem como a maior parte da bibliografia utilizada, o resultado das simulações, o código dos algoritmos no simulador e o código do algoritmo na implementação real.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Existe uma certa gama de aplicações que não pode ser implementada através do modelo convencional de transações, são aplicações que tem um tempo de duração mais longo do que aquelas convencionalmente modeladas. Em uma transação Atômica, ou todo o trabalho é realizado por completo ou nada é feito, mas, quando se trata de atividades de longa duração, isto pode significar a perda de trabalho executado durante horas ou, até mesmo, dias. Pelo mesmo motivo, transações longas não devem executar isoladamente, porque isto impede que outras transações tenham acesso aos dados sendo manipulados. No âmbito do projeto TRANSCOOP, vêm sendo realizados vários estudos sobre modelos de transações não convencionais. Dentre eles, encontra-se o Modelo de Contratos, que prevê um mecanismo de controle seguro para gerenciar aplicações distribuídas que apresentam atividades de longa duração. Para experimentar e avaliar as idéias inseridas neste modelo está sendo desenvolvido um protótipo. Este sistema é provido de uma interface gráfica interativa, baseada em Manipulação Direta, e suporta a definição de transações longas de banco de dados de acordo com o Modelo de Contratos. O objetivo deste trabalho é descrever a arquitetura de um protótipo para o Modelo de Contratos, definindo a função de cada um de seus módulos, mais especificamente o módulo Interface, e a comunicação entre eles. Para a definição de uma interface adequada foram considerados aspectos de outras áreas da ciência, pois a área de interfaces homemmáquina é multidisciplinar.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Devido à necessidade de permanecer competitiva e rentável, a indústriada construção civil tem mudado a forma de conduzir seus negócios e adaptado filosofias gerenciais para a suarealidade, como é o casodo Just-in-Time (JIT)e dos Sistemas da Oualidade (por exemplo: TOM e TOC). Dentro deste contexto, encontra-se a aplicação da Teoria das Restrições (TR) no processo de Planejamento e Controle da Produção (PCP) de obras de edificação. A Teoria das Restrições é uma filosofia gerencial fundamentada no conceito de restrição e em como gerenciar as restrições identificadas, fornecendo: (a) um procedimento para os responsáveis pela produção identificarem onde e como concentrar esforços e (b) um processo de melhoria contínua para o sistema produtivo como um todo, buscando sempre o ótimo globalantes do local. O desconhecimento dos possíveis benefícios e dificuldades decorrentes da adaptação e aplicação desta teoria na indústria da construção civil fez com que a aplicação da Teoria das Restrições fosse simulada, usando a técnica STROBOSCOPE (Stateand Resource Based Simulation of Construction Processes), em um empreendimento para analisar os impactos que prazos e custos podem sofrer durante as aplicações em casos reais. Estas simulações mostraram que a Teoria das Restrições e suas técnicas e ferramentas são aplicáveis ao processo de PCP, reduzindo os atrasos e os custos por atraso que um empreendimento pode sofrer.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta a proposta e a implementação de um sistema de gerência de energia para redes locais de computadores (Local Area Networks ou LANs). Desde sua introdução, no início dos anos 90, os mecanismos de gerência de energia para computadores têm contribuído de maneira significativa para a redução do consumo nos períodos de inatividade, mas podem ter seu efeito minimizado por uma série de fatores, dentre os quais destaca-se a conexão do equipamento a uma rede. Em linhas gerais, o objetivo do sistema proposto é, justamente, facilitar a gerência de energia em ambientes de rede. O funcionamento do sistema é baseado na aplicação de políticas de consumo definidas pelo administrador da rede. As políticas podem ser aplicadas em duas situações distintas: em horários pré-determinados (p. ex. depois do horário comercial), quando podem ajudar a reduzir o desperdício de energia, ou em resposta a alterações no fornecimento de energia, caso a rede seja protegida por no-breaks, quando a redução no consumo resulta em maior tempo de autonomia da fonte reserva (banco de baterias). As políticas são configuradas através de um mecanismo flexível, que permite não apenas desligar os equipamentos, mas colocá-los em estados intermediários de consumo e executar outros tipos de ações. A arquitetura do sistema é baseada no modelo SNMP (Simple Network Management Protocol) de gerência de redes. É composta, basicamente, de agentes, elementos de software que residem nos equipamentos da rede e detêm o conhecimento específico sobre suas características de consumo de eletricidade, e de um gerente, elemento central que contém a configuração das políticas de consumo e que é responsável pelo monitoramento e controle dos agentes. Gerente e agentes comunicam-se através do protocolo SNMP, trocando informações segundo uma base de informações (MIB) projetada especificamente para a gerência de energia. A ênfase da parte prática do trabalho está no gerente, que foi inteiramente implementado através da linguagem Java, utilizando bibliotecas disponíveis gratuitamente. Adicionalmente, foi implementado um agente-protótipo para a plataforma Windows, o que permitiu observar o sistema completo em execução. Os testes permitiram validar a praticabilidade da arquitetura e estimar o ganho potencial proporcionado pela utilização do sistema. São apresentadas medições que demonstram um aumento de até 6 vezes na autonomia do banco de baterias do no-break para uma configuração de rede pequena, utilizando o sistema para desligar automaticamente 90% dos computadores durante um corte no fornecimento externo. A economia decorrente da redução de consumo em horários de inatividade foi estimada em até R$0,63 por computador no período de um ano (tomando por base a tarifa média praticada no Brasil entre janeiro e maio de 2002).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta o estudo da obtenção de alumina (óxido de alumínio – Al2O3) pelo método sol-gel coloidal e a caracterização da morfologia dos produtos obtidos, associando-a a parâmetros processuais como pH, tipo de solvente empregado e condições de secagem. Utilizou-se como precursor cloreto de alumínio hexahidratado que, após reações de pectização, levou à formação de um gel viscoso com características amorfas. Este gel, após calcinação, deu origem a diferentes fases de alumina e, apresentou diferentes morfologias: pós, fibras ou corpos cerâmicos porosos, que variaram de acordo com os parâmetros processuais adotados. A fim de se avaliar o comportamento do gel frente às diferentes condições de pH, variou-se o pH do sistema utilizando-se ácido acético glacial para ajustes de pH na faixa ácida e, para o ajuste de pH na faixa básica, uma solução aquosa 30% de amônio. Ambos foram escolhidos para o ajuste de pH por não interferirem no processo de síntese da alumina e, por serem facilmente eliminados com tratamentos térmicos. Na etapa de pectização do gel, foram adicionados diferentes solventes, água, álcool ou uma mistura 1:1 de ambos, a fim de se avaliar a sua influência sob o tempo de secagem e distribuição de tamanho de partículas. O gel foi então seco de acordo com as seguintes metodologias de secagem: secagem do gel em estufa a 110°C por 12 horas, secagem do gel em ambiente aberto, com temperatura variando entre 25 e 30°C, pré-evaporação do solvente sob aquecimento (70 a 80°C) e agitação. Os produtos obtidos seguindo esta metodologia foram caracterizados quanto à distribuição granulométrica, análises térmicas (TGA e DTA), difração de raios X, área superficial, densidade real e morfologia (usando microscopia ótica e de varredura).