43 resultados para Estimação robusta


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A preocupação com os ciclos econômicos induzidos por eleições não é meramente uma curiosidade científica. Já se pode dizer que há consenso na literatura que um comportamento ciclicamente endógeno da política econômica contribui para a volatilidade nos países latinoamericanos, de modo que isto tem efeitos significativamente prejudiciais sobre o desenvolvimento destes países. Em particular o ciclo na política fiscal, não estando associado à tentativa de compensar o ciclo econômico, mas sincronizado com o calendário eleitoral leva a uma alocação intertemporal ineficiente dos recursos. Pela importância do ciclo e pela investigação empírica da teoria no país, ao longo deste trabalho, buscou-se avançar na agenda de pesquisa sobre ciclo político no Brasil. Aqui se procurou cobrir a área referente aos efeitos de políticas oportunistas de caráter eleitoral sobre a execução orçamentária nos estados brasileiros. Investigou-se a existência de ciclos eleitorais nas variáveis orçamentárias, visando fornecer uma idéia minimamente clara do comportamento destas ao longo dos mandatos e identificar como algumas características políticoeleitorais dos estados poderiam afetar as receitas e despesas públicas. Para tanto se utilizou um modelo de painel dinâmico, que permitiu que se analisasse uma amostra na sua dimensão temporal capaz de abranger o período 1983-2000. Os resultados da estimação acabaram confirmando de maneira contundente as suposições teóricas, e mesmo do senso comum, que se tinha em relação ao ciclo político nas variáveis orçamentárias. Para a maioria absoluta das variáveis analisadas não se pode negar a existência de um efeito do período eleitoral sobre o seu comportamento, sendo que para aquelas associadas à despesa pública e ao resultado orçamentário, o comportamento no ano eleitoral em particular, confirmou o sugerido pela teoria e pelos resultados de outros trabalhos aplicados a países em desenvolvimento, desenvolvidos e mesmo para Brasil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação, tem como propósito, estimar a elasticidade intertemporal para a oferta de trabalho masculina no Brasil. Também, verifica-se a presença de fatos estilizados relacionados ao ciclo de vida do indivíduo. Este trabalho fundamenta-se na teoria que tem como referência Heckman (1974 e 1976), e a idéia principal é supor que o indivíduo procura aumentar sua oferta de trabalho em períodos onde o salário real é alto. A partir de um modelo com dados de painel, formulado por MaCurdy (1981), procedemos a estimação. Para a verificação dos fatos estilizados foram feitos gráficos. No caso da estimação, houve um tratamento explícito para as questões da forma funcional, heterogeneidade não observada e da endogeneidade da variável salário. Os gráficos confirmam, em parte, a presença dos fatos estilizados, as variáveis salário por hora e rendimentos do trabalho têm uma relação côncava com a variável idade do indivíduo, no mercado de trabalho brasileiro. Contudo, o modelo econométrico estimado não confirma a efetividade da hipótese de elasticidade intertemporal, uma vez que, as estimativas geradas foram baixas e negativas, embora significativas .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Imagens georreferenciadas LANDSAT 5 TM da região da Mina Leão II, situada na Depressão Central do Estado do Rio Grande do Sul, foram processadas e classificadas digitalmente com objetivo de gerar o mapa de uso e cobertura do solo. Destas imagens, a drenagem foi extraída na forma vetorial, com o objetivo de determinar a faixa de proteção em torno dela. Dados topográficos plani-altimétricos analógicos foram tratados gerando o modelo digital do terreno e mapas de declividades. Foram definidos critérios para selecionar sítios adequados à colocação de rejeitos de carvão. Imagens de uso e cobertura do solo, declividades, rede de drenagem, litologias, estruturas geológicas, e distância a partir da boca da mina foram transformadas em sete fatores. Três fatores são absolutos ou restrições: zona de proteção da drenagem, zona de restrição em torno dos falhamentos e declividades superiores a 8%. Os restantes, são fatores relativos: uso e cobertura do solo reclassificado, declividade inferior a 8%, substrato litológico e distância a partir da mina. Aos quatro fatores relativos foi atribuída uma ponderação pareada. Através das ferramentas computacionais de apoio à decisão, em um Sistema de Informação Geográfica, os oito diferentes fatores foram cruzados, resultando um mapa temático que localiza e classifica sítios para a locação de rejeitos de carvão. As classes identificadas foram: área de restrição, péssima, regular, boa e ótima. O mapa de uso e cobertura do solo foi reclassificado em função de ser elaborada uma imagem de superfície de atrito, a partir do local da boca da mina, com a finalidade de se projetar vias de menor custo, desde a mina até a BR290 e a um porto situado no rio Jacuí. Dados sobre a espessura da camada de carvão inferior, "I", de uma campanha de sondagem de 182 furos, foram tratados por metodologia de geoestatística. Estudos de estatística descritiva, análise de continuidade espacial e estimação foram realizados, culminando com a cubagem da camada na área de estudo. Foi escolhido o processo de interpolação através da krigagem ordinária. A tonelagem da camada de carvão "I" foi estimada na ordem de 274.917.234 a 288.046.829 t. com nível de confiança de 95%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cada vez mais muitos processos industriais convencionais de separação, tais como destilação, centrifugação e extração com solventes, entre outros, estão sendo substituídos pelos processos de separação por membranas em virtude desses apresentarem vantagens em relação aos processos convencionais, além de serem considerados uma tecnologia limpa. Entre estas vantagens pode-se citar a economia de energia, pois não envolvem mudança de fase; a possibilidade de processamento de substâncias termolábeis, pois podem operar à temperatura ambiente; a maior seletividade; a facilidade de scale – up, pois são modulares e não extensivos em mão de obra, entre outros. Uma característica limitante destes processos é a existência de uma camada de elevada concentração de partículas ou moléculas que se forma próxima à superfície da membrana e que ocasiona uma redução no fluxo permeado, podendo modificar as características de retenção da membrana. Este fenômeno é conhecido como polarização por concentração. O entendimento dos mecanismos de polarização é considerado de grande importância neste campo e o estudo e validação de modelos matemáticos preditivos torna-se necessário para se obter sucesso na aplicação dos processos com membranas no meio industrial O objetivo geral deste trabalho consiste na análise teórico-experimental do processo de microfiltração tangencial com suspensão aquosa de partículas de sílica. O objetivo específico é a utilização de dados experimentais para a estimação de um parâmetro do modelo matemático que descreve o perfil de concentração na superfície da membrana ( membrana). A configuração tangencial implica que a alimentação, contendo as partículas a serem removidas ou concentradas, flui paralelamente à superfície da membrana reduzindo, assim, o fenômeno de polarização por concentração. Os experimentos foram efetuados em uma unidade de bancada de microfiltração tangencial, também conhecido como fluxo cruzado, em um módulo para membrana plana com canal de escoamento retangular sob condições de escoamento laminar. Os seguintes parâmetros foram variados durante os experimentos: pressão transmembrana, velocidade tangencial e concentração de partículas de sílica Os dados experimentais foram utilizados em uma modelagem matemática, baseada nas equações fundamentais da mecânica dos fluidos e da transferência de massa, que considera as propriedades físicas da suspensão, viscosidade dinâmica e difusividade mássica, variáveis com a concentração de sílica para se estimar a concentração máxima de sílica junto à superfície da membrana. Esta modelagem engloba os parâmetros operacionais, bem como as características da membrana nesta única variável. Com a finalidade de se verificar como a concentração máxima sobre a membrana é afetada pelas condições operacionais e, conseqüentemente, como esta afeta o fluxo permeado, a concentração máxima sobre a superfície da membrana é apresentada em função das condições operacionais variadas durante os experimentos de microfiltração. Finalmente, após a estimação desta variável, pôde-se concluir que ela é influenciada pelas condições operacionais típicas do processo de microfiltração tangencial, tais como velocidade tangencial de escoamento, pressão através da membrana e concentração da alimentação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Point pattern matching in Euclidean Spaces is one of the fundamental problems in Pattern Recognition, having applications ranging from Computer Vision to Computational Chemistry. Whenever two complex patterns are encoded by two sets of points identifying their key features, their comparison can be seen as a point pattern matching problem. This work proposes a single approach to both exact and inexact point set matching in Euclidean Spaces of arbitrary dimension. In the case of exact matching, it is assured to find an optimal solution. For inexact matching (when noise is involved), experimental results confirm the validity of the approach. We start by regarding point pattern matching as a weighted graph matching problem. We then formulate the weighted graph matching problem as one of Bayesian inference in a probabilistic graphical model. By exploiting the existence of fundamental constraints in patterns embedded in Euclidean Spaces, we prove that for exact point set matching a simple graphical model is equivalent to the full model. It is possible to show that exact probabilistic inference in this simple model has polynomial time complexity with respect to the number of elements in the patterns to be matched. This gives rise to a technique that for exact matching provably finds a global optimum in polynomial time for any dimensionality of the underlying Euclidean Space. Computational experiments comparing this technique with well-known probabilistic relaxation labeling show significant performance improvement for inexact matching. The proposed approach is significantly more robust under augmentation of the sizes of the involved patterns. In the absence of noise, the results are always perfect.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os modelos computacionais SATURN e DRACULA avaliam o tráfego através de diferentes fundamentações teóricas. O SATURN é um modelo macroscópico de alocação de tráfego que incorpora uma estrutura mesoscópica de simulação de interseções. O DRACULA é um modelo microscópico de simulação de tráfego: reproduz a progressão dos veículos através da rede, representando cada entidade individualmente. Ambos os modelos foram desenvolvidos no ITS – Institute for Transport Studies – da Universidade de Leeds, e permitem a troca de informações, podendo ser aplicados em conjunto. O presente trabalho de pesquisa compara as estruturas de simulação do SATURN e do DRACULA. O estudo confronta as fundamentações teóricas dos modelos, relacionando-as com a aplicação prática. São avaliados os dados de entrada, os parâmetros de saída, e os processos particulares de estimação de parâmetros de cada modelo. Através de análises de sensibilidade, avalia-se o impacto da variação de dados de entrada nos parâmetros de saída. Em um estudo de caso, avalia-se a aplicação conjunta dos modelos, ao replicarem o mesmo cenário. O estudo identifica divergências e afinidades na conceituação e no tratamento de parâmetros de entrada e saída tais como dados de descrição de rede e demanda, atrasos, velocidades, tempos de viagem, e capacidade viária. Por fim, o estudo propõe recomendações sobre a implementação prática dos modelos, especialmente quando utilizados em conjunto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelagem matemática é uma ferramenta que apresenta diversas vantagens no estudo de processos industriais como, por exemplo, entender e desenvolver tecnologias, avaliar o impacto de variáveis nas propriedades do produto, estudos de redução de custos de produção e de impacto ambiental. O objetivo deste trabalho é desenvolver e validar um modelo matemático para um reator de bancada de polimerização em lama de eteno, enfatizando o desenvolvimento do modelo cinético. O modelo do reator contemplou: 1) modelo de troca térmica; 2) modelo termodinâmico; 3) modelo de transferência de massa gás-líquido e 4)modelo cinético. Para uma melhor predição do modelo foi realizada a estimação de alguns dos seus parâmetros conforme uma metodologia que compreendeu a análise de sensibilidade paramétrica e das variáveis de entrada do modelo e os efeitos de um planejamento de experimentos para a geração dos dados experimentais. A metodologia utilizada mostrou-se eficiente na avaliação do modelo quanto as suas características de predição, ajudando na identificação de possíveis falhas e evidenciando as vantagens de uma adequada metodologia experimental. Uma etapa determinante para o processo de estimação dos parâmetros é a escolha dos dados de saída a utilizar para a estimativa de determinado parâmetro. A modelagem do reator experimental mostrou-se satisfatória em todos os aspectos do processo (troca térmica, cinética, termodinâmica e transferência de massa), pois o modelo prediz com precisão as características encontradas nos experimentos. Assim, este pode ser utilizado para avaliar o mecanismo reacional envolvido de forma a aproximar-se das reais características do processo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O sistema bancário consiste em um setor da economia muito regulado, e uma das medidas impostas pelas autoridades supervisoras como forma de controle é exigência mínima de capital. Uma das formas encontradas para oferecer maior proteção aos clientes e ao mercado financeiro como um todo é a imposição aos bancos em manterem níveis mínimos de capital vinculados aos riscos a que estão expostos, medida que serve como recurso para desestimular a exposição a riscos não usuais. O capital bancário, portanto, constitui-se em instrumento de proteção contra o risco de quebra de uma instituição, e, desde a adesão ao Acordo Internacional da Basiléia, com vigência a partir de 1995, os bancos brasileiros têm de manter patrimônio líquido compatível com o grau de risco da estrutura de seus ativos. O presente trabalho explora a existência e o grau de relação entre exigência mínima de capital ponderado pela exposição de risco dos ativos e a rentabilidade dos bancos brasileiros, a fim de contribuir para uma análise da situação atual das instituições em relação às normas vigentes sobre requerimento de capital. Trata-se de pesquisa empírica, a qual procura levantar indicações exploratórias, evidenciadas por graus de correlações, mensurados através de estimação com dados em painel. A literatura internacional que versa sobre os impactos da existência de regulação de capital nos bancos demonstra-se divergente e, em alguns casos, não–conclusiva. Os resultados encontrados neste trabalho, com base em amostra composta por bancos brasileiros, não evidenciam relações significativas entre indicador de rentabilidade e indicador de capital ponderado pelos riscos, conhecido no Brasil como Índice de Basiléia. Algumas considerações são sugeridas para justificarem os resultados alcançados, tais como a preferência das instituições por aplicações em ativos de menor risco, como títulos públicos, a arbitragem de capital, proporcionada, principalmente, pelo grau de risco imposto às operações ativas, e a facilidade de enquadrarem-se aos limites mínimos de capital adotados no Brasil, evidenciada pelas altas margens de folga observadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta tese estudamos os efeitos de diluição simétrica gradual das conexões entre neurônios e de ruído sináptico sobre a habilidade de categorização de padrões no modelo de Hopfield de redes neurais, mediante a teoria de campo médio com simetria de réplicas e simulações numéricas. Utilizamos generalizações da regra de aprendizagem de Hebb, para uma estrutura hierárquica de padrões correlacionados em dois níveis, representando os ancestrais (conceitos) e descendentes (exemplos dos conceitos). A categorização consiste no reconhecimento dos conceitos por uma rede treinada unicamente com exemplos dos conceitos. Para a rede completamente conexa, obtivemos os diagramas de fases e as curvas de categorização para vários níveis de ruído sináptico. Observamos dois comportamentos distintos dependendo do parâmetro de armazenamento. A habilidade de categorização é favorecida pelo ruído sináptico para um número finito de conceitos, enquanto que para um número macroscópico de conceitos este favorecimento não é observado. Entretanto a performance da rede permanece robusta contra o ruído sináptico. No problema de diluição simétrica consideramos apenas um número macroscópico de conceitos, cada um com um número finito de exemplos. Os diagramas de fases obtidos exibem fases de categorização, de vidro de spin e paramagnética, bem como a dependência dos parâmetros de ordem com o número de exemplos, a correlação entre exemplos e conceitos, os ruídos sináptico e estocástico, e a conectividade. A diluição favorece consideravelmente a categorização, particularmente no limite de diluição extrema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A adsorção em leito fixo de carvão ativado granular é uma das mais importantes alternativas para a remoção de compostos orgânicos voláteis em efluentes aquosos, em concentrações baixas. O objetivo deste trabalho é colocar em funcionamento uma unidade piloto de adsorção e desenvolver uma metodologia para avaliar o comportamento de adsorventes nesta planta como a usada no projeto de unidades de adsorção de leito fixo. Esta planta piloto possui uma coluna de 20 mm de diâmetro interno, encamisada. Ela é equipada com espectrofotômetro UV on-line, que permite a medida da concentração de componentes orgânicos voláteis na corrente de efluente. Também, possui módulos para a aquisição de dados de temperatura, vazão e pressão diferencial. Nessa planta, foram realizados experimentos, à temperatura ambiente, para aquisição de curvas de ruptura experimentais da adsorção de tolueno de uma corrente aquosa, em um leito fixo de carvão ativado. O leito era composto por um carvão ativado granular (8 x 12 mesh). Diferentes alturas de leito (5 e 10 cm) e vazões ( 0,8 e 1,6 L.h-1) foram testados, mantendo a concentração de tolueno na alimentação em aproximadamente 50 ppm. Concomitantemente, foram realizados testes para a caracterização do adsorvente, obtendo-se 15,4 % de conteúdo de umidade e 8,7 % de cinzas, massa específica bulk de 0,5 g.mL-1, massa específica real de 1,72 g.mL-1 e 681 m2.g-1 de área superficial A estimação da difusividade mássica e do coeficiente de transferência de massa referente à fase sólida foram obtidos através de dados de testes cinéticos, obtendo-se, respectivamente, os valores médios de 6,1 cm2.h-1 e 0,0162 cm.h-1. As alturas das zonas de transferência de massa obtidas para a vazão de 0,8 L.h-1 aumentaram com o aumento da altura do leito, indicando comportamento de padrões proporcionais. Além disso, analisaram-se dados preliminares de pressão diferencial no leito, que indicam que ela aumentou enquanto havia adsorção. A metodologia desenvolvida poderá ser aplicada para estudar a adsorção com outros pares adsorvente/adsorvato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta um método para calibração automática de um par de câmeras que realiza um movimento desconhecido. O processo de calibração aqui descrito é baseado inteiramente na rigidez da cena observada e na invariabilidade dos parâmetros intrínsecos das câmeras durante o movimento. Não há a necessidade de nenhum artefato de calibração especial. Este trabalho mostra uma abordagem completa, desde o processo de casamento de pontos até a estimação dos parâmetros da câmera. Não é feita nenhuma suposição sobre o movimento das câmeras, tampouco sobre a disposição da cena 3D. Exemplos de aplicações deste método estão nos experimentos onde a calibração das câmeras precisa ser realizada remotamente, dificultando o posicionamento de artefatos de calibração na cena alvo, como é o caso para robôs de exploração interplanetária.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Técnicas de visualização volumétrica direta propiciam a geração de imagens de alta qualidade já que se baseiam na amostragem do volume de dados original. Tal característica é particularmente importante na área da Medicina, onde imagens digitais de dados volumétricos devem ganhar maior importância como meio de apoio à tomada de decisão por parte dos médicos. No entanto, a geração de imagens com melhor qualidade possível acarreta um alto custo computacional, principalmente em relação ao algoritmo de ray casting, onde a qualidade de imagens depende de um maior número de amostras ao longo do raio fato este refletido no tempo de geração. Assim, a utilização de tais imagens em ambientes interativos é muitas vezes inviabilizada e, para a redução do custo computacional, é necessário abdicar parcialmente da qualidade da imagem. O conceito de qualidade é altamente subjetivo, e sua quantificação está fortemente relacionada à tarefa para qual a imagem está destinada. Na área da Medicina, imagem de boa qualidade é aquela que possibilita ao médico a análise dos dados através da sua representação visual, conduzindo-o a um diagnóstico ou prognóstico corretos. Nota-se que é necessário, então, avaliar a qualidade da imagem em relação a uma determinada tarefa a partir de critérios e métricas subjetivas ou objetivas. A maior parte das métricas objetivas existentes medem a qualidade de imagens com base no cálculo da diferença de intensidade dos pixels, fator que pode não ser suficiente para avaliar a qualidade de imagens do ponto de vista de observadores humanos. Métricas subjetivas fornecem informação mais qualificada a respeito da qualidade de imagens, porém são bastante custosas de serem obtidas. De modo a considerar tais aspectos, o presente trabalho propõe uma métrica objetiva que procura aproximar a percepção humana ao avaliar imagens digitais quanto à qualidade apresentada. Para tanto, emprega o operador gradiente de Sobel (enfatização de artefatos) e o reconhecimento de padrões para determinar perda de qualidade das imagens tal como apontado por observadores humanos. Os resultados obtidos, a partir da nova métrica, são comparados e discutidos em relação aos resultados providos por métricas objetivas existentes. De um modo geral, a métrica apresentada neste estudo procura fornecer uma informação mais qualificada do que métricas existentes para a medida de qualidade de imagens, em especial no contexto de visualização volumétrica direta. Este estudo deve ser considerado um passo inicial para a investigação de uma métrica objetiva mais robusta, modelada a partir de estudos subjetivos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo propõe um método alternativo para a previsão de demanda de energia elétrica, através do desenvolvimento de um modelo de estimação baseado em redes neurais artificiais. Tal método ainda é pouco usado na estimativa de demanda de energia elétrica, mas tem se mostrado promissor na resolução de problemas que envolvem sistemas de potência. Aqui são destacados os principais fatores que devem pautar a modelagem de um sistema baseada em redes neurais artificiais, que são: seleção das variáveis de entrada; quantidade de variáveis; arquitetura da rede; treinamento; previsão da saída. O modelo ora apresentado foi desenvolvido a partir de uma amostra de 125 municípios do Estado do Rio Grande do Sul (Brasil), nos anos de 1999 a 2002. Como variáveis de entrada, foram selecionados a temperatura ambiente (média e desvio-padrão anual), a umidade relativa do ar (média e desvio-padrão anual), o PIB anual e a população anual de cada município incluído na amostra. Para validar a proposta apresentada, são mostrados resultados baseados nas simulações com o modelo proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas indústrias de processo, algumas variáveis como as composições de topo de colunas de destilação são quantificadas através de análises laboratoriais e ou de analisadores em linha. Este tipo de controle apresenta algumas limitações tais como custos de manutenção e o tempo de amostragem (em geral análises laboratoriais ocorrem de 1 a 3 vezes ao dia). Para melhoria destes métodos, as variáveis podem ser continuamente estimadas a partir de sua relação com as variáveis medidas diretamente no processo. Através de um algoritmo matemático, um analisador virtual de propriedades pode ser construído, sendo necessário para o seu desenvolvimento um modelo simplificado do processo. Este trabalho teve como objetivo a construção de dois analisadores virtuais para estimação das composições de topo de duas colunas fracionadoras de tolueno presentes em uma indústria petroquímica. Para tal, estudou-se as metodologias existentes para construção de analisadores voltados para aplicações em colunas de destilação. O desenvolvimento de analisadores virtuais tem como base três etapas: seleção de variáveis secundárias, construção de modelos e correção/adaptação de modelos. Tais etapas, baseadas principalmente em métodos estatísticos, foram estudadas e as técnicas que melhor se adaptaram ao caso em questão foram empregadas com resultados satisfatórios. Realizaram-se também estudos comparativos entre modelos estacionários e dinâmicos e modelos construídos a partir de dados de simulação e de processo. As simulações foram conduzidas nos softwares Aspen PlusÒ e Aspen DynamicsÒ e o software usado para implementação dos analisadores na indústria foi o Aspen IQÒ.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta a estruturação de um controle difuso, para a automação de reatores seqüenciais em batelada (RSB), no processo de remoção biológica de matéria orgânica e nitrogênio em águas residuárias domésticas, utilizando parâmetros inferenciais, pH, ORP e OD, em que as variáveis controladas foram as durações da reação aeróbia e anóxica. O experimento, em escala de bancada, foi composto por dois reatores seqüenciais em batelada, com volume útil de 10 L, no qual 6 L foram alimentados com esgoto sintético, com características de águas residuárias domésticas. O sistema de automação foi composto pela aquisição dos parâmetros eletroquímicos (pH, ORP e OD), pelos dispositivos atuadores (motor-bomba, aerador e misturador) e pelo controle predeterminado ou difuso. O programa computacional CONRSB foi implementado de forma a integrar o sistema de automação. O controle difuso, implementado, foi constituído pelos procedimentos de: normalização, nebulização, inferência, desnebulização e desnormalização. As variáveis de entrada para o controlador difuso, durante o período: aeróbio foram dpH/dt, dpH/d(t-1) e o pH ; anóxico foram dORP/dt, dORP/d(t-1) e o OD. As normalizações das variáveis crisps estiveram no universo de [0,1], utilizando os valores extremos do ciclo 1 ao 70. Nas nebulizações foram aplicadas as funções triangulares, as quais representaram, satisfatoriamente, as indeterminações dos parâmetros. A inferência nebulosa foi por meio da base heurística (regras), com amparo do especialista, em que a implicação de Mamdani foi aplicada Nessas implicações foram utilizadas dezoito expressões simbólicas para cada período, aeróbio e anóxico. O método de desnebulização foi pelo centro de áreas, que se mostrou eficaz em termos de tempo de processamento. Para a sintonia do controlador difuso empregou-se o programa computacional MATLAB, juntamente com as rotinas Fuzzy logic toolbox e o Simulink. O intervalo entre as atuações do controlador difuso, ficou estabelecido em 5,0 minutos, sendo obtido por meio de tentativas. A operação do RSB 1, durante os 85 ciclos, apresentou a relação média DBO/NTK de 4,67 mg DBO/mg N, sendo classificado como processo combinado de oxidação de carbono e nitrificação. A relação média alimento/microrganismo foi de 0,11 kg DBO/kg sólido suspenso volátil no licor misto.dia, enquadrando nos sistemas com aeração prolongada, em que a idade do lodo correspondeu aos 29 dias. O índice volumétrico do lodo médio foi de 117,5 mL/g, indicando uma sedimentação com características médias. As eficiências médias no processo de remoção de carbono e nitrogênio foram de 90,8% (como DQO) e 49,8%, respectivamente. As taxas específicas médias diárias, no processo de nitrificação e desnitrificação, foram de 24,2g N/kg SSVLM.dia e 15,5 g N/kg SSVLM.dia, respectivamente. O monitoramento, em tempo real, do pH, ORP e OD, mostrou ter um grande potencial no controle dos processos biológicos, em que o pH foi mais representativo no período aeróbio, sendo o ORP e o OD mais representativos no período anóxico. A operação do RSB com o controlador difuso, apresentou do ciclo 71 ao 85, as eficiências médias no processo de remoção de carbono e nitrogênio de 96,4% (como DQO) e 76,4%, respectivamente. A duração média do período aeróbio foi de 162,1 minutos, que tomando como referência o período máximo de 200,0 minutos, reduziu em 19,0% esses períodos. A duração média do período anóxico foi de 164,4 minutos, que tomando como referência o período máximo de 290,0 minutos, apresentou uma redução de 43,3%, mostrando a atuação robusta do controlador difuso. O estudo do perfil temporal, no ciclo 85, mostrou a atuação efetiva do controlador difuso, associada aos pontos de controle nos processos biológicos do RSB. Nesse ciclo, as taxas máximas específicas de nitrificação e desnitrificação observadas, foram de 32,7 g NO3 --N/kg sólido suspenso volátil no licor misto.dia e 43,2g NO3 --N/kg sólido suspenso volátil no licor misto.dia, respectivamente.