46 resultados para Matemática - Metodologia
Resumo:
Este trabalho apresenta uma modelagem matemática para o processo de aquecimento de um corpo exposto a uma fonte pontual de radiação térmica. O resultado original que permite a solução exata de uma equação diferencial parcial não linear a partir de uma seqüência de problemas lineares também é apresentado. Gráficos gerados com resultados obtidos pelo método de diferenças finitas ilustram a solução do problema proposto.
Resumo:
Com o advento da internet o ensino a distância se apresenta como uma perspectiva de formação para milhares de cidadãos, permitindo a interiorização do ensino de qualidade e levando a oportunidade de formação àqueles que estão localizados longe dos grandes centros. O ensino a distância permite derrubar as barreiras geográficas que mantém o aluno do interior do Estado apartado do acesso ao ensino público gratuito e de qualidade. No entanto, a aplicação da metodologia EaD deve ser feita de forma a respeitar as características locais sem prescindir dos princípios que o norteiam. A carência de profissionais de contabilidade na esfera pública é significativa. Desta forma, esse trabalho se insere na perspectiva de avaliar se a metodologia da EaD apresenta alguma diferença para o ensino de contabilidade. Através de pesquisa caracterizada em sua metodologia como descritiva, realizada de forma quantitativa que emprega lógica dedutiva, resultante em uma pesquisa aplicada, é traçado um paralelo entre o ensino a distância e o ensino presencial por meio do estudo das disciplinas de contabilidade ministradas nos cursos de Administração da UFRRJ, observando que o curso a distância é oferecido no âmbito do Consórcio Cederj. Através de um conjunto de questionários, foi traçado o perfil do aluno cursista e dos potenciais alunos que ingressarão no curso, bem como a percepção que eles têm da carreira de contador. Foi desenvolvido um estudo sistemático da eficiência das ferramentas oferecidas pela metodologia do EaD como facilitador da aprendizagem, bem como a comparação entre a metodologia do ensino a distância e o presencial, tanto sob a ótica dos alunos quanto do professores. Entre as conclusões verifica-se, através das cidades investigadas, que a população do interior do Estado, prestes a ingressar em um curso superior, desconhece ou tem uma noção muito superficial da profissão de contador e não tem interesse pela carreira de ciências contábeis como opção para o vestibular. Outra conclusão que a pesquisa revela demonstra que a metodologia do EaD é uma poderosa ferramenta para capilarizar o ensino, seja a formação superior como também a formação continuada, sem perda de qualidade para metodologia presencial.
Resumo:
Esta pesquisa investigou a formação de depósitos arenosos localizados na planície costeira da Baixada de Sepetiba, em Itaguaí, estado do Rio de Janeiro. A deposição sedimentar e a evolução desta área, na Baixada de Sepetiba tem sido estudada nas três últimas décadas, principalmente, porque é um ambiente de depósitos arenosos antigo de idade Holocênica a Pleistocênica que corresponde a uma linha de praia, originada com eventos transgressivos e/ou regressivos que tiveram seu ápice durante o Quaternário. A metodologia de Radar de Penetração no Solo (GPR) é usada, principalmente nos casos de trabalho em que se estuda um ambiente costeiro arenoso. Este campo da Geofísica tem sido usado para examinar características, tais como: a espessura de depósitos arenosos, a profundidade de um aqüífero, a detecção de uma rocha ou um aqüífero, e determina a direção de progradação. Esta pesquisa usa técnicas de radar de penetração no solo (GPR) para analisar as estruturas, em subsuperfície desde que o ambiente estudado seja definido como linha de costa, as margens de uma lagoa mixohalina, chamada Baía de Sepetiba. Neste trabalho realizamos um total de 11 perfis, que foram processados pelo software ReflexWin. Durante o processamento do dado aplicamos alguns filtros, tais como: subtract-mean (dewow), bandpassfrequency e ganhos. E as melhores imagens dos perfis foram realizadas usando-se uma antena de 200 MHz (canal 1) e outra antena de 80 MHz. Neste caso, obtivemos imagens de alta resolução a uma profundidade de até 25 metros.
Resumo:
A presente dissertação propõe uma abordagem alternativa na simulação matemática de um cenário preocupante em ecologia: o controle de pragas nocivas a uma dada lavoura de soja em uma específica região geográfica. O instrumental teórico empregado é a teoria dos jogos, de forma a acoplar ferramentas da matemática discreta à análise e solução de problemas de valor inicial em equações diferenciais, mais especificamente, as chamadas equações de dinâmica populacional de Lotka-Volterra com competição. Essas equações, que modelam o comportamento predador-presa, possuem, com os parâmetros inicialmente utilizados, um ponto de equilíbrio mais alto que o desejado no contexto agrícola sob exame, resultando na necessidade de utilização da teoria do controle ótimo. O esquema desenvolvido neste trabalho conduz a ferramentas suficientemente simples, de forma a tornar viável o seu uso em situações reais. Os dados utilizados para o tratamento do problema que conduziu a esta pesquisa interdisciplinar foram coletados de material bibliográfico da Empresa Brasileira de Pesquisa Agropecuária EMBRAPA.
Resumo:
O conceito de objetividade é central na epistemologia de Gaston Bachelard (1884-1962). O problema que a pesquisa busca solucionar é a definição de objetividade na filosofia bachelardiana, o que implica na necessidade de explicitar a relação entre a objetividade e a matemática. A partir da leitura e da análise da obra epistemológica de Bachelard que trata da questão da objetividade, é demonstrado que o filósofo utiliza dois diferentes conceitos de objetividade: o primeiro é o de objetividade como reconhecimento e afastamento dos obstáculos epistemológicos que se apresentam como imagens subjetivas na prática científica; o segundo conceito é o de objetividade como o processo de retificação do conhecimento científico. Apresenta-se um exemplo de objetivação: o conceito de substância, no sentido realista ingênuo, desaparece nas ciências físicas do século XX, e surge o conceito complexo de um átomo não substancial, mas matemático. A partir desse exemplo, é demonstrado que, para Bachelard, o processo de objetivação do conhecimento é sincrônico ao processo de matematização do objeto. e a razão para essa relação entre a matematização e a objetivação é explicada.
Resumo:
Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.
Resumo:
Nos dias atuais, a maioria das operações feitas por empresas e organizações é armazenada em bancos de dados que podem ser explorados por pesquisadores com o objetivo de se obter informações úteis para auxílio da tomada de decisão. Devido ao grande volume envolvido, a extração e análise dos dados não é uma tarefa simples. O processo geral de conversão de dados brutos em informações úteis chama-se Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases). Uma das etapas deste processo é a Mineração de Dados (Data Mining), que consiste na aplicação de algoritmos e técnicas estatísticas para explorar informações contidas implicitamente em grandes bancos de dados. Muitas áreas utilizam o processo KDD para facilitar o reconhecimento de padrões ou modelos em suas bases de informações. Este trabalho apresenta uma aplicação prática do processo KDD utilizando a base de dados de alunos do 9 ano do ensino básico do Estado do Rio de Janeiro, disponibilizada no site do INEP, com o objetivo de descobrir padrões interessantes entre o perfil socioeconômico do aluno e seu desempenho obtido em Matemática na Prova Brasil 2011. Neste trabalho, utilizando-se da ferramenta chamada Weka (Waikato Environment for Knowledge Analysis), foi aplicada a tarefa de mineração de dados conhecida como associação, onde se extraiu regras por intermédio do algoritmo Apriori. Neste estudo foi possível descobrir, por exemplo, que alunos que já foram reprovados uma vez tendem a tirar uma nota inferior na prova de matemática, assim como alunos que nunca foram reprovados tiveram um melhor desempenho. Outros fatores, como a sua pretensão futura, a escolaridade dos pais, a preferência de matemática, o grupo étnico o qual o aluno pertence, se o aluno lê sites frequentemente, também influenciam positivamente ou negativamente no aprendizado do discente. Também foi feita uma análise de acordo com a infraestrutura da escola onde o aluno estuda e com isso, pôde-se afirmar que os padrões descobertos ocorrem independentemente se estes alunos estudam em escolas que possuem infraestrutura boa ou ruim. Os resultados obtidos podem ser utilizados para traçar perfis de estudantes que tem um melhor ou um pior desempenho em matemática e para a elaboração de políticas públicas na área de educação, voltadas ao ensino fundamental.
Resumo:
Esta pesquisa realiza um estudo sobre a formação de professores em Física, Química e Matemática na dimensão das políticas públicas educacionais e das novas ordenações do mundo produtivo. O eixo metodológico investe na abordagem qualitativa, elegendo como campo empírico o Instituto de Educação, Ciência e Tecnologia do Rio de Janeiro (IFRJ), mais especificamente, o campus Nilópolis, localizado na região da Baixada Fluminense (recorte geopolítico), no Estado do Rio de Janeiro. A técnica de pesquisa baseou-se na realização de entrevistas com licenciandos cujo perfil compreende àquele que tenha realizado atividades de estágio docente. Esta escolha justifica-se por ser este o perfil de estudante mais próximo do término do curso e que, principalmente, através desta experiência, apresenta concepções, ainda que iniciais, da realidade da educação básica. Este estudo investiu na história dos sujeitos participantes através de seus respectivos relatos, onde foi possível categorizá-los em importantes aspectos que se interconectam: 1) na análise das políticas públicas para a educação superior a partir da ênfase na investigação de como estas se efetivam em uma territorialidade e no contexto de uma nova institucionalidade; 2) na reflexão sobre o impacto das transformações do mundo do trabalho na subjetividade dos licenciandos, engendrando a possível atividade docente no cenário de crise de identidades profissionais; e 3) no exame da realidade das escolas da educação básica, espaço onde a formação se destina. Este caminho permitiu refletir sobre o lugar do magistério nas escolhas de formação e nas perspectivas profissionais.
Resumo:
O estudo que apresento está assentado em questões, cujo aprofundamento pretende trazer contribuição à ressignificação dos processos de ensino-aprendizagem, especialmente no âmbito da geometria espacial. Dentre as questões destaco: (1) a relação entre cibercultura e processos de ensinar-aprender, especialmente no que se refere ao conteúdo da geometria espacial, (2) os modos de sentir, de expressar-se e de aprender que a mediação da cultura digital traz contemporaneamente para os jovens; (3) a pesquisa entendida como acontecimento/experiência, cuja dimensão de intervenção permite a pesquisador e pesquisados relacionarem-se dialogicamente, reconhecendo-se como co-autores do processo de investigação. O principal interesse da pesquisa foi investigar se a dinâmica do uso das tecnologias em redes, própria da cibercultura, pode ressignificar o aprendizado do conhecimento de geometria espacial de jovens alunos do Ensino Médio. A abordagem teórico-metodológica está fundamentada nos princípios bakhtinianos da dialogia e da alteridade e no conceito vigotskiano de mediação. Sob a orientação da abordagem histórico-cultural, outros interlocutores teóricos contribuiram de modo significativo para a compreensão das questões que envolvem a relação entre educação e processos comunicacionais pós-massivos, tendo sido indispensáveis à construção e interpretação dos dados Dentre eles, cito Lucia Santaella, Maria Teresa Freitas, Pierre Lévy, Marília Amorim, Maria Helena Bonilla, Nelson Pretto, Edmea Santos, Guaracira Gouvêa, Maria Luiza Oswald, entre outros. O estudo foi realizado numa escola da rede estadual na cidade de Cabo Frio/RJ, sendo sujeitos da pesquisa 78 alunos/as do 2 e 3 ano do Ensino Médio. Para colher as informações de caráter objetivo, foi aplicado um questionário através do aplicativo Google Docs. Os dados qualitativos foram construídos por intermédio da dinâmica de convergência de mídias que engloba a metodologia Webquest, a interface wiki e o software Geogebra. Tendo em vista os pressupostos do estudo que relacionam propostas autorais, posturas alteritárias e práticas cotidianas procurei construir uma estratégia metodológica em que a apropriação das dinâmicas ciberculturais e das interfaces digitais fosse capaz de me auxiliar a identificar como usar estes dispositivos no processo de ressignificação da construção do conhecimento geométrico, bem como descobrir os limites de sua aplicação. Os resultados alcançados, ainda que provisórios dado o inacabamento dos acontecimentos que fazem da pesquisa uma experiência inacabada, apontam para a necessidade de reconhecer os jovens como produtores de saberes que deveriam ser legitimados para que a prática de ensinar-aprender geometria resultasse em conhecimento que articula ciência e vida cotidiana. Essa foi a valiosa lição que a pesquisa trouxe à minha própria prática de professora de matemática, lição que, espero, possa ecoar para outros professores.
Resumo:
O presente trabalho aborda o problema de identificação de danos em uma estrutura a partir de sua resposta impulsiva. No modelo adotado, a integridade estrutural é continuamente descrita por um parâmetro de coesão. Sendo assim, o Modelo de Elementos Finitos (MEF) é utilizado para discretizar tanto o campo de deslocamentos, quanto o campo de coesão. O problema de identificação de danos é, então, definido como um problema de otimização, cujo objetivo é minimizar, em relação a um vetor de parâmetros nodais de coesão, um funcional definido a partir da diferença entre a resposta impulsiva experimental e a correspondente resposta prevista por um MEF da estrutura. A identificação de danos estruturais baseadas no domínio do tempo apresenta como vantagens a aplicabilidade em sistemas lineares e/ou com elevados níveis de amortecimento, além de apresentar uma elevada sensibilidade à presença de pequenos danos. Estudos numéricos foram realizados considerando-se um modelo de viga de Euler-Bernoulli simplesmente apoiada. Para a determinação do posicionamento ótimo do sensor de deslocamento e do número de pontos da resposta impulsiva, a serem utilizados no processo de identificação de danos, foi considerado o Projeto Ótimo de Experimentos. A posição do sensor e o número de pontos foram determinados segundo o critério D-ótimo. Outros critérios complementares foram também analisados. Uma análise da sensibilidade foi realizada com o intuito de identificar as regiões da estrutura onde a resposta é mais sensível à presença de um dano em um estágio inicial. Para a resolução do problema inverso de identificação de danos foram considerados os métodos de otimização Evolução Diferencial e Levenberg-Marquardt. Simulações numéricas, considerando-se dados corrompidos com ruído aditivo, foram realizadas com o intuito de avaliar a potencialidade da metodologia de identificação de danos, assim como a influência da posição do sensor e do número de dados considerados no processo de identificação. Com os resultados obtidos, percebe-se que o Projeto Ótimo de Experimentos é de fundamental importância para a identificação de danos.
Resumo:
O processo de recuperação secundária de petróleo é comumente realizado com a injeção de água ou gás no reservatório a fim de manter a pressão necessária para sua extração. Para que o investimento seja viável, os gastos com a extração precisam ser menores do que o retorno financeiro obtido com a produção de petróleo. Objetivando-se estudar possíveis cenários para o processo de exploração, costuma-se utilizar simulações dos processos de extração. As equações que modelam esse processo de recuperação são de caráter hiperbólico e não lineares, as quais podem ser interpretadas como Leis de Conservação, cujas soluções são complexas por suas naturezas descontínuas. Essas descontinuidades ou saltos são conhecidas como ondas de choque. Neste trabalho foi abordada uma análise matemática para os fenômenos oriundos de leis de conservação, para em seguida utilizá-la no entendimento do referido problema. Foram estudadas soluções fracas que, fisicamente, podem ser interpretadas como ondas de choque ou rarefação, então, para que fossem distinguidas as fisicamente admissíveis, foi considerado o princípio de entropia, nas suas diversas formas. As simulações foram realizadas nos âmbitos dos escoamentos bifásicos e trifásicos, em que os fluidos são imiscíveis e os efeitos gravitacionais e difusivos, devido à pressão capilar, foram desprezados. Inicialmente, foi feito um estudo comparativo de resoluções numéricas na captura de ondas de choque em escoamento bifásico água-óleo. Neste estudo destacam-se o método Composto LWLF-k, o esquema NonStandard e a introdução da nova função de renormalização para o esquema NonStandard, onde obteve resultados satisfatórios, principalmente em regiões onde a viscosidade do óleo é muito maior do que a viscosidade da água. No escoamento bidimensional, um novo método é proposto, partindo de uma generalização do esquema NonStandard unidimensional. Por fim, é feita uma adaptação dos métodos LWLF-4 e NonStandard para a simulação em escoamentos trifásicos em domínios unidimensional. O esquema NonStandard foi considerado mais eficiente nos problemas abordados, uma vez que sua versão bidimensional mostrou-se satisfatória na captura de ondas de choque em escoamentos bifásicos em meios porosos.
Resumo:
O presente estudo teve como objetivo geral compreender o processo de aprendizagem da matemática de estudantes durante o ciclo de alfabetização na cidade do Rio de Janeiro. Para isso, fez-se uso dos dados de uma pesquisa longitudinal, denominada Estudo Longitudinal da Geração Escolar 2005 GERES 2005. Esta Pesquisa consistiu em um estudo de painel que acompanhou ao longo de quatro anos consecutivos (de 2005 a 2008) uma amostra de estudantes do primeiro segmento do Ensino Fundamental (1 à 4 série e/ou 2 ao 5 ano) em cinco cidades brasileiras - Rio de Janeiro, Belo Horizonte, Campinas, Campo Grande e Salvador, por meio de testes de Matemática e Leitura aplicados aos estudantes e de questionários contextuais aplicados a seus professores, aos diretores das escolas, e aos pais. Especificamente o estudo concentrou-se sobre os dados referentes à rede municipal do Rio de Janeiro e mais especificamente ao período correspondente ao ciclo de alfabetização. Foram analisados os resultados médios em matemática dos estudantes nas três primeiras Ondas de avaliação e o percentual de acertos nos itens comuns a essas Ondas, com o intuito de verificar a evolução da aprendizagem em matemática ao longo do início da escolarização nos anos iniciais. Dentre os principais resultados da pesquisa foi possível perceber certa fragilidade na construção dos conceitos matemáticos básico dos anos iniciais, evidenciando que possivelmente a construção da linguagem matemática encontra-se aquém do esperado para os estudantes no início de sua formação matemática. Possivelmente, estes resultados reflitam uma prática comum nas escolas em que a ênfase do processo de aprendizagem esteja centrada em processos individuais, em contextos pouco familiares à criança, além da proposição de atividades que pouco exploram o raciocínio lógico e dedutivo do aluno, ou seja, o pensar sobre de forma lúdica e criativa. Tudo isso tem contribuído para aumentar a distância entre estudantes de diferentes classes sociais ou diferentes redes de ensino.
Resumo:
O crescimento do uso dos aerogeradores de pequeno porte em áreas urbanas em todo o mundo aponta para um mercado em expansão e extremamente promissor, principalmente no brasil, onde o potencial eólico é grande. tratando-se de máquinas pequenas existe interesse dos consumidores residenciais na sua utilização, seja para economia de energia ou por adesão às fontes alternativas. existe uma grande quantidade de fabricantes no mundo incluindo aerogeradores de alta, média e baixa qualidade. com isso surge a necessidade de criar métodos que avaliem estes produtos quanto ao seu rendimento energético, como ocorrem com as geladeiras, lâmpadas, fogões e outros, a fim de resguardar a qualidade deste equipamento ao consumidor. a proposta é criar um ciclo de teste (ou ciclo de ventos) baseado nos perfis de comportamentos diários de ventos urbano obtidos através de medições reais feitos pelo projeto sonda. esse perfil será usado para testar os aerogeradores de até 1 kw em laboratório, com auxílio de um túnel de vento a fim de determinar o rendimento energético do conjunto gerador, servindo como método para o aprimoramento desses aparelhos. outra possibilidade é o uso desta metodologia no programa brasileiro de etiquetagem, que classifica os produtos em função de sua eficiência energética. este trabalho também pode ser usado para acreditação de laboratórios de certificação que avaliam produtos em função de sua eficiência e/ou rendimento, visto que a acreditação é uma ferramenta estabelecida em escala internacional para gerar confiança na atuação de organizações que executam atividades de avaliação da conformidade.
Resumo:
Neste trabalho é apresentado a aplicação de um método de otimização a fim de estimar parâmetros que normalmente estão presentes na modelagem matemática da dinâmica de espécies químicas na interface água-sedimento. O Problema Direto aqui consistiu na simulação das concentrações das espécies orgânicas e inorgânicas (amônia e nitrato) de nitrogênio, num ambiente idealizado, o qual foi fracionado em quatro camadas: uma camada de água (1 metro) e três camadas de sedimento (0-1 cm, 1-2 cm e 2-10 cm). O Problema Direto foi resolvido pelo Método de Runge Kutta, tendo sido gerada uma simulação de 50 dias. Na estimativa dos coeficientes de difusão e porosidade foi aplicado o Método Simulated Annealing (SA). A eficiência da estratégia aqui adotada foi avaliada através do confronto entre dados experimentais sintéticos e as concentrações calçadas pela solução do Problema Direto, adotando-se os parâmetros estimados pela SA. O melhor ajuste entre dados experimentais e valores calculados se deu quando o parâmetro estimado foi a porosidade. Com relação à minimização da função objetivo, a estimativa desse parâmetro também foi a que exigiu menor esforço computacional. Após a introdução de um ruído randômico às concentrações das espécies nitrogenadas, a técnica SA não foi capaz de obter uma estimativa satisfatória para o coeficiente de difusão, com exceção da camada 0-1 cm sedimentar. Para outras camadas, erros da ordem de 10 % foram encontrados (para amônia na coluna dágua, pro exemplo). Os resultados mostraram que a metodologia aqui adotada pode ser bastante promissora enquanto ferramenta de gestão de corpos dágua, especialmente daqueles submetidos a um regime de baixa energia, como lagos e lagoas costeiras.
Resumo:
A pressão antrópica crescente impõe a necessidade de um monitoramento sistemático da água e de seus ambientes aquáticos. O desenvolvimento de Índices de Qualidade de Água (IQAs) tem como objetivo transformar dados em informações acessíveis e de fácil entendimento para os gestores e usuários das águas, visando refletir a deterioração deste recurso em nível de bacia hidrográfica e ao longo do tempo. O Instituto Estadual do Ambiente (INEA) adotou um novo Índice de Qualidade de Água para ambiente lótico, baseado em lógica nebulosa, o IQAFAL, desenvolvido no âmbito do rio Paraíba do Sul. O objetivo principal deste estudo consiste em aplicar o IQAFAL aos rios dos Macacos, Cabeça e Rainha, contribuintes da bacia de drenagem da Lagoa Rodrigo de Freitas, de grande interesse sócio-político-ambiental para a cidade do Rio de Janeiro. Busca-se analisar a sua adequação em sintetizar a qualidade de água em bacias hidrográficas de pequeno porte e primordialmente urbana. Para tanto, utilizam-se dados físicos, químicos e biológicos do INEA, no período 2003 - 2010. Os resultados mostraram que o IQAFAL foi capaz de refletir a qualidade da água de modo satisfatório e compatível com os registros disponíveis e a percepção de especialistas acerca da real qualidade dos rios. Ou seja, este Índice se mostrou mais sensível às condições ruins, traduzindo a verdadeira condição destes corpos dágua, ao contrário do IQACETESB, que classifica estas águas como de qualidade mediana. Os resultados confirmam também as vantagens deste índice, observadas em estudos anteriores, sobretudo quanto à capacidade de identificar as variáveis de qualidade de água que são mais determinantes para o resultado final do Índice, através do estudo dos subíndices.