830 resultados para INDÚSTRIAS (OTIMIZAÇÃO)


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é apresentado um simulador MATLAB para sistemas ópticos WDM amplificados baseado na solução das equações não lineares de Schrödinger acopladas, pelo método de Fourier de passo alternado. Este simulador permite o estudo da propagação de pulsos em fibras ópticas, considerando dispersão cromática, efeitos não lineares como automodulação de fase e modulação de fase cruzada e atenuação, prevendo também o emprego de amplificadores ópticos a fibra dopada com Érbio (EDFAs). Através de simulações numéricas, foi explorada a técnica de otimização do posicionamento de um EDFA ao longo de um enlace óptico, sem repetidores, que objetiva a redução dos custos de implantação de sistemas ópticos, seja pela diminuição da potência do transmissor ou pela relaxação da exigência de sensibilidade do receptor. Além disto, pode favorecer um aumento na capacidade do sistema, através do aumento do alcance ou da taxa de transmissão. A concordância dos resultados obtidos com os disponíveis na literatura confirmam a validade da técnica, bem como a versatilidade e robustez do simulador desenvolvido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa consiste na solução do problema inverso de transferência radiativa para um meio participante (emissor, absorvedor e/ou espalhador) homogêneo unidimensional em uma camada, usando-se a combinação de rede neural artificial (RNA) com técnicas de otimização. A saída da RNA, devidamente treinada, apresenta os valores das propriedades radiativas [ω, τ0, ρ1 e ρ2] que são otimizadas através das seguintes técnicas: Particle Collision Algorithm (PCA), Algoritmos Genéticos (AG), Greedy Randomized Adaptive Search Procedure (GRASP) e Busca Tabu (BT). Os dados usados no treinamento da RNA são sintéticos, gerados através do problema direto sem a introdução de ruído. Os resultados obtidos unicamente pela RNA, apresentam um erro médio percentual menor que 1,64%, seria satisfatório, todavia para o tratamento usando-se as quatro técnicas de otimização citadas anteriormente, os resultados tornaram-se ainda melhores com erros percentuais menores que 0,04%, especialmente quando a otimização é feita por AG.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essa dissertação apresenta a implementação de um algoritmo genético paralelo utilizando o modelo de granularidade grossa, também conhecido como modelo das ilhas, para sistemas embutidos multiprocessados. Os sistemas embutidos multiprocessados estão tornando-se cada vez mais complexos, pressionados pela demanda por maior poder computacional requerido pelas aplicações, principalmente de multimídia, Internet e comunicações sem fio, que são executadas nesses sistemas. Algumas das referidas aplicações estão começando a utilizar algoritmos genéticos, que podem ser beneficiados pelas vantagens proporcionadas pelo processamento paralelo disponível em sistemas embutidos multiprocessados. No algoritmo genético paralelo do modelo das ilhas, cada processador do sistema embutido é responsável pela evolução de uma população de forma independente dos demais. A fim de acelerar o processo evolutivo, o operador de migração é executado em intervalos definidos para realizar a migração dos melhores indivíduos entre as ilhas. Diferentes topologias lógicas, tais como anel, vizinhança e broadcast, são analisadas na fase de migração de indivíduos. Resultados experimentais são gerados para a otimização de três funções encontradas na literatura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O consumo de alimentos processados tem crescido mundialmente e esse aumento tem sido relacionado em parte, pelas estratégias de marketing utilizadas pelas indústrias alimentícias que tem como objetivo aumentar as vendas e expandir o mercado consumidor. Segundo documento Recomendações da Consulta de Especialistas da Organização Pan-Americana da Saúde sobre a Promoção e a Publicidade de Alimentos e Bebidas Não Alcoólicas para Crianças nas Américas, a publicidade televisiva é a forma mais utilizada de marketing de alimentos para crianças e está associada a maior preferência e aumentos nos pedidos de compra de alimentos e bebidas com elevado teor de gordura, açúcar e sal. No âmbito da discussão mais recente sobre a possível influência da propaganda de alimentos na epidemia mundial de obesidade e doenças crônicas, o governo brasileiro, por meio da Agência Nacional de Vigilância Sanitária (ANVISA), formulou uma proposta de Regulamento Técnico que normatiza os termos das atividades publicitárias e que se concretizou na Resolução da Diretoria Colegiada n 24 de 2010 (RDC24/2010). Logo após sua publicação, grupos de interesse empresarial entraram na justiça e obtiveram diversas liminares que suspenderam a aplicação da RDC 24/2010 com base em parecer contrário da Advocacia Geral da União (AGU). O debate sobre ações regulatórias no campo da alimentação e nutrição como estratégia de controle e prevenção da obesidade envolve diversos atores sociais e opiniões bastante distintas e antagônicas, principalmente quando se trata dos argumentos do grupo de indivíduos que acredita na regulamentação da publicidade como uma forma de promover a saúde versus os argumentos contrários dos setores econômicos ligados ao tema a ser regulado. Neste sentido, este trabalho teve a intenção de descrever como e por que, neste processo, algumas práticas se estabeleceram no cotidiano das instituições e identificar os embates, argumentos e conflitos de interesses que apareceram nas discussões a respeito da formulação da resolução. Para isso, foi feita, primeiramente, análise documental de todo o processo de formulação, através de arquivos institucionais, documentos, pareceres, relatórios, entre outros. Posteriormente, foram identificados e caracterizados os sujeitos que participaram do processo e em seguida, realizadas entrevistas semi-estruturadas com atores chaves. Foram encontradas duas teses centrais no debate em torno da formulação da resolução: a primeira, se o Estado deve estabelecer uma regulamentação sobre publicidade de alimentos e a segunda diz respeito à competência legal da ANVISA em exercer o papel regulador sobre a propaganda de alimentos. As disputas em torno destas duas teses e os argumentos que se apresentaram para defendê-las são evidentemente incomensuráveis entre si, não havendo esperança de acordo entre as partes. O caso descrito elegeu a ANVISA como o território da disputa e a aparente maioria no jogo democrático desta arena mostrou-se ineficaz diante da captura pelo questionamento da pertinência desta Agência para função de regular a publicidade de alimentos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Revestimentos produzidos a partir de ligas de Zn-Co são comumente utilizados em indústrias (aeronáutica, de isoladores elétricos e automobilística, por exemplo) devido à sua ótima resistência à corrosão, principalmente quando comparados aos tradicionais revestimentos de Zn puro. Na co-deposição de zinco com metais, como o ferro, cobalto e níquel, ocorre o que se chama de deposição anômala, onde o metal menos nobre (zinco) é preferencialmente depositado, independente do modo de corrente aplicada (contínua ou pulsada). Recentemente, diversos trabalhos relacionam a produção de eletrodepósitos de liga Zn-Co a partir de banhos ambientalmente não agressivos, a fim de substituir os banhos alcalinos extremamente tóxicos, a base de cianeto. Na presente dissertação foram produzidos revestimentos de ligas de Zn-Co sobre substrato de aço carbono, empregando corrente contínua ou corrente pulsada simples, a partir de banhos contendo diferentes concentrações de Co2+ (0,05 mol/L e 0,10mol/L), 0,05 mol/l de Zn2+ e citrato de sódio (0,10 mol/L) como agente complexante, sob condições agitadas. Quatro diferentes valores de densidade de corrente (10 A/m2, 20 A/m2, 40 A/m2 e 80 A/m2) e de frequência de pulso (100 Hz, 500 Hz, 1000 Hz, 2000 Hz) foram aplicados para a produção da liga a partir dos dois banhos, tendo como objetivo avaliar a influência dos parâmetros de deposição(concentração de Co (II), densidade de corrente aplicada e, no caso de deposição por corrente pulsada simples, também da frequência de pulso), nas variáveis eficiência de corrente catódica, composição da liga, densidade de corrente de corrosão, microestrutura e morfologia dos depósitos de liga Zn-Co. As cores das camadas obtidas variaram do cinza claro ao escuro, quase sempre sem brilho, independente do modo de corrente empregado. Foi verificado que o processo normal de eletrodeposição foi prevalente na produção de revestimentos por corrente contínua, enquanto que apenas deposição anômala foi observada quando do uso de corrente pulsada. A maior eficiência de corrente catódica (60%) foi obtida, para corrente contínua, nas condições de menor concentração de Co2+ (0,05 mol/L) e maior densidade de corrente (80 A/m2). Nestas mesmas condições foi determinada uma eficiência de corrente catódica de 98% para corrente pulsada simples na freqüência de 2000 Hz. Maiores teores do metal mais nobre (cobalto) foram alcançados em maiores densidades de corrente para todas as condições empregadas. Os revestimentos assim obtidos apresentavam os menores valores de tamanho de grão, para cada uma das soluções estudadas. Os demais parâmetros estudados também influenciaram na granulometria e na morfologia das ligas obtidas. Revestimentos com melhor resistência à corrosão, contendo teores de cobalto entre aproximadamente 8 e 10% m/m, foram produzidos a partir do banho com maior concentração de Co2+, sob corrente pulsada simples

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A poluição do ar é um problema de saúde pública nas grandes cidades, no Brasil e no mundo. As principais fontes de contaminação são as emissões dos veículos automotores, indústrias, usinas de energia, e as atividades humanas em geral, como a agricultura. Os objetivos deste estudo foram investigar as associações de curto prazo entre os níveis de material particulado (PM10) e internações de crianças e idosos, devido a problemas respiratórios ou cardiovasculares em uma região ao leste do Rio de Janeiro cidade, conhecida como Grande Tijuca. Uma associação entre PM10 e os resultados obtidos sobre a população sensível foi encontrada na área de estudo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A humanização tem sido um termo frequentemente utilizado em relação às práticas de saúde no SUS, tornado-se uma bandeira de luta levantada sempre que se pensa em políticas de saúde. A polissemia do termo chama a atenção para a possibilidade de sua utilização em diferentes contextos, direcionados a diferentes auditórios. Esse trabalho tem pode objetivo analisar os usos e sentidos da noção de humanização nas propostas de ações voltadas à saúde da mulher. A história das práticas e saberes construídos em torno da saúde da mulher, com ênfase no movimento feminista, no planejamento familiar e na constituição do Programa de Atenção Integral à Saúde da Mulher foi resgatada no sentido contextualizar a discussão proposta. Diversas propostas de ações de saúde foram analisadas, assim como os projetos selecionados pelo Prêmio David Capistrano da Política Nacional de Humanização, visando a identificação de núcleos de sentidos no discurso oficial sobre humanização, e a forma como esse discurso está sendo percebido pelos profissionais. Foram identificados e discutidos quatro núcleos de sentidos: humanização enquanto atributo das relações interpessoais; humanização e redução da mortalidade materna; humanização e otimização de recursos; e humanização e processos de organização de trabalho. Concluímos que a manutenção do processo de formulação e implantação de ações de forma verticalizada, fragmentada, sem que as modificação propostas sejam pactuadas com os profissionais que deveriam implantá-las e os usuários que deveriam se beneficiar delas, acaba por promover a perpetuação do modelo assistencial vigente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente no cenário mundial a qualidade da água tem gerado muitas preocupações, pois milhares de produtos sintéticos são produzidos para facilitar muitas práticas industriais, domésticas e pessoais e com isso diversas substâncias químicas utilizadas para esses fins são introduzidas no meio ambiente. Os parabenos são substâncias químicas utilizadas pelas indústrias farmacêuticas, de alimentos e cosméticos e que cuja função é a conservação, sendo que há muitos questionamentos em relação a sua segurança, pois alguns relatórios têm mostrado que a exposição a esses parabenos pode modular ou perturbar o sistema endócrino e com isso gerar consequências prejudiciais à saúde humana e aos ambientes aquáticos. Esse estudo teve como objetivo avaliar a presença dos Parabenos Metilparabeno e Propilparabeno no ambiente aquático e os seus potenciais estrogênicos e a toxicidade aguda. A metodologia se desenvolveu a partir do ensaio in vitro YES para a determinação da atividade estrogênica, ensaios de toxicidade aguda em Daphnia similis e em Aliivibrio fischeri e a quantificação dos parabenos na água do Rio Maracanã-RJ através da cromatografia líquida acoplada ao espectrômetro de massa. Os resultados obtidos para a CE50 dos MP e PP, a partir do ensaio in vitro YES, foi de 18,91 mgL-1 e 7 mgL-1 e a magnitude da resposta foi de 10-5 e 10-4 menos potente que 17ß-estradiol para o MP e o PP, respectivamente. A partir do ensaio de toxicidade aguda, os valores de CE50 obtidos em Daphnia similis, foi de 29,42 mgL-1 e 9,94 mgL-1e em Aliivibrio fischeri foi de 3,047 mgL-1 e 1,946 mgL-1, respectivamente, com isso observou-se que o PP é mais tóxicos em todos os organismos testados, sendo mais tóxicos para um e menos para outros. A água do Rio Maracanã não foi tóxica para a Daphnia similis em nenhum dos dois pontos, já para o Aliivibrio fischeri foi tóxica em apenas um ponto. As concentrações encontradas de MP e PP foram maiores no ponto onde, de acordo com os parâmetros físico-químicos, a qualidade da água não está dentro dos padrões exigidos pela legislação, sendo quantificados na ordem de ngL-1, contudo é válido ressaltar que os DEs não são encontrados no meio ambiente separados, eles interagem entre si e provocam efeitos aditivos ou sinérgicos, sendo muito difícil de prever qual o efeito, por isso é importante o conhecimento do potencial estrogênico das substâncias simples, pois em um estudo com uma matriz ambiental, pode-se observar se houve algum efeito aditivo ou sinérgico de outras substâncias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é apresentado a aplicação de um método de otimização a fim de estimar parâmetros que normalmente estão presentes na modelagem matemática da dinâmica de espécies químicas na interface água-sedimento. O Problema Direto aqui consistiu na simulação das concentrações das espécies orgânicas e inorgânicas (amônia e nitrato) de nitrogênio, num ambiente idealizado, o qual foi fracionado em quatro camadas: uma camada de água (1 metro) e três camadas de sedimento (0-1 cm, 1-2 cm e 2-10 cm). O Problema Direto foi resolvido pelo Método de Runge Kutta, tendo sido gerada uma simulação de 50 dias. Na estimativa dos coeficientes de difusão e porosidade foi aplicado o Método Simulated Annealing (SA). A eficiência da estratégia aqui adotada foi avaliada através do confronto entre dados experimentais sintéticos e as concentrações calçadas pela solução do Problema Direto, adotando-se os parâmetros estimados pela SA. O melhor ajuste entre dados experimentais e valores calculados se deu quando o parâmetro estimado foi a porosidade. Com relação à minimização da função objetivo, a estimativa desse parâmetro também foi a que exigiu menor esforço computacional. Após a introdução de um ruído randômico às concentrações das espécies nitrogenadas, a técnica SA não foi capaz de obter uma estimativa satisfatória para o coeficiente de difusão, com exceção da camada 0-1 cm sedimentar. Para outras camadas, erros da ordem de 10 % foram encontrados (para amônia na coluna dágua, pro exemplo). Os resultados mostraram que a metodologia aqui adotada pode ser bastante promissora enquanto ferramenta de gestão de corpos dágua, especialmente daqueles submetidos a um regime de baixa energia, como lagos e lagoas costeiras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O mercado contemporâneo de mídia é dominado por um número cada vez menor de empresas, que competem entre si no mercado global. Resultantes de aquisições e fusões com atividades em várias frentes, as empresas compõem impérios midiáticos, classificados como conglomerados de mídia. Nesse contexto dos conglomerados, esta pesquisa analisa uma das vertentes do segmento de internet da The Walt Disney Company: a página da empresa no Facebook. Utilizando o referencial das indústrias de mídia e da economia de mídia como principal base teórica, o objetivo desta pesquisa é identificar as estratégias da empresa na sua relação com os usuários, especialmente aquelas de maior apelo junto ao público entre 9 e 15 anos, faixa etária contemplada pelas pesquisas TIC Domicílios e Usuários 2012 e TIC Kids Online Brasil 2012. Neste contexto, através da análise de postagens com promoções e propaganda de seus produtos, explícitas ou não (tais como filmes, jogos e desenhos animados), é possível identificar as inserções criativas da empresa no Facebook, as estratégias de marketing na referida página e as principais frentes do negócio internet da Disney Co. Para tanto, são usados também documentos oficiais (e públicos) da Companhia, em especial balanços anuais e informações divulgadas na imprensa. A metodologia adotada é a do estudo de caso incluindo as inserções feitas de 19 de maio de 2009 a 28 de janeiro de 2014, totalizando 529 postagens, e os relatórios fiscais anuais a partir de 1999, com ênfase no documento de 2013. As postagens são analisadas e categorizadas de modo a permitir a identificação do segmento do negócio Disney ao qual cada uma se refere. Com isso, o intuito é verificar as principais metas da empresa na rede social Facebook.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O processo de lodos ativados consiste em um tratamento biológico amplamente utilizado nas estações de tratamento, para remoção de matéria orgânica, devido à qualidade do efluente ao final do processo. Essa remoção é realizada por microrganismos que atuam neste sistema como bactérias, protozoários, metazoários e organismos filamentosos, como fungos e bactérias, formadores de flocos biológicos. Para garantir a eficiência deste processo deve haver um equilíbrio da microbiota dentro do reator aeróbio e o controle do número de filamentosos, tendo em vista que seu excesso no sistema pode causar o intumescimento do lodo (bulking) interferindo na qualidade do efluente gerado. O presente estudo teve como objetivo testar a eficiência de uma solução de 0,001% de peróxido de hidrogênio (H2O2) no controle de microrganismos filamentosos em lodos provenientes de duas indústrias, farmacêutica e alimentícia, reduzindo assim os riscos relacionados à utilização desta substância em grandes volumes. Foram realizadas análises microscópicas do lodo para avaliação quantitativa e monitoramento da atividade biológica dos reatores, essa avaliação serviu como base para a análise qualitativa a partir do índice de Madoni (1994) gerando um Índice Biótico do Lodo (IBL). Foram realizados outros testes, como IVL e teste de respiração, sendo os resultados destes testes comparados a fim de avaliar a eficiência da solução de H2O2 e sua interferência no processo. A solução de H2O2 foi eficiente em ambos os experimentos, mostrando através dos testes de TCO e TCOe não haver interferência desta solução no metabolismo da microfauna; os resultados do IBL mostraram uma boa qualidade do lodo para ambos experimentos e a partir desta análise foi observado que a elevação de temperatura, acima de 30,0C, causa interferência no sistema levando a uma redução do IBL. Os resultados de IVL não demonstraram diferença entre os valores dos reatores controle e tratado, porém a avaliação do tamanho dos flocos e filamentos mostrou que o aumento na concentração da solução de H2O2 levou a um controle na quantidade de filamentosos nos reatores tratados que reduziram em tamanho e quantidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente existem diferentes ferramentas computacionais para auxílio nos estudos de coordenação da proteção, que permitem traçar as curvas dos relés, de acordo com os parâmetros escolhidos pelos projetistas. Entretanto, o processo de escolha das curvas consideradas aceitáveis, com um elevado número de possibilidades e variáveis envolvidas, além de complexo, requer simplificações e iterações do tipo tentativa e erro. Neste processo, são fatores fundamentais tanto a experiência e o conhecimento do especialista, quanto um árduo trabalho, sendo que a coordenação da proteção é qualificada pela IEEE Std. 242 como sendo mais uma arte do que uma ciência. Este trabalho apresenta o desenvolvimento de um algoritmo genético e de um algoritmo inspirado em otimização por colônia de formigas, para automatizar e otimizar a coordenação da função de sobrecorrente de fase de relés digitais microprocessados (IEDs), em subestações industriais. Seis estudos de caso, obtidos a partir de um modelo de banco de dados, baseado em um sistema elétrico industrial real, são avaliados. Os algoritmos desenvolvidos geraram, em todos os estudos de caso, curvas coordenadas, atendendo a todas as restrições previamente estabelecidas e as diferenças temporais de atuação dos relés, no valor de corrente de curto circuito trifásica, apresentaram-se muito próximas do estabelecido como ótimo. As ferramentas desenvolvidas demonstraram potencialidade quando aplicadas nos estudos de coordenação da proteção, tendo resultados positivos na melhoria da segurança das instalações, das pessoas, da continuidade do processo e do impedimento de emissões prejudiciais ao meio ambiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta a proposta de um middleware, chamado DistributedCL, que torna transparente o processamento paralelo em GPUs distribuídas. Com o suporte do middleware DistributedCL uma aplicação, preparada para utilizar a API OpenCL, pode executar de forma distribuída, utilizando GPUs remotas, de forma transparente e sem necessidade de alteração ou nova compilação do seu código. A arquitetura proposta para o middleware DistributedCL é modular, com camadas bem definidas e um protótipo foi construído de acordo com a arquitetura, onde foram empregados vários pontos de otimização, incluindo o envio de dados em lotes, comunicação assíncrona via rede e chamada assíncrona da API OpenCL. O protótipo do middleware DistributedCL foi avaliado com o uso de benchmarks disponíveis e também foi desenvolvido o benchmark CLBench, para avaliação de acordo com a quantidade dos dados. O desempenho do protótipo se mostrou bom, superior às propostas semelhantes, tendo alguns resultados próximos do ideal, sendo o tamanho dos dados para transmissão através da rede o maior fator limitante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os processos de beneficiamento têxtil, como o alvejamento, a purga, o tingimento e as lavagens são reconhecidamente impactantes ao meio ambiente, tanto do ponto de vista de consumo de água, quanto da geração de efluentes. Os efluentes têxteis oriundos dos processos de beneficiamento se caracterizam por apresentarem elevadas concentrações de substâncias emulsificantes, íons cloreto, sólidos e matéria orgânica, além de alta toxicidade. Mas sem dúvida, o maior problema desses efluentes deve-se a presença de corantes e pigmentos. Alguns parâmetros físico-químicos importantes no controle da poluição hídrica são de difícil medição e consequente monitoramento, principalmente pela ausência de legislação que expresse de maneira clara e objetiva os limites destes parâmetros. Este fato permite avaliações dúbias e contestações aos órgãos ambientais. Especificamente no caso do parâmetro cor, esta subjetividade obriga muitas indústrias a empregarem valores de controle de cor oriundos de outros estados, ou até mesmo de outros países. No Rio de Janeiro, de acordo com a NT-202-R-10 do INEA, o critério para cor é estar virtualmente ausente no efluente. Neste contexto, este estudo avaliou algumas metodologias empregadas na determinação da cor em um efluente têxtil. Para a medição de cor, foram empregadas três metodologias descritas na literatura. A primeira metodologia desenvolvida para análise de água, também utilizada para efluentes líquidos, se baseia em medições espectrofotométricas em um único comprimento de onda padrão (450nm ou 465nm), tendo como referência soluções de Pt-Co. Essa metodologia não abrange todas as tonalidades do espectro de cores possíveis para os efluentes têxteis. O segundo método se baseia na medição em três comprimentos de onda (436, 525 e 620nm), denominado índice DFZ. O último método investiga os valores máximos de absorbância, na faixa entre 350 e 700nm, na amostra. Os resultados obtidos mostraram que as correções dos valores de medição de cor utilizando os valores máximos de absorbância expressaram melhor a realidade dos dados experimentais, visto que eliminam um possível erro causado pela restrita faixa de detecção do método tradicional, numa região do espectro típica para tonalidades encontradas na água.