29 resultados para Inteligência fluida e cristalizada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

As indústrias têm buscado constantemente reduzir gastos operacionais, visando o aumento do lucro e da competitividade. Para alcançar essa meta, são necessários, dentre outros fatores, o projeto e a implantação de novas ferramentas que permitam o acesso às informações relevantes do processo de forma precisa, eficiente e barata. Os sensores virtuais têm sido aplicados cada vez mais nas indústrias. Por ser flexível, ele pode ser adaptado a qualquer tipo de medição, promovendo uma redução de custos operacionais sem comprometer, e em alguns casos até melhorar, a qualidade da informação gerada. Como estão totalmente baseados em software, não estão sujeitos a danos físicos como os sensores reais, além de permitirem uma melhor adaptação a ambientes hostis e de difícil acesso. A razão do sucesso destes tipos de sensores é a utilização de técnicas de inteligência computacional, as quais têm sido usadas na modelagem de vários processos não lineares altamente complexos. Este trabalho tem como objetivo estimar a qualidade da alumina fluoretada proveniente de uma Planta de Tratamento de Gases (PTG), a qual é resultado da adsorção de gases poluentes em alumina virgem, via sensor virtual. O modelo que emula o comportamento de um sensor de qualidade de alumina foi criado através da técnica de inteligência computacional conhecida como Rede Neural Artificial. As motivações deste trabalho consistem em: realizar simulações virtuais, sem comprometer o funcionamento da PTG; tomar decisões mais precisas e não baseada somente na experiência do operador; diagnosticar potenciais problemas, antes que esses interfiram na qualidade da alumina fluoretada; manter o funcionamento do forno de redução de alumínio dentro da normalidade, pois a produção de alumina de baixa qualidade afeta a reação de quebra da molécula que contém este metal. Os benefícios que este projeto trará consistem em: aumentar a eficiência da PTG, produzindo alumina fluoretada de alta qualidade e emitindo menos gases poluentes na atmosfera, além de aumentar o tempo de vida útil do forno de redução.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente utilização dos serviços de telecomunicações principalmente sem fio tem exigido a adoção de novos padrões de redes que ofereçam altas taxas de transmissão e que alcance um número maior de usuários. Neste sentido o padrão IEEE 802.16, no qual é baseado o WiMAX, surge como uma tecnologia em potencial para o fornecimento de banda larga na próxima geração de redes sem fio, principalmente porque oferece Qualidade de Serviço (QoS) nativamente para fluxos de voz, dados e vídeo. A respeito das aplicações baseadas vídeo, tem ocorrido um grande crescimento nos últimos anos. Em 2011 a previsão é que esse tipo de conteúdo ultrapasse 50% de todo tráfego proveniente de dispositivos móveis. Aplicações do tipo vídeo têm um forte apelo ao usuário final que é quem de fato deve ser o avaliador do nível de qualidade recebida. Diante disso, são necessárias novas formas de avaliação de desempenho que levem em consideração a percepção do usuário, complementando assim as técnicas tradicionais que se baseiam apenas em aspectos de rede (QoS). Nesse sentido, surgiu a avaliação de desempenho baseada Qualidade de Experiência (QoE) onde a avaliação do usuário final em detrimento a aplicação é o principal parâmetro mensurado. Os resultados das investigações em QoE podem ser usados como uma extensão em detrimento aos tradicionais métodos de QoS, e ao mesmo tempo fornecer informações a respeito da entrega de serviços multimídias do ponto de vista do usuário. Exemplos de mecanismos de controle que poderão ser incluídos em redes com suporte a QoE são novas abordagens de roteamento, processo de seleção de estação base e tráfego condicionado. Ambas as metodologias de avaliação são complementares, e se usadas de forma combinada podem gerar uma avaliação mais robusta. Porém, a grande quantidade de informações dificulta essa combinação. Nesse contexto, esta dissertação tem como objetivo principal criar uma metodologia de predição de qualidade de vídeo em redes WiMAX com uso combinado de simulações e técnicas de Inteligência Computacional (IC). A partir de parâmetros de QoS e QoE obtidos através das simulações será realizado a predição do comportamento futuro do vídeo com uso de Redes Neurais Artificiais (RNA). Se por um lado o uso de simulações permite uma gama de opções como extrapolação de cenários de modo a imitar as mesmas situações do mundo real, as técnicas de IC permitem agilizar a análise dos resultados de modo que sejam feitos previsões de um comportamento futuro, correlações e outros. No caso deste trabalho, optou-se pelo uso de RNAs uma vez que é a técnica mais utilizada para previsão do comportamento, como está sendo proposto nesta dissertação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho são apresentados os resultados de uma técnica que permitiu implementar a estratégia de controle de temperatura do aquecedor de óleo térmico da fabrica de Anodo Verde da Albrás Alumínio Brasileiro S/A. No projeto utilizou-se um sistema hierarquizado baseado em conjuntos e lógica Fuzzy. O uso dessa metodologia fez com que o sistema fosse capaz de reagir adequadamente diante das variações do ponto de operação do aquecedor, pois o controle Fuzzy exibe algumas características do aprendizado humano, sendo considerado um exemplo de inteligência artificial. O aquecedor de óleo térmico é fundamental no processo de fabricação de blocos inódicos, utilizados como pólo positivo no processo de eletrólise na obtenção do alumínio primário. O sistema de óleo térmico aquece os misturadores e pré-aquecedor de coque, mantendo a temperatura desses equipamentos dentro dos limites estabelecidos pela engenharia de processo. A variável temperatura impacta diretamente na energia de mistura da pasta e na qualidade do produto final, que é o bloco anódico. A metodologia apresentada permitiu alcançar um controle de temperatura que atendeu satisfatoriamente os parâmetros de processo. O programa foi desenvolvido em linguagem ladder é executado em controladores lógicos programáveis (CLP’S) da Rockwell Automation. O controle já está em plena operação nas fábricas de anodos e os resultados obtidos demonstram a eficácia e viabilidade do sistema, que futuramente estará sendo implementado no controle de outros equipamentos da Albrás.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As indústrias buscam a todo o momento reduzir seus gastos operacionais para aumentar seus lucros e sua competitividade. Uma boa gestão é o fator mais importante, porém uma boa gestão é feita com auxílio de ferramentas que permitam o acesso às informações relevantes para o processo, que tenham bastante influência na tomada de decisões estratégicas, com o menor custo possível. O uso de sensores virtuais tem sido aplicado cada vez mais nas indústrias. Por ser flexível, ele pode ser adaptado a qualquer tipo de medição, promovendo uma redução de custos operacionais sem comprometer, e em alguns casos até melhorar, a qualidade da informação gerada. Como estão totalmente baseados em software, não estão sujeitos a danos físicos como os sensores reais, além de permitirem uma melhor adaptação a ambientes hostis e de difícil acesso. A razão do sucesso destes tipos de sensores é a utilização de técnicas de inteligência computacional, as quais têm sido usadas na modelagem de vários processos não lineares altamente complexos. Atualmente, muitas indústrias já utilizam com sucesso os sensores virtuais, e este trabalho explora a sua utilização, em conjunto com as Redes Neurais Artificiais, em um processo químico em uma importante indústria de alumínio brasileira cujo controle é muito difícil pois é muito difícil extrair medidas da planta dada sua natureza corrosiva e cujas medições exigem certo custo operacional além de estarem sujeitas a ruídos. A aplicação dos sensores virtuais poderá reduzir os intervalos de medições bem como os custos operacionais. Ao longo deste trabalho será apresentada a metodologia de como projetar o sensor virtual utilizando o processo químico como estudo de caso, seguindo a literatura recomendada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A extração de substâncias de substratos sólidos tanto a baixas como a altas pressões envolve pelo menos duas fases, uma sólida e outra fluida. O conteúdo de soluto em cada fase é expresso em termos do volume da fase e/ou do volume do solvente. Então para modelar a transferência de massa interfacial, é necessário um coeficiente de partição. Em geral a forma mais simples para tratar o problema é modelar as fases separadamente. O mecanismo de transferência de massa predominante pode variar de sistema para sistema. Para alguns substratos a maior resistência pode estar na fase sólida e para outros ela está na fase fluida. Como na interface as concentrações referentes a cada fase são representadas por grandezas diferentes, as fases têm de ser modeladas separadamente. No entanto, dependendo do sistema, pode haver um mecanismo de transferência predominando sobre o outro e, muitos efeitos podem ser desprezados para a simplificação do modelo. A utilização de modelos matemáticos mais simples requer uma combinação das variáveis na definição de parâmetros mais abrangentes que possam representar o fenômeno. Neste trabalho as curvas de extração foram ajustadas a um modelo que descreve a transferência de massa interfacial como uma cinética de primeira ordem, tendo a constante da velocidade de extração único parâmetro de ajuste. Propõe-se que este parâmetro de ajuste depende da solubilidade do soluto no solvente supercrítico e das características do substrato solido. Para isto foram feitos experimentos de extração com babaçu, açaí em pó e polpa de pupunha, usando dióxido de carbono supercrítico nas condições de 20, 25 e 30 MPa a uma temperatura de 50 ºC. Os resultados mostraram que os dados experimentais se ajustam bem a um modelo com uma constante característica de cada material, com valores 4,1983 x 10-5 m/kg∙s para o babaçu, 4,2258 x 10-5 m/kg∙s para a pupunha e 3,9115 x 10-5 m/kg∙s para o açaí em pó.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo apresenta novas estratégias de controle fuzzy aplicadas ao conversor estático interligado ao rotor dos geradores de indução duplamente excitados (DFIG), em esquemas eólicos de velocidade variável, integrados a redes elétricas reais. As estratégias de controle propostas são do tipo fuzzy "look-up-table" com supervisão. O desempenho de tais reguladores, baseados em inteligência computacional, é comparado com o obtido com controladores PI's a parâmetros fixos, na ocorrência de faltas no sistema elétrico de potência. Esses controladores fuzzy são destinados a garantir a continuidade da operação dos conversores, e melhorar o desempenho transitório do sistema, em relação aos controladores convencionais. Os resultados apresentados confirmam a eficácia das estratégias de controle adotadas. O modelo físico dos aerogeradores, consistindo de um grande número de turbinas eólicas, foi implementado através de uma ferramenta de simulação dinâmica, desenvolvida no ambiente computacional MATLABTM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mário de Andrade e Waldemar Henrique são conceituados artistas brasileiros. O primeiro como intelectual de renomada importância dentro do movimento modernista, da agitada Semana de 1922 às inúmeras pesquisas e estudos sobre música e folclore. Foi um intelectual formador de uma inteligência do pensamento nacional. Waldemar Henrique foi o autor de uma gigantesca obra musical, suas primeiras composições remontam a ―Olhos verdes‖, de 1922, no Rio de Janeiro recebendo a denominação de ―Valsinha do Marajó‖, e ―Minha Terra‖, de 1923. Na década de trinta o seu trabalho ampliou-se tematicamente estendendo-se a motivos de folclore negro, a danças dramáticas regionais, a canções e lendas da Amazônia. Seus estudos de música assim confluíram com o folclore e seu nome constantemente é lembrado pela associação que perdura entre seu trabalho artístico e a Amazônia. Este estudo fundamenta-se na ―noção de experiência‖ da Amazônia, nestes dois intelectuais, em um momento de suas obras em que este lugar conflui pelo conjunto de lendas que dá suporte e constrói a narrativa de Macunaíma, em Mário de Andrade, e pela série musical inspirada no universo lendário amazônico de Waldemar Henrique. Um, nascido e criado nesses matos e rios, nos dá conta de um olhar nativo, o outro, um viajante a conhecer coisas novas e a perceber, como afirma, ―outros brasis‖. Semelhanças e diferenças de suas abordagens movem-nos a conclusões sobre a própria Amazônia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa foi realizada com o objetivo de identificar e analisar as relações entre as linguagens da Matemática e da Informática no contexto da sala de aula, a partir da inserção das tecnologias informáticas na aprendizagem da Função Quadrática. Nesse sentido, os conceitos que envolvem a forma algébrica e forma gráfica desta função, foram observados pelos alunos ao explorar aspectos dinâmicos na interface do Geogebra. A fundamentação teórica da pesquisa, foi subsidiada pelas ideias de Pierre Lévy sobre as tecnologias da inteligência na disseminação da informação e do conhecimento, bem como pelas contribuições filosóficas de Ludwig Wittgenstein acerca do jogo de linguagem. A metodologia da pesquisa possui caráter qualitativo definido a partir de critérios específicos acerca do objeto de estudo e dos sujeitos investigados. As informações foram obtidas por meio de questões específicas aplicadas em dois momentos, a saber: antes e após a realização de um minicurso sobre o GeoGebra. As análises das questões revelaram que os aspectos visuais e os movimentos no uso do computador, estabelecem relações entre as formas algébricas e gráficas da função quadrática. Assim, eles puderam perceber que os coeficientes numéricos modificam a parábola e isso dá sentido aos conceitos estudados. O uso do GeoGebra possibilita outras formas de aprendizagem evidenciadas entre o Jogo de Linguagem da Matemática e o Jogo de Linguagem da Informática no âmbito da Educação Matemática.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A adoção de sistemas digitais de radiodifusão sonora, que estão em fase de testes no país, permite realizar novos estudos visando um melhor planejamento para a implementação dessas novas emissoras. O que significa reavaliar os principais modelos de radiopropagação existentes ou propor novas alternativas para atender as demandas inerentes dos sistemas digitais. Os modelos atuais, conforme Recomendações ITU-R P. 1546 e ITU-R P. 1812, não condizem fielmente com a realidade de algumas regiões do Brasil, principalmente com as regiões de clima tropical, como a Região Amazônica, seja pelo elevado índice pluviométrico seja pela vasta flora existente. A partir dos modelos adequados ao canal de propagação, torna-se viável desenvolver ferramentas de planejamento de cobertura mais precisas e eficientes. A utilização destas ferramentas é cabível tanto para a ANATEL, para a elaboração dos planos básicos de distribuição de canais quanto para os radiodifusores. No presente trabalho é apresentada uma metodologia utilizando a inteligência computacional, baseada em Inferênciass Baysianas, para predição da intensidade de campo elétrico, a qual pode ser aplicada ao planejamento ou expansão de áreas de cobertura em sistemas de radiodifusão para frequências na faixa de ondas médias (de 300 kHz a 3MHz). Esta metodologia gera valores de campo elétrico estimados a partir dos valores de altitude do terreno (através de análises de tabelas de probabilidade condicional) e estabelece a comparação destes com valores de campo elétrico medidos. Os dados utilizados neste trabalho foram coletados na região central do Brasil, próximo à cidade de Brasília. O sinal transmitido era um sinal de rádio AM transmitido na frequência de 980 kHz. De posse dos dados coletados durante as campanhas de medição, foram realizadas simulações utilizando tabelas de probabilidade condicional geradas por Inferências Bayesianas. Assim, é proposto um método para predizer valores de campo elétrico com base na correlação entre o campo elétrico medido e altitude, através da utilização de inteligência computacional. Se comparados a inúmeros trabalhos existentes na literatura que têm o mesmo objetivo, os resultados encontrados neste trabalho validam o uso da metodologia para determinar o campo elétrico de radiodifusão sonora em ondas médias utilizando Inferências Bayesianas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As Redes da Próxima Geração consistem no desenvolvimento de arquiteturas que viabilizem a continuidade de serviços que proporcionem sempre a melhor conectividade (Always Best Connectivity - ABC) aos usuários móveis com suporte adequado à Qualidade de Experiência (QoE) para aplicações multimídia de alta definição, nesse novo contexto as arquiteturas têm perspectiva orientada a serviços e não a protocolos. Esta tese apresenta uma arquitetura para redes da próxima geração capaz de fornecer acesso heterogêneo sem fio e handover vertical transparente para as aplicações multimídia. A tese considera diferentes tecnologias sem fio e também adota o padrão IEEE 802.21 (Media Independent Handover – MIH) para auxiliar na integração e gerenciamento das redes heterogêneas sem fio. As tecnologias que a arquitetura possui são: IEEE 802.11 (popularmente denominada de WiFi), IEEE 802.16 (popularmente denominada de WiMAX) e LTE (popularmente denominada de redes 4G). O objetivo é que arquitetura tenha a capacidade de escolher entre as alternativas disponíveis a melhor conexão para o momento. A arquitetura proposta apresenta mecanismos de predição de Qualidade de Experiência (Quality of Experience - QoE) que será o parâmetro decisivo para a realização ou não do handover para uma nova rede. A predição para determinar se haverá ou não mudança de conectividade será feita com o uso da inteligência computacional de Redes Neurais Artificiais. Além disso a arquitetura também apresenta um mecanismo de descarte seletivo de pacotes especifico para aplicações multimídia. A proposta é avaliada via simulação utilizando-se o ns-2 (Network Simulator) e os resultados de desempenho são apresentados através das métricas de QoS, de QoE e também visualmente através da exibição de frames dos vídeos transmitidos na arquitetura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo apresenta o debate sobre a problemática da pesca nas localidades Céu e Cajuúna no município de Soure, na micro-região do Ararí na mesorregião do Marajó- Estado do Pará. A pesca é desenvolvida no contexto rural do âmbito territorial amazônico, sendo o resultado da interação dos componentes: Sazonalidades ambientais, recursos naturais e capacidade pesqueira da região. É pertinente salientar a dimensão territorial da pesca para entendimento dos territórios e territorialidades dos pescadores. Os pescadores das localidades Céu e Cajuúna têm na atividade pesqueira a centralidade da produção de seus espaços de vivência e reprodução, sendo as vilas rurais dos pescadores expressão do poder local daquelas coletividades. Questiona-se neste trabalho como é entendido, na ciência geográfica, a apropriação, o domínio e o uso do espaço pelos pescadores. Para tanto, buscou-se compreender, por meio de pesquisas, as ações dos diferentes atores sociais envolvidos na problemática abordada, entendendo o sentido da territorialidade dos pescadores locais, suas formas de relação com a natureza e de organização do trabalho para melhor visibilidade dos territórios dos pescadores. Esses territórios são definidos e apropriados no meio aquático, tendo sua configuração imprecisa e por ser vasta sua “posse” é muito fluida, devido a dinâmica sazonal da água e do pescado. Para os pescadores, a pesca é mais que uma atividade, visto que envolve uma complexidade de relações e fenômenos, entre homem e natureza, influenciando nas formas de organizações sociais desses grupos. As técnicas de produção dos pescadores fazem parte de seu complexo cultural de domínio e apropriação da natureza. Essas técnicas são os elementos definidores do gênero de vida nos processos de territorialização e construção da identidade do pescador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No interior dos reservatórios petrolíferos, o efeito da gravidade produz naturalmente a segregação dos fluidos presentes. Em razão basicamente das forças capilares não existe uma superfície definida de separação entre cada dois fluidos. No entanto, é comum na engenharia de petróleo admitir-se uma superfície convencional de separação dos fluidos. À essa superfície dá-se o nome de interface fluida ou contato fluido. A obtenção da localização dos contatos fluidos no interior dos reservatórios, como os contatos óleo-água, contatos gás-água e os contatos gás-óleo, sem a interpretação completa dos perfis geofísicos ou a realização dos procedimentos diretos dos testes de formação é um problema de difícil solução para a indústria do petróleo. O posicionamento em profundidade dos contatos pode ser utilizado para a definição dos procedimentos de completação do poço e para o posicionamento do canhoneio nos horizontes produtores dos poços verticais. Temos também a aplicação do mapeamento deste parâmetro, para os projetos e controle da perfuração no caso dos poços direcionais e horizontais, que utilizam tal informação para o posicionamento do eixo do poço no interior da zona de hidrocarboneto no reservatório, a fim de se evitar, principalmente, a produção de água. Este trabalho apresenta uma metodologia para a identificação e posicionamento dos contatos fluidos, através da aplicação da técnica da estatística multivariada, chamada de análise discriminante. Nesta aplicação, faz-se uso direto dos perfis de resistividade (RT), de raios gama natural (RG), de densidade (ρb), de porosidade neutrônica (ΦN), de caliper (Cal) e do perfil de volume de argila (Vcla), como dados de entrada no programa de análise discriminante. Para o caso de depósitos clásticos, com seqüências arenito-folhelho, a análise discriminante fornece ainda a indicação da litologia e as espessuras aparentes dos reservatórios. As curvas de perfis geofísicos aplicadas para a avaliação desta metodologia são provenientes de poços perfurados na bacia do lago Maracaibo, na Venezuela, onde, segundo estudos geológicos, existe a ocorrência de seqüências estratigráficas, com camadas de folhelhos e arenitos, sendo também confirmada a presença de hidrocarbonetos nos poços utilizados neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apesar do aumento significativo do uso de redes locais sem fio (WLAN) nos últimos anos, aspectos de projeto e planejamento de capacidade da rede são ainda sistematicamente negligenciados durante a implementação da rede. Tipicamente um projeto de rede local sem fio é feito e instalado por profissionais de rede. Esses profissionais são extremamente experientes com redes cabeadas, mas são ainda geralmente pouco experientes com redes sem fio. Deste modo, as instalações de redes locais sem fio são desvantajosas pela falta de um modelo de avaliação de desempenho e para determinar a localização do ponto de acesso (PA), além disso, fatores importantes do ambiente não são considerados no projeto. Esses fatores se tornam mais importante quando muitos pontos de acesso (PAs) são instalados para cobrir um único edifício, algumas vezes sem planejamento de freqüência. Falhas como essa podem causar interferência entre células geradas pelo mesmo PA. Por essa razão, a rede não obterá os padrões de qualidade de serviço (QoS) exigidos por cada serviço. O presente trabalho apresenta uma proposta para planejamento de redes sem fio levando em consideração a influência da interferência com o auxílio de inteligência computacional tais como a utilização de redes Bayesianas. Uma extensiva campanha de medição foi feita para avaliar o desempenho de dois pontos de acesso (PAs) sobre um cenário multiusuário, com e sem interferência. Os dados dessa campanha de medição foram usados como entrada das redes Bayesianas e confirmaram a influência da interferência nos parâmetros de QoS. Uma implementação de algoritmo genético foi utilizado permitindo uma abordagem híbrida para planejamento de redes sem fio. Como efeito de comparação para otimizar os parâmetros de QoS, de modo a encontrar a melhor distância do PA ao receptor garantindo as recomendações do International Telecomunication Union (ITU-T), a técnica de otimização por enxame de partículas foi aplicada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A localização de bancos de capacitores nas redes de distribuição de energia elétrica, corretamente dimensionados, busca compensar eventuais excessos de circulação de potência reativa pelas linhas, o que implica a redução de custos operacionais pela redução das perdas de energia e um aumento da capacidade de transmissão de potência ativa assegurando os níveis estabelecidos de tensão e fator de potência simultaneamente. A proliferação das cargas não lineares provocou uma mudança nos cenários de estudo dos sistemas elétricos de potência devido aos efeitos nocivos que os harmônicos gerados por elas ocasionam sobre a qualidade da energia elétrica. Considerando este novo cenário, esta tese tem como objetivo geral desenvolver uma ferramenta computacional utilizando técnicas de inteligência computacional apoiada em algoritmos genéticos (AG), para a otimização multiobjetivo da compensação da potência reativa em redes elétricas de distribuição capaz de localizar e dimensionar de forma ótima as unidades de compensação necessárias para obter os melhores benefícios econômicos e a manutenção dos índices de qualidade da energia estabelecidos pelas normas brasileiras. Como Inovação Tecnológica do trabalho a ferramenta computacional desenvolvida permite otimizar a compensação da potência reativa para melhorar do fator de potência em redes de distribuição contaminadas com harmônicos que, diferentemente de métodos anteriores, não só emprega bancos de capacitores, mas também filtros de harmônicos com esse objetivo. Utiliza-se o algoritmo NSGA-II, que determina as soluções ótimas de Pareto para o problema e permite ao especialista determinar as soluções mais efetivas. A proposta para a solução do problema apresenta várias inovações podendo-se destacar que a solução obtida permite determinar a compensação de potência reativa com capacitores em sistemas com certa penetração harmônica, atendendo a normas de qualidade de energia pertinentes, com relação aos níveis de distorção harmônica tolerados.