999 resultados para ANFIS. Controle linear. Identificação de sistemas lineares. Múltiplos modelos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho descreve um sistema de análise de dados com a finalidade de gerar um sistema de controle utilizando técnica inteligente para adição de fluoreto de alumínio (AlF3) em fornos de redução de alumínio. O projeto baseia-se nos conceitos de lógica fuzzy, nos quais o conhecimento acumulado pelo especialista do processo é traduzido de maneira qualitativa em um conjunto de regras linguísticas do tipo SE ENTÃO. A utilização desta técnica inteligente para o controle de adição de fluoreto busca representar explicitamente um conhecimento qualitativo, detido pelos operadores de cubas eletrolíticas. Devido o sistema convencional não contemplar as variações dos fenômenos que envolvem a dinâmica do processo, um controlador fuzzy foi implmentado no sistema real para tomadas de decisões, utilizando o modelo mínimo de Mandani. Baseado neste modelo, as variáveis de processo para a entrada do sistema fuzzy, tais como temperatura de banho e percentual de fluoreto foram manipuladas para estimar a tendência de subida e descida, respectivamente, através do método mínimos quadrados(MMQ). O controlador fuzzy é aplicado para calcular a quantidade de fluoreto de alumínio (AlF3) a ser adicionado na cuba eletrolítica de forma automática sem a necessidade da intervenção do especialista do processo. A motivação para o uso de um sistema de controle fuzzy se deve ao fato de não se ter disponível um modelo dinâmico do processo de adição do fluoreto na cuba eletrolítica. Esta falta de modelagem se deve ao fato de grande complexidade dos fenômenos envolvidos em uma cuba que são processos termodinâmicos e eletromagnéticos acoplados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A pesquisa foi realizada a partir da escolha da área correspondente à bacia do igarapé Tucunduba, na zona urbana de Belém, capital do Estado do Pará, e é voltada para o desenvolvimento de uma estrutura cognitiva causal computacional capaz de identificar e qualificar os potenciais processos indicadores de conflitos gerados pelos usos múltiplos da água nesta bacia hidrográfica urbana, e com isto viabilizar decisões no âmbito das medidas estruturais e não estruturais. A utilização de um modelo qualitativo, utilizando metodologias informacionais, como o software Decision Explorer, na área de recursos hídricos, visa entender não somente os aspectos hidrológicos, mas também os aspectos sociais, indispensáveis na tomada de decisão diante de um cenário de conflitualidade quanto ao uso desses recursos. Este software é uma ferramenta para o desenvolvimento do mapeamento cognitivo, através do qual serão agrupados os conceitos unindo causas e efeitos representativos por meio de visualização codificada dos mesmos. A identificação e qualificação dos conflitos decorrentes dos usos múltiplos da água foram realizadas a partir de entrevistas com especialistas na área de gestão e saneamento, sendo posteriormente gerados os mapas cognitivos possibilitando assim a descrição do sistema escolhido e a identificação das possíveis soluções mediadoras para os conflitos ali identificados. O resultado obtido a partir das entrevistas foi agregado em um único mapa com o intuito de comprovar a hipótese formulada na pesquisa, por meio das ferramentas de análise, ou seja, auxiliar na identificação dos conflitos pelo uso múltiplo da água, a partir das medidas estruturais e não estruturais existentes (ou propostas), a fim de proporcionar ao gestor a tomador de decisão de forma mais eficaz na solução desses conflitos. Neste caso, poderíamos dizer que este grupo de construtos ilustra as principais medidas a serem observadas pelo tomador de decisão, a fim de solucionar os conflitos pelo uso múltiplo na bacia do Tucunduba, evidenciados pelos facilitadores através das entrevistas e mapas cognitivos individuais. As conclusões e recomendações estão contidas no capítulo final são obtidas não somente através dos resultados extraídos do software empregado, mas principalmente por maio da intervenção e interpretação dos dados pelo pesquisador, que obtém a partir dessas análises o entendimento do funcionamento do sistema, a identificação dos conflitos potenciais, suas causas e efeitos, assim como as medidas mitigadoras a serem sugeridas ao tomador de decisão. Estão incluídas neste capítulo sugestões visando o aprimoramento do modelo criado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A legislação ambiental cada vez mais rigorosa tem forçado as indústrias a investirem em soluções de controle inovadoras buscando diminuir as emissões de gases poluentes pelas fontes móveis e fixas, exercendo melhor controle e tratamento desses poluentes como forma de atender os limites impostos pela lei. Apresenta-se neste trabalho, a implementação de uma melhoria no sistema de controle de exaustão de fornos de cozimento de anodos da indústria de alumínio ALBRAS-Alumínio Brasileiro S.A., localizada em Barcarena no estado do Pará, visando minimizar a poluição causada pela queima de combustíveis nos fornos sem comprometer a eficiência do processo. Para isso foi utilizado um sistema baseado em lógica fuzzy, buscando na experiência de engenheiros, técnicos e operadores de processo, uma forma de se obter um melhor controle e confiabilidade na gestão das emissões de gases poluentes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As indústrias buscam a todo o momento reduzir seus gastos operacionais para aumentar seus lucros e sua competitividade. Uma boa gestão é o fator mais importante, porém uma boa gestão é feita com auxílio de ferramentas que permitam o acesso às informações relevantes para o processo, que tenham bastante influência na tomada de decisões estratégicas, com o menor custo possível. O uso de sensores virtuais tem sido aplicado cada vez mais nas indústrias. Por ser flexível, ele pode ser adaptado a qualquer tipo de medição, promovendo uma redução de custos operacionais sem comprometer, e em alguns casos até melhorar, a qualidade da informação gerada. Como estão totalmente baseados em software, não estão sujeitos a danos físicos como os sensores reais, além de permitirem uma melhor adaptação a ambientes hostis e de difícil acesso. A razão do sucesso destes tipos de sensores é a utilização de técnicas de inteligência computacional, as quais têm sido usadas na modelagem de vários processos não lineares altamente complexos. Atualmente, muitas indústrias já utilizam com sucesso os sensores virtuais, e este trabalho explora a sua utilização, em conjunto com as Redes Neurais Artificiais, em um processo químico em uma importante indústria de alumínio brasileira cujo controle é muito difícil pois é muito difícil extrair medidas da planta dada sua natureza corrosiva e cujas medições exigem certo custo operacional além de estarem sujeitas a ruídos. A aplicação dos sensores virtuais poderá reduzir os intervalos de medições bem como os custos operacionais. Ao longo deste trabalho será apresentada a metodologia de como projetar o sensor virtual utilizando o processo químico como estudo de caso, seguindo a literatura recomendada.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo deste estudo foi estimar a entropia conjunta do sistema visual humano no domínio do espaço e no domínio das freqüências espaciais através de funções psicométricas. Estas foram obtidas com testes de discriminação de estímulos com luminância ou cromaticidade moduladas por funções de Gábor. A essência do método consistiu em avaliar a entropia no domínio do espaço, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em extensão espacial, e avaliar a entropia no domínio das freqüências espaciais, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em freqüência espacial. A entropia conjunta foi calculada, então, a partir desses dois valores individuais de entropia. Três condições visuais foram estudadas: acromática, cromática sem correção fina para eqüiluminância e cromática com correção para eqüiluminância através de fotometria com flicker heterocromático. Quatro sujeitos foram testados nas três condições, dois sujeitos adicionais foram testados na condição cromática sem eqüiluminância fina e um sétimo sujeito também fez o teste acromático. Todos os sujeitos foram examinados por oftalmologista e considerados normais do ponto de vista oftálmico, não apresentando relato, sintomas ou sinais de disfunções visuais ou de moléstias potencialmente capazes de afetar o sistema visual. Eles tinham acuidade visual normal ou corrigida de no mínimo 20/30. O trabalho foi aprovado pela Comissão de Ética em Pesquisa do Núcleo de Medicina Tropical da UFPA e obedeceu às recomendações da Declaração de Helsinki. As funções de Gábor usadas para modulação de luminância ou cromaticidade compreenderam redes senoidais unidimensionais horizontais, moduladas na direção vertical, dentro de envelopes gaussianos bidimensionais cuja extensão espacial era medida pelo desvio padrão da gaussiana. Os estímulos foram gerados usando-se uma rotina escrita em Pascal num ambiente Delphi 7 Enterprise. Foi utilizado um microcomputador Dell Precision 390 Workstation e um gerador de estímulos CRS VSG ViSaGe para exibir os estímulos num CRT de 20”, 800 x 600 pixels, 120 Hz, padrão RGB, Mitsubishi Diamond Pro 2070SB. Nos experimentos acromáticos, os estímulos foram gerados pela modulação de luminância de uma cor branca correspondente à cromaticidade CIE1931 (x = 0,270; y = 0,280) ou CIE1976 (u’ = 0,186; v’= 0,433) e tinha luminância média de 44,5 cd/m2. Nos experimentos cromáticos, a luminância média foi mantida em 15 cd/m2 e foram usadas duas series de estímulos verde-vermelhos. Os estímulos de uma série foram formados por duas cromaticidades definidas no eixo M-L do Espaço de Cores DKL (CIE1976: verde, u’=0,131, v’=0,380; vermelho, u’=0,216, v’=0,371). Os estímulos da outra série foram formados por duas cromaticidades definidas ao longo de um eixo horizontal verde-vermelho definido no Espaço de Cores CIE1976 (verde, u’=0,150, v’=0,480; vermelho, u’=0,255, v’=0,480). Os estímulos de referência eram compostos por redes de três freqüências espaciais diferentes (0,4, 2 e 10 ciclos por grau) e envelope gaussiano com desvio padrão de 1 grau. Os estímulos de testes eram compostos por uma entre 19 freqüências espaciais diferentes em torno da freqüência espacial de referência e um entre 21 envelopes gaussianos diferentes com desvio padrão em torno de 1 grau. Na condição acromática, foram estudados quatro níveis de contraste de Michelson: 2%, 5%, 10% e 100%. Nas duas condições cromáticas foi usado o nível mais alto de contraste agregado de cones permitidos pelo gamut do monitor, 17%. O experimento consistiu numa escolha forçada de dois intervalos, cujo procedimento de testagem compreendeu a seguinte seqüência: i) apresentação de um estímulo de referência por 1 s; ii) substituição do estímulo de referência por um fundo eqüiluminante de mesma cromaticidade por 1 s; iii) apresentação do estímulo de teste também por 1 s, diferindo em relação ao estímulo de referência seja em freqüência espacial, seja em extensão espacial, com um estímulo sonoro sinalizando ao sujeito que era necessário responder se o estímulo de teste era igual ou diferente do estímulo de referência; iv) substituição do estímulo de teste pelo fundo. A extensão espacial ou a freqüência espacial do estímulo de teste foi mudada aleatoriamente de tentativa para tentativa usando o método dos estímulos constantes. Numa série de 300 tentativas, a freqüencia espacial foi variada, noutra série também de 300 tentativas, a extensão espacial foi variada, sendo que cada estímulo de teste em cada série foi apresentado pelo menos 10 vezes. A resposta do indivíduo em cada tentativa era guardada como correta ou errada para posterior construção das curvas psicométricas. Os pontos experimentais das funções psicométricas para espaço e freqüência espacial em cada nível de contraste, correspondentes aos percentuais de acertos, foram ajustados com funções gaussianas usando-se o método dos mínimos quadrados. Para cada nível de contraste, as entropias para espaço e freqüência espacial foram estimadas pelos desvios padrões dessas funções gaussianas e a entropia conjunta foi obtida multiplicando-se a raiz quadrada da entropia para espaço pela entropia para freqüência espacial. Os valores de entropia conjunta foram comparados com o mínimo teórico para sistemas lineares, 1/4π ou 0,0796. Para freqüências espaciais baixas e intermediárias, a entropia conjunta atingiu níveis abaixo do mínimo teórico em contrastes altos, sugerindo interações não lineares entre dois ou mais mecanismos visuais. Este fenômeno occorreu em todas as condições (acromática, cromática e cromática eqüiluminante) e foi mais acentuado para a frequência espacial de 0,4 ciclos / grau. Uma possível explicação para este fenômeno é a interação não linear entre as vias visuais retino-genículo-estriadas, tais como as vias K, M e P, na área visual primária ou em níveis mais altos de processamento neural.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dois dos principais objetivos da interpretação petrofísica de perfis são a determinação dos limites entre as camadas geológicas e o contato entre fluidos. Para isto, o perfil de indução possui algumas importantes propriedades: É sensível ao tipo de fluido e a distribuição do mesmo no espaço poroso; e o seu registro pode ser modelado com precisão satisfatória como sendo uma convolução entre a condutividade da formação e a função resposta da ferramenta. A primeira propriedade assegura uma boa caracterização dos reservatórios e, ao mesmo tempo, evidencia os contatos entre fluidos, o que permite um zoneamento básico do perfil de poço. A segunda propriedade decorre da relação quasi-linear entre o perfil de indução e a condutividade da formação, o que torna possível o uso da teoria dos sistemas lineares e, particularmente, o desenho de filtros digitais adaptados à deconvolução do sinal original. A idéia neste trabalho é produzir um algoritmo capaz de identificar os contatos entre as camadas atravessadas pelo poço, a partir da condutividade aparente lida pelo perfil de indução. Para simplificar o problema, o modelo de formação assume uma distribuição plano-paralela de camadas homogêneas. Este modelo corresponde a um perfil retangular para condutividade da formação. Usando o perfil de entrada digitalizado, os pontos de inflexão são obtidos numericamente a partir dos extremos da primeira derivada. Isto gera uma primeira aproximação do perfil real da formação. Este perfil estimado é então convolvido com a função resposta da ferramenta gerando um perfil de condutividade aparente. Uma função custo de mínimos quadrados condicionada é definida em termos da diferença entre a condutividade aparente medida e a estimada. A minimização da função custo fornece a condutividade das camadas. O problema de otimização para encontrar o melhor perfil retangular para os dados de indução é linear nas amplitudes (condutividades das camadas), mas uma estimativa não linear para os contatos entre as camadas. Neste caso as amplitudes são estimadas de forma linear pelos mínimos quadrados mantendo-se fixos os contatos. Em um segundo passo mantem-se fixas as amplitudes e são calculadas pequenas mudanças nos limites entre as camadas usando uma aproximação linearizada. Este processo é interativo obtendo sucessivos refinamentos até que um critério de convergência seja satisfeito. O algoritmo é aplicado em dados sintéticos e reais demonstrando a robustez do método.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Quando a área a ser irrigada apresenta um elevado gradiente de declive na direção das linhas de derivação, uma opção de dimensionamento é o uso de tubulações com vários diâmetros para economizar no custo e também para manter a variação de pressão dentro dos limites desejados. O objetivo deste trabalho foi desenvolver um modelo de programação linear para dimensionar sistemas de irrigação por microaspersão com linhas de derivação com mais de um diâmetro e operando em declive, visando a minimização do custo anualizado da rede hidráulica e do custo anual com energia elétrica, além de assegurar que a máxima variação de carga hidráulica na linha será respeitada. Os dados de entrada são: configuração da rede hidráulica do sistema de irrigação, custo de todos os componentes da rede hidráulica e custo da energia. Os dados de saída são: custo anual total, diâmetro da tubulação em cada linha do sistema, carga hidráulica em cada ponto de derivação e altura manométrica total. Para ilustrar a potencialidade do modelo desenvolvido, ele foi aplicado em um pomar de citros no Estado de São Paulo, Brasil. O modelo demonstrou ser eficiente no dimensionamento do sistema de irrigação quanto à obtenção da uniformidade de emissão desejada. O custo anual com bombeamento deve ser considerado no dimensionamento de sistemas de irrigação por microaspersão porque ele gera menores valores de custo anual total quando comparado com a mesma alternativa que não considera aquele custo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The present work aims to conduct a study of the economic feasibility of the implementation of variable frequency inverters in pump systems with variable flow rates. The concern with the reduction of energy expenditure in industries raised in 2001 due to the energy crisis that hit Brazil at that time, forcing industries to reduce their electric costs under penalty of fines if this were not done (MOREIRA, 2008). Frequency inverter is an electronic device that allow greater control in the operation of pumping systems and also a reduction in electrical consumption, being a viable solution to achieve a reduction in energy consumption. For the development of this work, approaching important topics in pumping systems was necessary in order to make a correct choice of hydraulic pumping and also other components responsible for the operation of the system , such as electric motors and frequency inverters. In the case study, a theoretical analysis of the behavior of electrical consumption in systems with variable flow rates was performed, comparing when the system is operated via frequency inverters and when the system is operated without such a device. As expected, the result of the implantation of the device was quite satisfactory, and the primary goal of reducing energy expenditure was achieved. Also important to highlight the environmental issue of this work, as all forms of energy production affects nature in some way, achieving a reduction in consumption also contributes indirectly in environmental conservation

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Companies that invest in current technologies maintain themselves updated, improve their business rules and anticipate themselves against rivals providing a better service to their customers. This project aims to develop an ERP - Enterprise Resource Planning module for Android which complements an existing manager system and, that attends the needs of a rental equipment business for civil building, i.e., it improves the communication channel company-client and betters the identification and control of products. During the developing of this project, it was necessary to study the company business rules, analyze the requirements and the appropriate technologies. This project was organized in two parts, contemplating e ach of these needs. It were implemented specific modules for generate budgets and pre-orders in the first part and, the use of radiofrequency tags in the second one. Thus, it was possible to assign mobility to company business rules so that a better rental service can be provided and the equipments can be better managed

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Engenharia Mecânica - FEB

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Engenharia Mecânica - FEIS