933 resultados para Controle de processos


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho investiga a implementação de sistemas fuzzy com circuitos eletrônicos. Tais sistemas têm demonstrado sua capacidade de resolver diversos tipos de problemas em várias aplicações de engenharia, em especial nas relacionadas com controle de processos. Para processos mais complexos, o raciocínio aproximado da lógica fuzzy fornece uma maneira de compreender o comportamento do sistema, permitindo a interpolação aproximada entre situações observadas de entrada e saída. A implementação de um sistema fuzzy pode ser baseada em hardware, em software ou em ambos. Tipicamente, as implementações em software utilizam ambientes de programação integrados com simulação, de modo a facilitar o trabalho do projetista. As implementações em hardware, tradicionais ou evolutivas, podem ser analógicas ou digitais e viabilizam sistemas de maior desempenho. Este trabalho tem por objetivo pesquisar a implementação eletrônica de sistemas fuzzy, a fim de viabilizar a criação de sistemas reais capazes de realizar o mapeamento de entrada e saída adequado. O foco é a utilização de uma plataforma com uma arquitetura analógico-digital baseada em uma tabela de mapeamento armazenada em uma memória de alta capacidade. Memórias do tipo SD (Secure Digital) foram estudadas e utilizadas na construção do protótipo eletrônico da plataforma. Também foram desenvolvidos estudos sobre a quantização, especificamente sobre a possibilidade de redução do número de bits. Com a implementação realizada é possível desenvolver um sistema fuzzy num ambiente simulado (Matlab), configurar a plataforma e executar o sistema fuzzy diretamente na plataforma eletrônica. Os testes com o protótipo construído comprovaram seu bom funcionamento.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Por um lado vivemos numa sociedade cujos padrões de conforto são cada vez mais exigentes, por outro encontramo-nos numa era pautada por um certo declínio económico, social e também ambiental. Não se assumindo uma estratégia que limite ou diminua essas condições de conforto resta-nos atuar de forma a que os recursos utilizados para garantir esse mesmo conforto sejam utilizados da melhor forma possível. O setor dos edifícios é responsável por uma grande parcela de consumo de energia na sociedade atual, sendo que os sistemas de climatização que dele fazem parte, apresentam.se na maioria dos casos como os grandes consumidores de energia. Nesse sentido têm sido feitos esforços enormes no sentido de encontrar soluções que garantam a eficiência energética destes sistemas. O Variador Eletrónico de Velocidade apresenta-se como uma das soluções amplamente difundidas, na vertente do controle de processos e economia de energia. A sua aplicação em sistema de climatização é mais um desses casos. Nesse sentido, numa primeira parte é feito o estudo das características e funcionamento dos Variadores de Velocidade, Sistemas de Climatização e sua aplicação conjunta. Em seguida é realizada uma aplicação informática que pretende demonstrar a economia de energia garantida por aplicação de um Variador de Velocidade.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O interesse de pesquisa da comunidade de Inteligência Artificial em Sistemas Multiagentes tem gerado o crescimento da utilização de técnicas de agentes nas mais diversas áreas da ciência da computação. Isso ocorre, principalmente, devido à variedade de aplicações em que esses sistemas podem ser usados, como por exemplo: jogos de computadores, interfaces adaptativas, simulação e controle de processos industriais. The Robot World Cup Initiative (RoboCup) é uma tentativa de estimular a área de Inteligência Artificial e, principalmente de Sistemas Multiagentes, por promover um problema padrão, jogar futebol, onde uma ampla cadeia de tecnologias podem ser integradas, examinadas e comparadas. A utilização do ambiente da RoboCup para a simulação de uma partida de futebol (simulador Soccerserver) permite a avaliação de diferentes técnicas de Sistemas Multiagentes (planejamento de estratégias, conhecimento em tempo real, colaboração de agentes, princípios de agentes autônomos, entre outros) e estimula as pesquisas, investigações e testes que possibilitem a construção gradativa de agentes avançados. O presente trabalho tem por objetivo o desenvolvimento de um time de futebol para o simulador Soccerserver. A idéia principal é desenvolver agentes jogadores que demonstrem um nível considerável de competência para a realização de suas tarefas, como percepção, ação, cooperação, estratégias pré-definidas, decisão e previsão. Inicialmente, apresenta-se uma visão geral sobre Inteligência Artificial Distribuída e sobre o simulador Soccerserver, pré-requisitos para o restante do trabalho. A seguir, é realizado um estudo sobre algumas arquiteturas de agentes (clientes) do Soccerserver. A arquitetura proposta na dissertação, suas principais características e a sua materialização em um protótipo desenvolvido correspondem à parte principal do trabalho. Finalmente são apresentados os testes realizados e as conclusões do trabalho.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho consistiu no pós-tratamento de efluente de reator anaeróbio, em um sistema de reator seqüencial em batelada (RSB), com vistas à remoção biológica de nitrogênio e fósforo. Primeiramente, em escala de laboratório, verificou-se a eficiência de três RSBs, com ciclos operacionais diferenciados, tratando o efluente produzido por um reator seqüencial em batelada anaeróbio (RSBAn), alimentado por esgoto sintético, caracteristicamente doméstico. Neste experimento, também acoplou-se um sistema de aquisição de dados aos RSBs, para monitorar continuamente os parâmetros pH, redox e OD, com o objetivo de obter pontos inferenciais de controle dos processos de nitrificação, desnitrificação e remoção biológica de fósforo. Subseqüente a este experimento, desenvolveu-se um sistema de RSB em escala piloto, tratando o efluente anaeróbio real de um UASB (Upflow Anaerobic Sludge Blanket), no intuito de analisar o efeito da mudança de escala e do tipo de esgoto, que passou de sintético a real, na performance do RSB. No experimento em escala de laboratório, os resultados obtidos demonstraram boas eficiências de remoção de DQO e SS, e uma ótima eficiência no processo de nitrificação. As eficiências médias de remoção de DQO, SS e nitrificação, foram respectivamente de 93,3%, 90,7% e 98,9%. O processo de desnitrificação não desenvolveu-se satisfatoriamente devido às baixas concentrações de matéria orgânica do efluente anaeróbio. O processo de remoção biológica de fósforo, além das baixas DQO afluentes, foi prejudicado pelas idades de lodo extremamente longas estabelecidas nesta fase experimental, em função da aplicação da estratégia de controle de processo baseada na concentração de SSV no licor. Objetivando-se aumentar a concentração de matéria orgânica imediatamente disponível no afluente, com o conseqüente acréscimo de eficiência nos processos de desnitrificação e remoção biológica de fósforo, introduziu-se um pré-fermentador, para gerar metade do efluente anaeróbio a ser tratado nos RSBs. O controle do processo passou a ser efetuado através da aplicação de uma idade de lodo pré-estabelecida de 20 dias. Observou-se um aumento bastante significativo do processo de desnitrificação, atingindo uma eficiência da ordem de 70,4%. No entanto, as maiores concentrações de matéria orgânica solúvel, com a introdução do pré-fermentador, não foram suficientes para estimular o desenvolvimento das bactérias removedoras de fósforo. Um aumento de DQO do esgoto sintético foi necessário para permitir a simultaneidade dos processos de desnitrificação e remoção de fósforo. Porém, apesar de apresentar ciclos operacionais com eficiências de 100% de remoção de fósforo, este processo não mostrou-se confiável, alternando entre fases de boas, médias e más eficiências. Provavelmente as idades de lodo, ainda muito altas para promover a remoção de fósforo do sistema, justificam a permanência bastante irregular na eficiência deste processo. Neste período, a concentração média de DQO necessária para atingir-se uma eficiência satisfatória nos processos conjuntos de nitrificação e desnitrificação, foi de 644,6 mg/L. As seguintes eficiências foram observadas: 95,8% na remoção de DQO, 98,7% na nitrificação, 76,8% na desnitrificação e 74,5% na remoção de nitrogênio. O acompanhamento "on line" de pH, redox e OD mostrou-se como uma eficiente ferramenta inferencial no controle de processos biológicos, principalmente daqueles referentes à remoção de nitrogênio. Dentre os três parâmetros monitorados, o pH apresentouse como o mais representativo. No experimento em escala piloto, o processo de nitrificação não desenvolveu-se possivelmente devido ao efeito conjunto de baixos tempos de detenção nas etapas aeróbias dos ciclos operacionais dos RSBs, com a ação tóxica de sulfetos produzidos no tratamento anaeróbio. O processo de remoção biológica de fósforo, similarmente ao experimento em escala de bancada, não mostrou-se confiável, apresentando períodos alternados de eficiência. Por fim, com vistas a verificar o desenvolvimento de processo inibitório por efluentes de tratamento anaeróbio em sistemas aeróbios, realizou-se uma série de testes de inibição com o efluente anaeróbio e também especificamente com sulfeto. Os testes respirométricos (DBO última e em batelada), foram de essencial importância para analisar a tratabilidade biológica de esgoto contendo composto tóxico. Pôde-se comprovar que o sulfeto, presente no efluente anaeróbio real, ou o efeito de sua combinação com outras substâncias contidas no lodo ativado, alterou a cinética dos processos biológicos desenvolvidos no sistema de tratamento do tipo lodo ativado.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A estrutura da maioria das modernas empresas está baseada na separação entre propriedade e controle. Os processos de decisão dessas empresas baseiam-se no desenho subjacente a essa estrutura, e todo este conjunto (desenho e processos) constitui o modelo de Governança Corporativa da empresa. Tal modelo implica uma série de conflitos e de assimetrias de informação, devidamente identificados na literatura de Teoria de Agencia e alargado na moderna pesquisa em Governança Corporativa. Este trabalho visa contribuir para a compreensão da relação entre os modelos de Governança Corporativa e o valor das empresas Brasileiras, medido pelo seu desempenho na Bolsa de Valores de São Paulo entre os anos de 2002 e 2006. Em particular pretende-se verificar se existe uma relação significante entre a separação propriedade / controle e o valor das empresas Brasileiras, além de se testar a linearidade desta relação.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The present work consists on the development and exploration of a knowledge mapping model. It is aimed in presenting and testing that model in an exploratory manner for the operationalization in theoretical terms and its practical application. For this proposal, it approaches ¿knowledge management¿ by three dimensions of management: processes control, results control and leadership. Assuming the inherently personal character of knowledge and admitting the impossibility for the management to command the individuals knowledge mental processes, this study states the possibility for management to control the organizations information processes, to state and to monitor the objectives and to lead people. Therefore, the developed tool searches to graphically represent the people¿s knowledge, which becomes, consequently, information. Also it evaluates the individual¿s maturity against the identified knowledge and prescribes, according to the Situational Leadership Theory, a style of leadership in compliance with the respective maturities. The knowledge map considered here translates the graphical representation of the relevant knowledge that is said to reach the objectives of the organization. That fact allows the results management for two reasons: first, the knowledge items are directly or indirectly connected to an objective and second, the knowledge map developed indicates a importance grade of the identified knowledge for the main objective stated. The research strategy adopted to explore the model of knowledge mapping and to test its applicability, also identifying its possible contributions and limitations, is the Actionresearch. Following the research strategy¿s prescribed stages, the knowledge map, as considered by this study, was applied in a software development company to hospitals, clinics and restaurants management which is called ¿Tergus Systems and Consulting¿. More precisely, the knowledge map was applied in the customer support company¿s area for hospitals. The research¿s empirical evidences had concluded that the model is applicable with low level of complexity, but with great demand of time. The more important contributions are related to the identification of the relevant knowledge to the department objectives in set with a prescription of the knowledge capture and transference necessities, as well as, the orientation for the appropriate leadership style for each subordinate related to the knowledge item in question.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O presente trabalho tem por finalidade identificar o papel do magistrado como gestor de seu gabinete, focado nos gabinetes dos desembargadores e juízes de direito convocados no âmbito das Câmaras Cíveis do Tribunal de Justiça do Rio Grande do Sul. Para tanto, abordou-se as atividades de gestão sob os pilares do planejamento das atividades, da organização das rotinas, da liderança do magistrado e do controle dos processos e dos resultados. Em seguida, analisou-se a situação atual do modelo de gestão do Tribunal de Justiça rio-grandense, no que tange à implantação da metodologia da Qualidade Total como ferramenta de gestão do gabinete. Agregou-se a esses fundamentos a pesquisa de campo, com a coleta de dados acerca da diversidade de práticas de gestão encontradas no âmbito desse tribunal. Pelos resultados da pesquisa teórica e prática, foi possível apresentar uma proposta de estruturação de um “gabinete-modelo” e a definição de suas rotinas através da padronização dos procedimentos executados.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Nas indústrias de processo, algumas variáveis como as composições de topo de colunas de destilação são quantificadas através de análises laboratoriais e ou de analisadores em linha. Este tipo de controle apresenta algumas limitações tais como custos de manutenção e o tempo de amostragem (em geral análises laboratoriais ocorrem de 1 a 3 vezes ao dia). Para melhoria destes métodos, as variáveis podem ser continuamente estimadas a partir de sua relação com as variáveis medidas diretamente no processo. Através de um algoritmo matemático, um analisador virtual de propriedades pode ser construído, sendo necessário para o seu desenvolvimento um modelo simplificado do processo. Este trabalho teve como objetivo a construção de dois analisadores virtuais para estimação das composições de topo de duas colunas fracionadoras de tolueno presentes em uma indústria petroquímica. Para tal, estudou-se as metodologias existentes para construção de analisadores voltados para aplicações em colunas de destilação. O desenvolvimento de analisadores virtuais tem como base três etapas: seleção de variáveis secundárias, construção de modelos e correção/adaptação de modelos. Tais etapas, baseadas principalmente em métodos estatísticos, foram estudadas e as técnicas que melhor se adaptaram ao caso em questão foram empregadas com resultados satisfatórios. Realizaram-se também estudos comparativos entre modelos estacionários e dinâmicos e modelos construídos a partir de dados de simulação e de processo. As simulações foram conduzidas nos softwares Aspen PlusÒ e Aspen DynamicsÒ e o software usado para implementação dos analisadores na indústria foi o Aspen IQÒ.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A presente dissertação procura conhecer a visão do gestor da qualidade em quatro unidades hospitalares certificadas de um hospital de grande porte do Município de São Paulo sobre o processo de implantação do modelo ISO 9002. São identificados, a partir da visão dos gestores, os aspectos impulsionadores e limitantes do processo de implantação, bem como as vantagens, desvantagens e especificidades do modelo, quando aplicado ao setor saúde. A padronização e o controle dos processos de trabalho são a tônica do modelo. Os maiores desafios da sua aplicação em unidades hospitalares estão relacionados com o problema da linguagem e da adaptação do modelo aos processos assistenciais.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Sistemas Gerenciadores de Workflow (SGWf) têm atraído muita atenção nos últimos anos, por serem baseados em um modelo simples que permite definir, executar e monitorar a execução de processos. Mas este esquema é um tanto quanto rígido e inflexível, apresentando alguns problemas quando da necessidade de sua utilização no controle de processos com características cooperativas, em que o comportamento humano deve ser levado em conta. Este tipo de processo deve apresentar uma certa flexibilidade de forma a possibilitar a troca de resultados entre tarefas, acabando com a dependência fim-início existente entre tarefas seqüenciais nos SGWfs tradicionais. A fim de possibilitar este tipo de comportamento, surge a antecipação de tarefas, que tem por objetivo oferecer meios de flexibilizar o fluxo de controle e o fluxo de dados para permitir que tarefas possam ser disparadas antes mesmo da conclusão de suas antecessoras. A antecipação implica no aumento da cooperação entre tarefas e em melhor desempenho com relação ao tempo de execução dos processos. O aumento na cooperação está relacionado diretamente à troca de resultados, permitindo que duas ou mais tarefas trabalhem sobre instâncias de um determinado dado que ainda está sendo produzido. O melhor desempenho deve-se ao paralelismo (parcial) criado entre tarefas que deveriam executar de maneira estritamente seqüencial, devido ao disparo das tarefas antes do previsto. Este trabalho então, apresenta um estudo das abordagens de flexibilização de SGWfs, visando encontrar maneiras de prover antecipação de tarefas. O principal objetivo do trabalho é verificar a melhoria de desempenho em termos de tempo de execução dos processos que se pode obter utilizando a antecipação de tarefas Para tal, foi desenvolvido um simulador que suporta a antecipação de tarefas e foram conduzidas simulações, que mostraram os ganhos e alguns padrões de comportamento da utilização da antecipação de tarefas. Para possibilitar o uso da antecipação em processos reais foram realizadas alterações na ferramenta de definição de processos Amaya Workflow e na máquina de workflow do projeto CEMT.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O objetivo deste trabalho é o desenvolvimento de uma ferramenta de regressão multivariável apropriada para abordar o problema da modelagem de propriedades relacionadas à qualidade final de produtos em processos industriais. No caso geral, dados provenientes de sistemas físicos e químicos típicos do meio industrial são caracterizados pela presença de relação não linear entre as variáveis, podendo, ainda, apresentar outros problemas que dificultam o processo de modelagem empírica, como baixa disponibilidade de observações experimentais, presença de ruído excessivo nas medidas e a presença de colinearidade entre os termos explicativos. Foi feita uma revisão de diferentes métodos de regressão multivariável tais como regressão linear múltipla (MLR), regressão não linear baseada em transformações das variáveis explicativas e métodos de redução de dimensionalidade (PCA, PLS, QPLS e BTPLS). Também foram propostas novas metodologias para a abordagem das questões da seleção de variáveis e estimação das incertezas dos modelos. Posteriormente, utilizando as metodologias revisadas e propostas, foi sugerida uma sistemática para o tratamento da questão da modelagem empírica de dados industriais, que constitui a base para a implementação da ferramenta desejada. A aplicabilidade da ferramenta desenvolvida foi ilustrada através de alguns estudos de caso retirados da literatura, onde modelos para a predição de propriedades relativas à qualidade de produtos produzidos em quatro tipos de processos industriais diferentes são obtidos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A maioria dos métodos de síntese e sintonia de controladores, bem como métodos de otimização e análise de processos necessitam de um modelo do processo em estudo. A identificação de processos é portanto uma área de grande importância para a engenharia em geral pois permite a obtenção de modelos empíricos dos processos com que nos deparamos de uma forma simples e rápida. Mesmo não utilizando leis da natureza, os modelos empíricos são úteis pois descrevem o comportamento específico de determinado processo. Com o rápido desenvolvimento dos computadores digitais e sua larga aplicação nos sistemas de controle em geral, a identificação de modelos discretos foi amplamente desenvolvida e empregada, entretanto, modelos discretos não são de fácil interpretação como os modelos contínuos pois a maioria dos sistema com que lidamos são de representação contínua. A identificação de modelos contínuos é portanto útil na medida que gera modelos de compreensão mais simples. A presente dissertação estuda a identificação de modelos lineares contínuos a partir de dados amostrados discretamente. O método estudado é o chamado método dos momentos de Poisson. Este método se baseia em uma transformação linear que quando aplicada a uma equação diferencial ordinária linear a transforma em uma equação algébrica evitando com isso a necessidade do cálculo das derivadas do sinais de entrada e saída Além da análise detalhada desse método, onde demonstramos o efeito de cada parâmetro do método de Poisson sobre o desempenho desse, foi realizado também um estudo dos problemas decorrentes da discretização de sinais contínuos, como por exemplo o efeito aliasing decorrente da utilização de tempos de amostragem muito grandes e de problemas numéricos da identificação de modelos discretos utilizando dados com tempos de amostragem muito pequenos de forma a destacar as vantagens da identificação contínua sobre a identificação discreta Também foi estudado um método para compensar a presença de offsets nos sinais de entrada e saída, método esse inédito quando se trata do método dos momentos de Poisson. Esse trabalho também comprova a equivalência entre o método dos momentos de Poisson e uma metodologia apresentada por Rolf Johansson em um artigo de 1994. Na parte final desse trabalho são apresentados métodos para a compensação de erros de modelagem devido à presença de ruído e distúrbios não medidos nos dados utilizados na identificação. Esses métodos permitem que o método dos momentos de Poisson concorra com os métodos de identificação discretos normalmente empregados como por exemplo ARMAX e Box-Jenkins.