976 resultados para Simulação de processos
Resumo:
As operações de separação por adsorção têm vindo a ganhar importância nos últimos anos, especialmente com o desenvolvimento de técnicas de simulação de leitos móveis em colunas, tal como a cromatografia de Leito Móvel Simulado (Simulated Moving Bed, SMB). Esta tecnologia foi desenvolvida no início dos anos 60 como método alternativo ao processo de Leito Móvel Verdadeiro (True Moving Bed, TMB), de modo a resolver vários dos problemas associados ao movimento da fase sólida, usuais nestes métodos de separação cromatográficos de contracorrente. A tecnologia de SMB tem sido amplamente utilizada em escala industrial principalmente nas indústrias petroquímica e de transformação de açúcares e, mais recentemente, na indústria farmacêutica e de química fina. Nas últimas décadas, o crescente interesse na tecnologia de SMB, fruto do alto rendimento e eficiente consumo de solvente, levou à formulação de diferentes modos de operação, ditos não convencionais, que conseguem unidades mais flexíveis, capazes de aumentar o desempenho de separação e alargar ainda mais a gama de aplicação da tecnologia. Um dos exemplos mais estudados e implementados é o caso do processo Varicol, no qual se procede a um movimento assíncrono de portas. Neste âmbito, o presente trabalho foca-se na simulação, análise e avaliação da tecnologia de SMB para dois casos de separação distintos: a separação de uma mistura de frutose-glucose e a separação de uma mistura racémica de pindolol. Para ambos os casos foram considerados e comparados dois modos de operação da unidade de SMB: o modo convencional e o modo Varicol. Desta forma, foi realizada a implementação e simulação de ambos os casos de separação no simulador de processos Aspen Chromatography, mediante a utilização de duas unidades de SMB distintas (SMB convencional e SMB Varicol). Para a separação da mistura frutose-glucose, no quediz respeito à modelização da unidade de SMB convencional, foram utilizadas duas abordagens: a de um leito móvel verdadeiro (modelo TMB) e a de um leito móvel simulado real (modelo SMB). Para a separação da mistura racémica de pindolol foi considerada apenas a modelização pelo modelo SMB. No caso da separação da mistura frutose-glucose, procedeu-se ainda à otimização de ambas as unidades de SMB convencional e Varicol, com o intuito do aumento das suas produtividades. A otimização foi realizada mediante a aplicação de um procedimento de planeamento experimental, onde as experiências foram planeadas, conduzidas e posteriormente analisadas através da análise de variância (ANOVA). A análise estatística permitiu selecionar os níveis dos fatores de controlo de modo a obter melhores resultados para ambas as unidades de SMB.
Resumo:
Construção de software com qualidade tem motivado diversas pesquisas na área de Engenharia de Software. Problemas como a grande complexidade requerida pelas aplicações atuais e a necessidade de gerenciamento de um número cada vez maior de pessoas envolvidas em projetos são obstáculos para serem transpostos. Trabalhos relacionados a tecnologia de processos de software aparecem como uma proposta para se obter maior controle das atividades realizadas com o intuito de se obter maior qualidade. A simulação de processos de software, através da representação dos passos definidos em um modelo, tem sido utilizada no auxílio a gerentes de projetos de sistemas para fornecer-lhes informações preciosas sobre o desenvolvimento de um sistema especificado. A representação de conhecimento a respeito das características relacionadas a um ambiente de desenvolvimento ajuda na obtenção de simulações mais realísticas. A partir do modelo, o simulador obtém uma descrição do ambiente em que deve atuar, baseado no conhecimento que se tem a respeito do ambiente. Esse trabalho apresenta um modelo de simulação de processos de software baseado em conhecimento para ser inserido em um ambiente de engenharia de processos de software. A função do modelo é simular um processo de software instanciado, procurando detectar inconsistências no mesmo que possam gerar problemas durante a sua execução, como aumento de custos e comprometimento da qualidade do(s) produto(s) obtido(s). Após a simulação o projetista pode constatar a necessidade de se refazer o modelo, ajustar parâmetros ou executar o processo de software. O objetivo da simulação, nesse trabalho, é auxiliar as pessoas responsáveis por um ambiente de desenvolvimento a obter modelos de processos validados. O modelo de simulação foi definido para ser utilizado no ambiente PROSOFT, que é um ambiente de desenvolvimento que permite a integração de novas ferramentas para desenvolvimento de software. O ambiente PROSOFT vem recebendo propostas de extensão que tem contribuído para o seu aprimoramento, fornecendo para seus usuários uma quantidade cada vez maior de ferramentas de auxílio a construção de artefatos de software. As propostas mais recentes foram um modelo para construção de sistemas especialistas, a definição de um ambiente cooperativo e um gerenciador de processos de software. ATOs algébricos (construções do PROSOFT) são utilizados para especificar formalmente o modelo de simulação definido neste trabalho. A validação é realizada através de um modelo em UML (Unified Method Language) que foi utilizado como base para a construção de um programa implementado usando a linguagem Java. Isso ocorre porque a ferramenta do PROSOFT (implementada em Java) que seria utilizada para validar as especificações algébricas ainda não está finalizada.
Resumo:
Esta dissertação apresenta a modelagem de uma ferramenta baseada em SMA para a simulação da produção e gestão social de um ecossistema urbano, a organização social do Projeto da Horta San Jeronimo(SJVG), localizado no Parque San Jeronimo Sevilha, Espanha, que e coordenado pela confederação Ecologistas en Accion . Estes processos sociais observados no projeto do SJVG são caracterizados pela ocorrência de uma serie de interações e trocas sociais entre os participantes. Além disso, os comportamentos periódicos, interações e comunicações são regulados pelo Regimento de Normas Internas, estabelecidos pela comunidade em assembleia, sob a supervisão e coordenação da confederação EA. O SMA foi concebido como um sistema JaCaMo multidimensional, composto por cinco dimensões integradas: a população de agentes, os artefatos normativos (a organização), os artefatos físicos (o ambiente dos agentes), artefatos de comunicação (o conjunto de interações) e os artefatos normativos (política normativa interna). A ferramenta utilizada no projeto e o framework JaCaMo, uma vez que apresenta suporte de alto nível e modularidade para o desenvolvimento das três primeiras dimensões acima mencionadas. Mesmo tendo enfrentado alguns problemas importantes que surgiram adotando o framework JaCaMo para desenvolvimento do Projeto SJVG-SMA, como: (i) a impossibilidade de especificação da periodicidade no modelo MOISE, (II) a impossibilidade de definir normas, seus atributos básicos (nome, periodicidade, papel a que se aplica) e as sanções, e (III) a inexistência de uma infraestrutura modular para a definição de interações através da comunicação, foi possível adotar soluções modulares interessantes para manter a ideia de um SMA de 5 dimensões, desenvolvidos na plataforma JaCaMo. As soluções apresentadas neste trabalho são baseadas principalmente no âmbito do Cartago, apontando também para a integração de artefatos organizacionais, normativos, físicos e de comunicação.
Resumo:
Em um ambiente virtual, construído com o uso de tecnologia computacional, encontram-se presentes entidades virtuais inseridas em um espaço tridimensional, que é utilizado para a simulação de processos críticos, como os acidentes radiológicos. A pronta detecção de um acidente radiológico e a determinação da sua possível extensão são fatores essenciais para o planejamento de respostas imediatas e de ações de emergência. A integração das representações georeferenciadas do espaço tridimensional, com modelos baseados em agentes autônomos, com o objetivo de construir ambientes virtuais que tenham a capacidade de simular acidentes radiológicos é a proposta dessa tese. As representações georeferenciadas do espaço tridimensional candidatas são: i)as representações espaciais usadas nos sistemas de informações geográficas (SIG) e ii) a representação adotada pelo Google MapsTM. Com o uso deste ambiente pode-se: quantificar as doses recebidas pelas pessoas; ter uma distribuição espacial das pessoas contaminadas; estimar o número de indivíduos contaminados; estimar o impacto na rede de saúde; estimar impactos ambientais; gerar zonas de exclusão; construir cenários alternativos; treinar pessoal técnico para lidar com acidentes radiológicos.
Resumo:
Diversas aplicações industriais relevantes envolvem os processos de adsorção, citando como exemplos a purificação de produtos, separação de substâncias, controle de poluição e umidade entre outros. O interesse crescente pelos processos de purificação de biomoléculas deve-se principalmente ao desenvolvimento da biotecnologia e à demanda das indústrias farmacêutica e química por produtos com alto grau de pureza. O leito móvel simulado (LMS) é um processo cromatográfico contínuo que tem sido aplicado para simular o movimento do leito de adsorvente, de forma contracorrente ao movimento do líquido, através da troca periódica das posições das correntes de entrada e saída, sendo operado de forma contínua, sem prejuízo da pureza das correntes de saída. Esta consiste no extrato, rico no componente mais fortemente adsorvido, e no rafinado, rico no componente mais fracamente adsorvido, sendo o processo particularmente adequado a separações binárias. O objetivo desta tese é estudar e avaliar diferentes abordagens utilizando métodos estocásticos de otimização para o problema inverso dos fenômenos envolvidos no processo de separação em LMS. Foram utilizados modelos discretos com diferentes abordagens de transferência de massa, com a vantagem da utilização de um grande número de pratos teóricos em uma coluna de comprimento moderado, neste processo a separação cresce à medida que os solutos fluem através do leito, isto é, ao maior número de vezes que as moléculas interagem entre a fase móvel e a fase estacionária alcançando assim o equilíbrio. A modelagem e a simulação verificadas nestas abordagens permitiram a avaliação e a identificação das principais características de uma unidade de separação do LMS. A aplicação em estudo refere-se à simulação de processos de separação do Baclofen e da Cetamina. Estes compostos foram escolhidos por estarem bem caracterizados na literatura, estando disponíveis em estudos de cinética e de equilíbrio de adsorção nos resultados experimentais. De posse de resultados experimentais avaliou-se o comportamento do problema direto e inverso de uma unidade de separação LMS visando comparar os resultados obtidos com os experimentais, sempre se baseando em critérios de eficiência de separação entre as fases móvel e estacionária. Os métodos estudados foram o GA (Genetic Algorithm) e o PCA (Particle Collision Algorithm) e também foi feita uma hibridização entre o GA e o PCA. Como resultado desta tese analisouse e comparou-se os métodos de otimização em diferentes aspectos relacionados com o mecanismo cinético de transferência de massa por adsorção e dessorção entre as fases sólidas do adsorvente.
Resumo:
A destilação é o principal processo de separação usado nas indústrias químicas para separação de misturas líquidas, e apesar de ser um processo muito intensivo energeticamente continua hoje em dia a ser o processo de separação preferencial. O largo impacto dos processos de destilação nos custos de investimento e operação tem impulsionado o desenvolvimento de sistemas complexos de destilação, cuja principal finalidade consiste na otimização energética do processo de separação. No âmbito do estudo da utilização de colunas de elevada eficiência energética para separações multicomponente através da simulação de processos, o presente trabalho foca-se na compreensão, análise e avaliação da Coluna de Petlyuk, sistema de colunas com acoplamento térmico integral (FTCDC), inicialmente introduzida na década de 1940, com um reportado potencial para poupanças energéticas até cerca de 30% relativamente ao sistema tradicional. Para a simulação dos sistemas em estudo foi usado o software de simulação de processos HYSYS, cuja aplicação é desenvolvida e analisada no decurso deste trabalho, o qual é dividido em três partes principais: implementação dos processos em HYSYS para simulação rigorosa em modo de estado estacionário, otimização e simulação dinâmica e controlo. A primeira parte diz respeito ao design dos sistemas e âmbito de aplicação do HYSYS nesta etapa. Através do estudo da separação de mistura ternária equimolar de isómeros de butanol, é apresentado um procedimento de implementação do sistema FTCDC e avaliados os resultados de simulação rigorosa fazendo a sua comparação com os resultados obtidos para o sistema tradicional. A segunda parte é dedicada à otimização de ambos os sistemas, FTCDC e tradicional, cujos estudos se baseiam na simulação em estado estacionário. O elevado número de variáveis de design do sistema FTCDC pode conduzir a tedioso e moroso trabalho de simulação. Neste trabalho são aplicadas metodologias de desenho de experiências na otimização do sistema FTCDC, as quais permitiram uma significativa redução o número de simulações a executar, sendo o procedimento de otimização, baseado no procedimento de desenhos de experiências, desenvolvido ao longo desta parte. Os resultados de otimização de ambos os sistemas são avaliados e comparados. A última parte deste trabalho debruça-se sobre o tema da operabilidade dos sistemas, avaliada através da simulação dinâmica dos mesmos e avaliação da estrutura de controlo implementada. A simulação dinâmica de processos, baseada em modelos dinâmicos, permite melhorar o seu design, otimização e operação, cujos resultados traduzirão de uma forma mais realística o desempenho do processo desenhado, uma vez que estes nunca se encontram num verdadeiro estado estacionário. Nesta parte é apresentado o procedimento de implementação da simulação dinâmica de ambos os sistemas, no qual se inclui a definição da configuração de controlo para cada um destes. Através dos resultados de simulação dinâmica de ambos os sistemas é avaliado o seu design e respetiva estrutura de controlo.
Resumo:
O bom dimensionamento de equipes contribui para o aumento do nível dos serviços prestados pelas empresas, com o menor custo possível. Uma alternativa para abordar a questão foi dimensionar as equipes de eletricistas, de uma empresa do setor elétrico, (utilizando técnicas de previsão de demanda, de simulação e de alocação) para atender de forma otimizada, a demanda variável das atividades prestadas - fornecimento de energia. Um equilíbrio entre a demanda por serviços e a capacidade de execução da empresa evitaria longas filas de espera dos clientes e servidores (eletricistas) ociosos. Cinco etapas forma cumpridas: fase exploratória, coleta de dados, previsão de demanda e simulação do processo e alocação do recurso. Na primeira houve um entendimento de como chegava o pedido do serviço na empresa até a finalização da ordem de serviço. Na coleta de dados foram levantados aproximadamente 80 tipos diferentes de atividades desenvolvidas pelos eletricistas e classificadas de acordo com a prioridade de urgência, prazos de atendimento dos serviços e afinidade de execução das tarefas. Nesta etapa ainda foram coletados os volumes de serviços gerados e tempos médios de deslocamento e execução das atividades. Na terceira etapa foi utilizado um software de previsão de demanda chamado Forecast Pro, possibilitando a escolha automática do modelo de previsão mais apropriado para a série histórica em estudo. Na quarta etapa, foi utilizado um software de simulação de processos chamado Arena. Desenvolveu-se um modelo do processo real com os respectivos dados de entrada dos serviços, tempos de deslocamento e execução e número de equipes. Na última etapa, utilizando a ferramenta Solver do Excel otimizou-se o número de equipes. Um dos resultados da ação foi obter vários cenários com a variação do número de equipes e seus respectivos tempos médios de atendimento, sem causar nenhum dano para a empresa, podendo assim ser analisado qual o melhor cenário para ser implementado na companhia, minimizando o problema.
Resumo:
Simulador de processos é uma ferramenta valiosa, pois possibilita desde a validação de projetos e sua operabilidade prática até aumentos de produção e redução de custos. Devido a estes e outros fatores, o interesse industrial em técnicas e pacotes computacionais para a modelagem, simulação e otimização de processos tem crescido muito nos últimos anos. Juntamente com este interesse cresce a qualidade das ferramentas disponíveis no mercado para tal, mas estas ainda não satisfazem totalmente as expectativas de seus usuários. Este trabalho consiste no projeto de um novo simulador genérico para processos dinâmicos que satisfaça os usuários de forma mais completa do que os disponíveis atualmente no mercado. Para tanto, foram reunidas e, quando necessário, desenvolvidas novas técnicas relativas à descrição, análise e solução de problemas dinâmicos. Uma nova linguagem de modelagem orientada a objetos e um sistema de tradução da representação nesta linguagem para sistemas de equações foram propostos. Métodos de análise dos sistemas de equações provenientes da modelagem foram desenvolvidos com o intuito de auxiliar o usuário na detecção de erros de modelagem. Algoritmos para solução de sistemas dinâmicos e estacionários foram reunidos e uma arquitetura interna foi proposta. Por fim, o sistema como um todo foi testado através de sua aplicação em problemas típicos e outros que não podem ser resolvidos diretamente com os pacotes computacionais disponíveis no mercado. O teste com os problemas práticos provou que a estrutura proposta é adequada e apresenta uma série de vantagens quando comparada com softwares largamente utilizados na simulação de processos.
Resumo:
This scientific research aimed at presenting a comparative analysis of softwares used to represent the processes of flood wave and debris flow. For this, a literature review was performed on these processes and on simulation models used to represent them. Then, a research on scientific database and developers’ websites was performed to identify the softwares used to simulate these processes. This step was performed based on specific criteria such as the type of simulation performed by the software, its practical applications and a user friendly interface. A free distribution and totally functional software was chosen and its simulation mechanisms were tested through a simulation exercise and the results interpreted based on data on measured in the Basin of Ribeirão Marins section Monjolinho located in Piracicaba - SP. With respect to the processes, it was sought to present the dynamics, constraints, parameters and variables used to understand them and for the simulation models were presented the conceptual aspects of mathematical modeling including the steps of the simulation process and the different types of simulation models used to represent them. In total, 20 softwares were identified, and the software object of analysis was the ABC 6 that performs simulation of flood wave. Through the simulation exercise, it was observed that were presented overestimated values of flow compared to measured data in the basin. For both hypotheses were raised about the causes of the discrepancy between the observed and simulated flow. It has been concluded that the simulation process consisted of a complex procedure where generalizations, misrepresentations and simplifications may occur due to the data used and the method adopted, but it is a useful tool in planning and decision making in various types of studies and environmental projects
Resumo:
A simulação computacional de processos é uma ferramenta valiosa em diversas etapas da operação de uma planta química, tais como o projeto, a análise operacional, o estudo da estratégia de controle e a otimização, entre outras. Um programa simulador requer, freqüentemente, o cálculo das propriedades termofísicas que fazem parte das equações correspondentes aos balanços de massa, energia e quantidade de movimento. Algumas dessas quantidades, típicas de operações baseadas no equilíbrio de fases (tais como a destilação fracionada e a separação flash), são as fugacidades e entalpias das fases líquida e vapor em equilíbrio. Contudo, o uso de modelos e correlações cada vez mais sofisticadas para representar acuradamente as propriedades termofísicas dos sistemas reais fez com que grande parte do tempo gasto numa simulação de processos seja devida à avaliação destas propriedades. Muitas estratégias têm sido propostas na literaturas a fim de se reduzir a carga computacional envolvida na simulação, estática e dinâmica, dos problemas de Engenharia Química. Esta diminuição do tempo de processamento pode muitas vezes ser determinante na aplicação ou não da simulação de processos na prática industrial, como, por exemplo, no controle automático. Esta dissertação aborda uma das alternativas para a redução do tempo computacional gasto na simulação de processos: a aproximação das funções que descrevem as propriedades termofísicas através de funções mais simples, porém de fácil avaliação. Estas funções, a fim de se garantir uma aproximação adequada, devem ser corrigidas ou atualizadas de alguma forma, visto que se tratam de modelos estritamente válidos em uma pequena região do espaço das variáveis, sendo, por isto, chamados de modelos locais. Partindo-se do estado atual desta técnica, é proposta nesta dissertação uma nova metodologia para se efetuar esta aproximação, através da representação global da propriedade mediante múltiplas funções simples, constituindo, desse modo, uma rede de modelos locais. Algumas possibilidades para a geração efetiva destas redes são também discutidas, e o resultado da metodologia é testado em alguns problemas típicos de separação por equilíbrio de fases.
Resumo:
Pós-graduação em Engenharia Mecânica - FEG
Resumo:
Pós-graduação em Agronomia (Energia na Agricultura) - FCA
Resumo:
In the treatment plans in conventional Proton therapy are considered only the elastic interactions of protons with electrons and/or nuclei, it means, mainly ionization and coulomb excitation processes. As the energy needed to reach the deep tumors should be of several hundred of MeVs, certainly the nuclear inelastic channels are open. Only some previous studies of the contribution of these processes in the full dose have been made towards targets composed of water. In this study will be presented the results of the simulation of the processes of interaction of beams of protons in the range of 100-200 MeV of energy with a cylindrical phantom composed by striated muscle (ICRU), emphasizing in the contribution to total dose due to the deposition of energy by secondary particles alpha (α), deuterium (2H), tritium (3H), neutron (n) and hélio3 (3He), originated by nuclear inelastic processes. The simulations were performed by using the method of Monte Carlo, via the computer code MCNPX v2.50 (Monte Carlo N-Particle eXtended). The results will be shown demonstrated through the graphics of the deposited dose with or without nuclear interaction, the percentual of dose deposited by secondary particles, the radial dispersion of neutrons, as well as the multiplicity of secondary particles
Resumo:
In a industrial environment, to know the process one is working with is crucial to ensure its good functioning. In the present work, developed at Prio Biocombustíveis S.A. facilities, using process data, collected during the present work, and historical process data, the methanol recovery process was characterized, having started with the characterization of key process streams. Based on the information retrieved from the stream characterization, Aspen Plus® process simulation software was used to replicate the process and perform a sensitivity analysis with the objective of accessing the relative importance of certain key process variables (reflux/feed ratio, reflux temperature, reboiler outlet temperature, methanol, glycerol and water feed compositions). The work proceeded with the application of a set of statistical tools, starting with the Principal Components Analysis (PCA) from which the interactions between process variables and their contribution to the process variability was studied. Next, the Design of Experiments (DoE) was used to acquire experimental data and, with it, create a model for the water amount in the distillate. However, the necessary conditions to perform this method were not met and so it was abandoned. The Multiple Linear Regression method (MLR) was then used with the available data, creating several empiric models for the water at distillate, the one with the highest fit having a R2 equal to 92.93% and AARD equal to 19.44%. Despite the AARD still being relatively high, the model is still adequate to make fast estimates of the distillate’s quality. As for fouling, its presence has been noticed many times during this work. Not being possible to directly measure the fouling, the reboiler inlet steam pressure was used as an indicator of the fouling growth and its growth variation with the amount of Used Cooking Oil incorporated in the whole process. Comparing the steam cost associated to the reboiler’s operation when fouling is low (1.5 bar of steam pressure) and when fouling is high (reboiler’s steam pressure of 3 bar), an increase of about 58% occurs when the fouling increases.