817 resultados para Otimização com restrições


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A indústria de processos químicos tem sofrido consideráveis transformações devido ao acirramento da competitividade. Importantes progressos tecnológicos têm sido atingidos através de técnicas de modelagem, simulação e otimização visando o aumento da lucratividade e melhoria contínua nos processos industriais. Neste contexto, as plantas de metanol, um dos mais importantes produtos petroquímicos, podem ser destacadas. Atualmente, a principal matéria-prima para obtenção de metanol é o gás natural. A produção do metanol é caracterizada por três etapas: geração de gás de síntese, conversão do gás de síntese em metanol (unidade de síntese ou loop de síntese) e purificação do produto na especificação requerida. Os custos fixos e variáveis da unidade de síntese são fortemente dependentes das variáveis operacionais, como temperatura, pressão, razão de reciclo e composição da carga. Desta forma, foi desenvolvido um conjunto de modelos e algoritmos computacionais para representar matematicamente unidades de síntese de metanol. O modelo apresenta operações unitárias associadas aos seguintes equipamentos: divisores de correntes, misturadores de correntes, compressores, trocadores de calor, vasos de flash e reatores. Inicialmente, foi proposto um simulador estacionário, que serviu como base para um pseudo-estacionário, o qual contempla a desativação do catalisador por sinterização térmica. Os simuladores foram criados segundo uma arquitetura seqüencial modular e empregou-se o método de substituição sucessiva para a convergência dos reciclos. O estudo envolveu dois fluxogramas típicos, um constituído por reatores adiabáticos em série, enquanto o outro constituído por um reator tipo quench. Uma análise do efeito das principais variáveis operacionais foi realizada para o reator e para o loop de síntese. Estudou-se também o efeito da desativação do catalisador ao longo do tempo. Uma ferramenta de otimização operacional foi empregada para alcançar a máxima produção manipulando as injeções de carga fria na entrada dos leitos catalíticos. Formulou-se também um problema de maximização do lucro em função da otimização de paradas da unidade para troca do catalisador. Os resultados obtidos apontam que a ferramenta desenvolvida é promissora para a compreensão e otimização da unidade objeto deste estudo

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação apresenta um estudo da modelagem de experimentos aplicados a um processo industrial de tratamento térmico. A motivação deste trabalho surgiu diante das dificuldades associadas aos processos de recozimento industrial de aços do tipo baixa liga, na tentativa de encontrar temperaturas nas quais as durezas superficiais dos aços atingissem valores suficientemente baixos, adequados para etapas posteriores de fabricação, em especial a usinagem. Inicialmente forem realizados diversos experimentos com diferentes aços, onde a dureza superficial é obtida em função da temperatura de recozimento e dos teores de carbono e silício das amostras utilizadas. Em seguida propôs-se um modelo quadrático para modelar a dureza superficial como função dessas três variáveis. A estimação de parâmetros do modelo proposto foi realizada com o emprego do algoritmo Simulated Annealing, uma meta-heurística para otimização global que procura imitar o processo de recozimento de um material sólido. Finalmente, usando-se o modelo proposto, foi resolvido o chamado problema inverso, o qual consiste na estimação da temperatura de recozimento em função dos teores de carbono e silício e da dureza desejada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os hidrocarbonetos policíclicos aromáticos (HPA) representam hoje grande preocupação à comunidade científica devido a sua comprovada ação cancerígena e mutagênica, assim tornam-se necessárias metodologias mais eficientes para suas determinações. O presente trabalho desenvolveu a técnica de extração por líquido pressurizado com a etapa de clean-up simultânea a extração, com sílica e alumina como adsorventes dentro da cela do equipamento ASE-350. A metodologia desenvolvida foi comparada com a tradicional extração por Sohxlet através de material de referência certificado. A extração por Soxhlet, apesar de eficiente, mostrou-se dispendiosa pelo gasto enorme de tempo, solvente e adsorventes quando comparada a extração por líquido pressurizado. De maneira geral a extração por líquido pressurizado apresentou-se mais vantajosa que a tradicional extração por Soxhlet. A eficiência da metodologia desenvolvida também foi testada através de quatro diferentes tipos de solos brasileiros fortificados com solução padrão de HPA. Os solos utilizados foram dos seguintes locais: Nova Lima MG, Lavras MG, Casimiro de Abreu RJ e Luiz Eduardo Magalhães BA. Todos possuíam características granulométricas e químicas diferentes entre si. Dois solos foram classificados em latossolos vermelhos, um em vermelho-amarelo e um em planossolo. Houve diferença significativa na eficiência de recuperação de alguns HPA quando comparados os quatro tipos de solos, já para outros HPA não evidenciou-se influência da tipologia do solo

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho trata do escoamento bifásico em meios porosos heterogêneos de natureza fractal, onde os fluidos são considerados imiscíveis. Os meios porosos são modelados pela equação de Kozeny-Carman Generalizada (KCG), a qual relaciona a porosidade com a permeabilidade do meio através de uma nova lei de potência. Esta equação proposta por nós é capaz de generalizar diferentes modelos existentes na literatura e, portanto, é de uso mais geral. O simulador numérico desenvolvido aqui emprega métodos de diferenças finitas. A evolução temporal é baseada em um esquema de separação de operadores que segue a estratégia clássica chamada de IMPES. Assim, o campo de pressão é calculado implicitamente, enquanto que a equação da saturação da fase molhante é resolvida explicitamente em cada nível de tempo. O método de otimização denominado de DFSANE é utilizado para resolver a equação da pressão. Enfatizamos que o DFSANE nunca foi usado antes no contexto de simulação de reservatórios. Portanto, o seu uso aqui é sem precedentes. Para minimizar difusões numéricas, a equação da saturação é discretizada por um esquema do tipo "upwind", comumente empregado em simuladores numéricos para a recuperação de petróleo, o qual é resolvido explicitamente pelo método Runge-Kutta de quarta ordem. Os resultados das simulações são bastante satisfatórios. De fato, tais resultados mostram que o modelo KCG é capaz de gerar meios porosos heterogêneos, cujas características permitem a captura de fenômenos físicos que, geralmente, são de difícil acesso para muitos simuladores em diferenças finitas clássicas, como o chamado fenômeno de dedilhamento, que ocorre quando a razão de mobilidade (entre as fases fluidas) assume valores adversos. Em todas as simulações apresentadas aqui, consideramos que o problema imiscível é bidimensional, sendo, portanto, o meio poroso caracterizado por campos de permeabilidade e de porosidade definidos em regiões Euclideanas. No entanto, a teoria abordada neste trabalho não impõe restrições para sua aplicação aos problemas tridimensionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sistemas estruturais em suas variadas aplicações incluindo-se veículos espaciais, automóveis e estruturas de engenharia civil tais como prédios, pontes e plataformas off-shore, acumulam dano durante suas vidas úteis. Em muitas situações, tal dano pode não ser visualmente observado. Do ponto de vista da segurança e da performance da estrutura, é desejável monitorar esta possível ocorrência, localizá-la e quantificá-la. Métodos de identificação de sistemas, que em geral, são classificados numa categoria de Técnicas de Avaliação Não-Destrutivas, podem ser utilizados para esta finalidade. Usando dados experimentais tais como frequências naturais, modos de vibração e deslocamentos estáticos, e um modelo analítico estrutural, parâmetros da estrutura podem ser identificados. As propriedades estruturais do modelo analítico são modificadas de modo a minimizar a diferença entre os dados obtidos por aquele modelo e a resposta medida. Isto pode ser definido como um problema inverso onde os parâmetros da estrutura são identificados. O problema inverso, descrito acima, foi resolvido usando métodos globais de otimização devido à provável presença de inúmeros mínimos locais e a não convexidade do espaço de projeto. Neste trabalho o método da Evolução Diferencial (Differential Evolution, DE) foi utilizado como ferramenta principal de otimização. Trata-se de uma meta-heurística inspirada numa população de soluções sucessivamente atualizada por operações aritméticas como mutações, recombinações e critérios de seleção dos melhores indivíduos até que um critério de convergência seja alcançado. O método da Evolução Diferencial foi desenvolvido como uma heurística para minimizar funções não diferenciáveis e foi aplicado a estruturas planas de treliças com diferentes níveis de danos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação procura investigar o incremento da racionalidade regulatória (ou otimização regulatória) a partir da teoria das falhas de regulação. Hoje, já parece existir um consenso teórico e prático de que a regulação e seu aparato institucional as agências reguladoras constituem fenômeno irreversível. Nesse contexto, as perguntas que se colocam são as seguintes: no plano dos resultados, o Estado Regulador tem alcançado as finalidades a que se propôs? Em caso negativo, que tipo de obstáculos o tem impedido? E mais: que providências devem ser adotadas para superá-los? Responder a tais indagações depende do reconhecimento de que não apenas os mercados são imperfeitos; também a intervenção estatal na economia gera riscos e efeitos negativos. Estudar seus tipos, suas fontes e a maneira como operam é o ponto de partida para se otimizar a regulação. O trabalho propõe uma sistematização das espécies de falhas regulatórias, baseada na proposta de Cass Sunstein, mas adaptada à realidade brasileira. A exposição é precedida de explicações introdutórias sobre o conceito de regulação; as razões para se regular; e características da regulação no Estado Democrático de Direito. Tais características conformam um ideal de racionalidade regulatória, o qual é comprometido pela instauração das falhas de regulação. Reconhecer a existência dos defeitos regulatórios e conhecê-los é já um primeiro passo para se melhorar a regulação. Mas há outros encaminhamentos deveras importantes para a prevenção e correção de falhas regulatórias. Dentre eles, destaca-se um conjunto de reformas institucionais em sentido amplo e estrito, as quais envolvem o sistema de controle pelos Poderes Legislativo, Executivo e Judiciário, e mecanismos procedimentais como a análise de impacto regulatório e a elaboração de agendas regulatórias.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é a aplicação de um Planejamento Fatorial Completo, ferramenta estatística que auxiliará a obter dados empíricos para otimizar um tratamento termoquímico, a cementação. Partindo-se de um levantamento da profundidade de camada cementada e da dureza de uma corrente de aço de baixo teor de carbono, usada para amarração, e para resistir à abrasão reproduziu-se uma nova cementação, variando-se seus parâmetros de influência, para se alcançar o ponto ótimo, definindo o melhor aço e o melhor processo. Foram realizados dois planejamentos, um fatorial 2 e dois 2, comparando o comportamento do processo na prática em relação aos resultados teóricos de uma simulação computacional, que permite a obtenção das curvas de enriquecimento de carbono, baseado na segunda Lei de Fick, para várias condições de contorno. Os perfis teóricos de cementação apresentaram valores de profundidade efetiva próximos aos valores obtidos experimentalmente, evidenciando o planejamento realizado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A abrangente constitucionalização, o acesso ao direito, ainda que incipiente, no Brasil, o dinamismo de uma sociedade massificada e o fluxo quase instantâneo de informações e de ideias colocaram e vem colocando em xeque o Estado enquanto provedor dos direitos básicos e, dentre eles, o acesso à justiça e a correlata função jurisdicional. Autorizado magistério doutrinário vislumbrou, como se verá, apresentar o sistema brasileiro, no que concerne à estabilização da relação processual, em específico, mais desvantagens do que vantagens. Entreviu-se, assim, oportunidade de uma revisitação do sistema processual, aproveitando-se a legislação e ideário vigentes, em uma perspectiva mais profícua e no intuito de se conferir tudo aquilo e exatamente aquilo que se busca pelo processo, enfim, maior probabilidade de pacificação. Assim, o propósito da presente dissertação é estudar o aproveitamento da demanda quanto aos fatos dedutíveis pelas partes e que advenham ou sejam conhecidos no curso do processo como meio, então, de concretização do processo justo, um processo balizado por garantias, um processo humanizado e conforme os reclamos da sociedade hodierna. A pesquisa se concentra na legislação, doutrina e jurisprudência brasileiras, contando, outrossim, com singelo exame de ordenamentos similares. Em paralelo, estudam-se os princípios que suportam o tema, notadamente o princípio do contraditório participativo, qualificado que é pela ampla participação dos sujeitos da crise de direito material. O trabalho procura demonstrar, enfim, que é viável a proposta no contexto de um Direito Processual afinado com os ditames constitucionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A liofilização - ou secagem a frio (freeze drying em inglês) - é um complexo processo multiestágios, onde o produto é primeiramente congelado e sua secagem feita através de sublimação. Devido a esta forma de secagem a liofilização se torna um processo atrativo particularmente importante para a estabilização de componentes orgânicos hidratados e lábeis, de origem biológica. O processo de liofilização é amplamente empregado na indústria farmacêutica, porém em termos de gestão de processo, deve-se evitar a liofilização a todo custo, pois o processo possui diversas desvantagens como: equipamentos de alto investimento, alta demanda energética, processo que demanda tempos longos e produtos com facilidade de hidratar e frágeis, necessitando ser cuidadosamente embalados e armazenados. Este trabalho tem como objetivo a diminuição do ciclo de liofilização de uma vacina viral e analisar a possibilidade de carregamento desse produto no liofilizador a temperaturas negativas, de forma a possibilitar o aumento de produtividade. Para tal, foram realizados três experimentos com ciclos de liofilização com 17 e 20h a menos que o ciclo de liofilização da vacina comercial. Os experimentos foram realizados com a mesma formulação do lote comercial e utilizando um liofilizador piloto. As modificações foram realizadas nas propriedades físicas do ciclo de liofilização atual (temperatura, pressão e tempo) e na temperatura de carga do produto, sem alteração na formulação da vacina ou embalagem primária. Amostras do produto liofilizado experimental foram analisadas quanto ao seu aspecto, desempenho, umidade residual, potência e termoestabilidade acelerada segundo os Mínimos Requerimentos da Organização Mundial da Saúde. Todos os resultados analisados estiveram dentro das especificações e próximos ou melhores quando comparados aos lotes comerciais de origem

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma dedução dos critérios de multicriticalidade para o cálculo de pontos críticos de qualquer ordem representa a formalização de ideias utilizadas para calcular pontos críticos e tricríticos e ainda amplia tais ideias. De posse desta dedução pode-se compreender os critérios de tricriticalidade e, com isso, através de uma abordagem via problema de otimização global pode-se fazer o cálculo de pontos tricríticos utilizando um método numérico adequado de otimização global. Para evitar um excesso de custo computacional com rotinas numéricas utilizou-se aproximações na forma de diferenças finitas dos termos que compõem a função objetivo. Para simular a relação P v - T optou-se pela equação de estado cúbica de Peng-Robinson e pela regra clássica de fluidos de van der Vaals, para modelagem do problema também se calculou os tensores de ordem 2, 3, 4 e 5 da função do teste de estabilidade. Os resultados obtidos foram comparados com dados experimentais e por resultados obtidos com outros autores que utilizaram métodos numéricos, equação de estado ou abordagem diferente das utilizadas neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trocadores de calor são equipamentos muito utilizados na indústria de processos com o objetivo de modificar a temperatura e/ou o estado físico de correntes materiais. Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados, a fim de reduzir as necessidades de energia de um sistema. No entanto, durante a operação de uma rede, a eficiência térmica dos trocadores de calor diminui devido à deposição. Esse efeito promove o aumento dos custos de combustível e das emissões de carbono. Uma alternativa para mitigar este problema baseia-se no estabelecimento de uma programação das limpezas dos trocadores de calor durante a operação de rede. Este tipo de abordagem ocasiona uma situação na qual ocorre um conflito de escolha: a limpeza de um trocador de calor pode recuperar a sua eficiência térmica, mas implica custos adicionais, tais como, mão-de-obra, produtos químicos, etc. Além disso, durante a limpeza, o trocador de calor tem de ser contornado por uma corrente de by-pass, o que aumenta temporariamente o consumo de energia. Neste contexto, o presente trabalho tem como objetivo explorar diferentes técnicas de otimização envolvendo métodos estocásticos e heurísticos. Com este objetivo foi desenvolvido um conjunto de códigos computacionais integrados que envolvem a simulação pseudo-estacionária do comportamento da rede relacionado com incrustações e a otimização da programação das limpezas deste tipo de sistema. A solução do problema indica os períodos de tempo para a limpeza de cada trocador de calor. Na abordagem estocástica empregada, os parâmetros do algoritmo genético, como probabilidade de crossover e probabilidade de mutação, foram calibrados para o presente problema. A abordagem heurística desenvolvida se deu através da sequência do conjunto de movimentos zero, um e dois. De forma alternativa, desenvolveu-se a metodologia heurística recursiva na qual os conjuntos de movimentos um e dois foram empregados recursivamente. Também foi desenvolvida a abordagem híbrida que consistiu em diferentes combinações da metodologia estocástica e heurística. A análise comparativa entre as metodologias empregadas teve como objetivo avaliar a abordagem mais adequada para o presente problema da programação das limpezas em termos de função objetivo e esforço computacional. O desempenho da abordagem proposta foi explorado através de uma série de exemplos, incluindo uma refinaria real brasileira. Os resultados foram promissores, indicando que as técnicas de otimização analisadas neste trabalho podem ser abordagens interessantes para operações que envolvam redes de trocadores de calor. Dentre as abordagens de otimização analisadas, a metodologia heurística desenvolvida no presente trabalho apresentou os melhores resultados se mostrando competitiva frente às abordagens comparadas da literatura

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho são utilizados a técnica baseada na propagação de ondas acústicas e o método de otimização estocástica Luus-Jaakola (LJ) para solucionar o problema inverso relacionado à identificação de danos em barras. São apresentados o algoritmo algébrico sequencial (AAS) e o algoritmo algébrico sequencial aperfeiçoado (AASA) que modelam o problema direto de propagação de ondas acústicas em uma barra. O AASA consiste nas modificações introduzidas no AAS. O uso do AASA resolve com vantagens o problema de identificação de danos com variações abruptas de impedância. Neste trabalho são obtidos, usando-se o AAS-LJ e o AASA-LJ, os resultados de identificação de cinco cenários de danos. Três deles com perfil suave de impedância acústica generalizada e os outros dois abruptos. Além disso, com o objetivo de simular sinais reais de um experimento, foram introduzidos variados níveis de ruído. Os resultados alcançados mostram que o uso do AASA-LJ na resolução de problemas de identificação de danos em barras é bastante promissor, superando o AAS-LJ para perfis abruptos de impedância.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertaçãoo investiga a utilização de Particle Swarm Optimization (PSO) para a obtenção automática de sistemas fuzzy do tipo Mamdani, tendo como insumo apenas as definições das variáveis do problema, seus domínios e a função objetivo. Neste trabalho utilizam-se algumas técnicas conhecidas na tentativa de minimizar a obtenção de sistemas fuzzy que não sejam coerentes. As principais técnicas usadas são o método de Wang e Mendell, chamado de WM, para auxiliar na obtenção de regras, e os conceitos de clusterização para obtenção das funções de pertinência. Na função de avaliação proposta, considera-se não somente a acurácia do sistema fuzzy, através da medida do erro, mas também a sua interpretabilidade, através da medida da compacidade, que consiste da quantidade de regras e funções membro, da distinguibilidade, que permite evitar que as funções membro não se confundam, e da completude, que permite avaliar que as funções membro abranjam o máximo do domínio. O propósito deste trabalho consiste no desenvolvimento de um algoritmo baseado em PSO, cuja função de avaliação congregue todos esses objetivos. Com parâmetros bem definidos, o algoritmo pode ser utilizado em diversos tipos de problemas sem qualquer alteração, tornando totalmente automática a obtenção de sistemas fuzzy. Com este intuito, o algoritmo proposto é testado utilizando alguns problemas pré-selecionados, que foram classificados em dois grupos, com base no tipo de função: contínua ou discreta. Nos testes com funções contínuas, são utilizados sistemas tridimensionais, com duas variáveis de entrada e uma de saída, enquanto nos testes com funções discretas são utilizados problemas de classificação, sendo um com quatro variáveis e outro com seis variáveis de entrada. Os resultados gerados pelo algoritmo proposto são comparados com aqueles obtidos em outros trabalhos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A operação de coleta e transporte de resíduos sólidos urbanos é indispensável dentro de quaisquer sistema de limpeza urbana. É necessário que se intensifique a pesquisa nessa área de conhecimento afim de produzir-se material de auxílio ao poder público municipal e o setor privado. Deste modo o objetivo geral deste trabalho é o estudo da utilização de ferramentas computacionais para a otimização dos roteiros dos serviços de coleta de resíduos sólidos domiciliares. Foi feito um comparativo entre os itinerários percorridos pelos caminhões de coleta quando dimensionados de forma empírica e quando dimensionados com o auxílio de ferramentas computacionais. Verificou-se as vantagens e desvantagens de cada modelo de dimensionamento e o grande potencial de redução de custos quando utilizadas ferramentas computacionais.