89 resultados para Autovalores - Métodos de simulação


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trocadores de calor são equipamentos muito utilizados na indústria de processos com o objetivo de modificar a temperatura e/ou o estado físico de correntes materiais. Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados, a fim de reduzir as necessidades de energia de um sistema. No entanto, durante a operação de uma rede, a eficiência térmica dos trocadores de calor diminui devido à deposição. Esse efeito promove o aumento dos custos de combustível e das emissões de carbono. Uma alternativa para mitigar este problema baseia-se no estabelecimento de uma programação das limpezas dos trocadores de calor durante a operação de rede. Este tipo de abordagem ocasiona uma situação na qual ocorre um conflito de escolha: a limpeza de um trocador de calor pode recuperar a sua eficiência térmica, mas implica custos adicionais, tais como, mão-de-obra, produtos químicos, etc. Além disso, durante a limpeza, o trocador de calor tem de ser contornado por uma corrente de by-pass, o que aumenta temporariamente o consumo de energia. Neste contexto, o presente trabalho tem como objetivo explorar diferentes técnicas de otimização envolvendo métodos estocásticos e heurísticos. Com este objetivo foi desenvolvido um conjunto de códigos computacionais integrados que envolvem a simulação pseudo-estacionária do comportamento da rede relacionado com incrustações e a otimização da programação das limpezas deste tipo de sistema. A solução do problema indica os períodos de tempo para a limpeza de cada trocador de calor. Na abordagem estocástica empregada, os parâmetros do algoritmo genético, como probabilidade de crossover e probabilidade de mutação, foram calibrados para o presente problema. A abordagem heurística desenvolvida se deu através da sequência do conjunto de movimentos zero, um e dois. De forma alternativa, desenvolveu-se a metodologia heurística recursiva na qual os conjuntos de movimentos um e dois foram empregados recursivamente. Também foi desenvolvida a abordagem híbrida que consistiu em diferentes combinações da metodologia estocástica e heurística. A análise comparativa entre as metodologias empregadas teve como objetivo avaliar a abordagem mais adequada para o presente problema da programação das limpezas em termos de função objetivo e esforço computacional. O desempenho da abordagem proposta foi explorado através de uma série de exemplos, incluindo uma refinaria real brasileira. Os resultados foram promissores, indicando que as técnicas de otimização analisadas neste trabalho podem ser abordagens interessantes para operações que envolvam redes de trocadores de calor. Dentre as abordagens de otimização analisadas, a metodologia heurística desenvolvida no presente trabalho apresentou os melhores resultados se mostrando competitiva frente às abordagens comparadas da literatura

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Amazônia exibe uma variedade de cenários que se complementam. Parte desse ecossistema sofre anualmente severas alterações em seu ciclo hidrológico, fazendo com que vastos trechos de floresta sejam inundados. Esse fenômeno, entretanto, é extremamente importante para a manutenção de ciclos naturais. Neste contexto, compreender a dinâmica das áreas alagáveis amazônicas é importante para antecipar o efeito de ações não sustentáveis. Sob esta motivação, este trabalho estuda um modelo de escoamento em áreas alagáveis amazônicas, baseado nas equações de Navier-Stokes, além de ferramentas que possam ser aplicadas ao modelo, favorecendo uma nova abordagem do problema. Para a discretização das equações é utilizado o Método dos Volumes Finitos, sendo o Método do Gradiente Conjugado a técnica escolhida para resolver os sistemas lineares associados. Como técnica de resolução numérica das equações, empregou-se o Método Marker and Cell, procedimento explícito para solução das equações de Navier-Stokes. Por fim, as técnicas são aplicadas a simulações preliminares utilizando a estrutura de dados Autonomous Leaves Graph, que tem recursos adaptativos para manipulação da malha que representa o domínio do problema

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O uso de modelos de estudo dentários faz parte tanto da prática quanto da pesquisa odontológica e ortodôntica. Com a introdução dos scanners 3D e dos tomógrafos CBCT (cone beam computer tomography) tornou-se possível a obtenção de modelos dentários tridimensionais virtuais das arcadas dentárias. Foram selecionados 56 modelos dentários superiores e escaneados em três tipos diferentes de scanners: Maestro 3D Dental Scanner (AGE Solutions, Potedera, Italia), 3Shape R700 3D Scanner (3Shape, Copenhagen, Dinamarca) e o scanner 3Shape TRIOS (3Shape, Copenhagen, Dinamarca). Doze medidas foram realizadas nos modelos dentários de gesso e comparadas com as mesmas medidas realizadas nos modelos dentários digitais por meio do teste de Análise de Variância (ANOVA). Estatisticamente não foram encontradas diferenças significativas entre as medições tradicionais nos modelos dentários de gesso e as medidas realizadas nos modelos dentários digitais. Os três tipos de métodos de aquisição de modelos dentários digitais foram considerados confiáveis para as medições horizontais, transversais e verticais. Os modelos dentários virtuais podem ser indicados como substitutos dos modelos dentários de gesso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A validação dos métodos de análises em situações fora da rotina, em P&D pesquisa e desenvolvimento, pode tornar-se um processo de difícil solução, em oposição àquelas de rotina, onde as concentrações são conhecidas. Nesta última situação, o método analítico é validado e aprovado com simplicidade. Apesar dos elementos de qualidade básicos para análises em P&D serem os mesmos adotados nas análises de rotina, fatores como o comportamento imprevisível da amostra, a composição desconhecida da matriz e interdependência com o analito, mesmo a incerteza a respeito da escolha do método instrumental, requer uma atenção renovada nos elementos de qualidade existentes. A razão pode ser atribuída à imprevisibilidade do procedimento analítico e a extensão do esforço adicional dos elementos de qualidade. As incertezas das análises em P&D requerem uma cuidadosa consideração do problema, assim como a disponibilidade de técnicas analíticas. Ao mesmo tempo, devem-se observar o planejamento e organização do trabalho, a supervisão do desenvolvimento analítico e a adequação dos aspectos técnico e organizacional - no trabalho de P&D, a definição de responsabilidades e a competência do corpo técnico. A garantia da qualidade nas indústrias farmacêuticas é estabelecida pelo desenvolvimento de especificações apropriadas para matérias-primas, produtos intermediários e produtos finais. A importância de especificações adequadas foi estabelecida e exemplos foram dados no desenvolvimento de especificação típica para produtos farmacêuticos, tais como a vacina e matéria prima. Isto incluiu uma discussão dos tipos de parâmetros que precisam ser controlados e uma indicação dos valores numéricos ou faixas esperadas para muitos materiais utilizados. A metrologia analítica que necessita ser aplicada para demonstrar a observância com as especificações foi discutida, com as implicações de desempenho do método para diferenciar variações na qualidade do produto e a simples variabilidade analítica. Esse trabalho foi escrito para laboratórios, com a finalidade de dar um suporte na implementação da validação de métodos analíticos e introduzir o conceito de incerteza da medida nas análises de rotina. O objetivo foi fornecer de uma maneira compreensível e prática a metodologia dos cálculos das medidas de incerteza baseados principalmente em dados de controle de qualidade e de validação já existentes. Exemplos práticos retirados diretamente do Laboratório de Metrologia e Validação, FIOCRUZ / Bio-Manguinhos, foram apresentados. Entretanto, o tratamento usado neste trabalho é genérico e pode ser aplicável a outros laboratórios químicos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A exaustão de um veículo de motor a diesel é uma importante fonte de poluentes atmosféricos, pois forma uma matriz complexa composta de poluentes regulados e não regulados pelos órgãos governamentais. Dentre os poluentes regulados podemos citar óxidos de nitrogênio (NOx) e material particulado. Os poluentes não regulados são pouco estudados até hoje e dentre estes encontra-se a classe dos hidrocarbonetos policíclicos aromáticos e seus derivados nitrados (nitro-HPA). Estes são encontrados na exaustão do diesel na forma gasosa ou agregados ao material particulado. Hoje, o interesse em estudos destes compostos vem aumentando, devido às suas atividades carcinogênicas e mutagênicas às quais estão sujeitas as populações dos centros urbanos. O impacto causado pelos nitro-HPA emitidos por motores a ciclo diesel ao ambiente não está ainda completamente estabelecido. Este estudo consiste na modelagem e simulação do processo de combustão de hidrocarbonetos na faixa de C1 a C4 com o objetivo de descrever a formação de compostos aromáticos, principalmente HPA, e óxidos de nitrogênio a partir de modelos cinéticos de combustão propostos na literatura como referência e fazendo uso do software de simulação Kintecus. Este projeto tem como objetivo em longo prazo propor um modelo cinético para combustão do óleo Diesel. Foi iniciada a construção de um modelo cinético de combustão a partir de modelos de hidrocarbonetos simples de C1 a C4, com formação de aromáticos, HPA e óxidos de nitrogênio. Os modelos originais foram avaliados e modificados a fim de estudar como parâmetros do modelo afetam a concentração das espécies de interesse. Foi observado a tendência de formação de benzeno e fulveno em baixas temperaturas e a tendência de formação de antraceno, pireno, fenantreno a temperaturas mais altas. Foi avaliado que a conversão NO-NO2 ocorre em maiores proporções em reações iniciadas a baixas temperaturas, 600 K. Os resultados indicam que propano é o maior responsável por esta conversão. O modelo final obtido resultou da união dos modelos de combustão Hori e Marinov mais inclusão do GRI-Mech 3.0 e reações adicionais de NOx retiradas da base de dados NIST

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O gerenciamento do tempo nos projetos de construção civil usualmente utiliza algoritmos determinísticos para o cálculo dos prazos de finalização e algoritmos PERT para avaliação da probabilidade de o mesmo terminar até uma determinada data. Os resultados calculados pelos algoritmos tradicionais possuem defasagens nos prazos se comparados aos encontrados na realidade o que vem fazendo com que a simulação venha se tornando uma ferramenta cada vez mais utilizada no gerenciamento de projetos. O objetivo da dissertação é estudar o problema dos prazos de finalização dos projetos desenvolvendo novas técnicas de cálculo que reflitam melhor os prazos encontrados na vida real. A partir disso é criada uma ferramenta prática de gerenciamento do tempo de atividades de projetos de construção enxuta baseada em planilha eletrônica onde serão utilizadas técnicas de simulação a eventos discretos, com base em distribuições de probabilidade como, por exemplo, a distribuição beta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Turbomáquinas são máquinas operacionais que transferem energia mecânica entre um rotor e um fluido. Estas máquinas têm muitas aplicações industriais. Um dos componentes de uma turbomáquina responsável pela transferência da energia, ou receber a rotação do eixo e transformar em energia de fluido em caso de bomba ou transferir a energia do fluido para o eixo em caso de uma turbina, é o impelidor ou rotor. O fenómeno da cavitação envolve escoamento bifásico: o líquido a ser bombeado e as bolhas de vapor que são formadas durante o processo de bombeamento. O processo de formação dessas bolhas é complexo, mas ocorre principalmente devido a presença de regiões de pressões muito baixas. O colapso dessas bolhas pode muitas vezes levar a deterioração do material, dependendo da intensidade ou da velocidade de colapso das bolhas. O principal objetivo deste trabalho foi estudar o comportamento hidrodinâmico do escoamento nos canais do impelidor de uma turbomáquina do tipo radial usando recursos de fluidodinâmica computacional (CFD). Uma abordagem Euler-Lagrange acoplada com o modelo da equação de Langevin foi empregada para estimar a trajetória das bolhas. Resultados das simulações mostram as particularidades de um escoamento líquido-bolha de vapor passando em um canal de geometria curva, fornecendo assim informações que podem nos ajudar na prevenção da cavitação nessas máquinas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As rodovias podem representar um importante fator na fragmentação de habitat para espécies silvestres adaptadas a habitats de alta complexidade estrutural, como as florestas tropicais. As estradas reduzem a conectividade da paisagem e a capacidade da população regional em habitar todas as áreas adequadas e estes efeitos são mais significativos nas espécies que evitam a estrada, que são, muitas vezes, espécies de interior de florestas. A magnitude dos efeitos de barreira dependerá do comportamento e mobilidade destas espécies. Quando as estradas representam ralos (sink) ou barreiras para as populações, devido, respectivamente, aos atropelamentos ou à repulsa, medidas mitigadoras são indicadas para aumentar a conectividade entre as manchas de habitat separadas por essas estradas. A qualidade do habitat é um fator que deve ser considerado, mesmo com baixas frequências de atropelamentos nesses locais. O objetivo desse estudo foi propor dois métodos de seleção de áreas prioritárias para implantação de medidas mitigadoras dos efeitos das estradas sobre espécies de vertebrados florestais: Seleção Hierárquica Multivariada e Seleção Bivariada. A área de estudo foi o bioma Mata Atlântica, sendo recortado em paisagens hexagonais em três escalas diferentes (10.000, 1.000 e 100 km), usando a extensão Repeating Shapes no programa ArcGIS 9.3. Em cada hexágono foram calculados: área de floresta e de Unidade de Conservação, densidade de estradas e de hidrografia. Apenas os hexágonos cobertos por no mínimo 45% pela Mata Atlântica, com mais de 50% de cobertura florestal e mais de 1% de Unidades de Conservação foram incluídos nas análises. Após esta seleção, no método Seleção Hierárquica Multivariada, foi feita uma análise de componentes principais (PCA) com as quatro variáveis medidas, para cada escala separadamente. Os hexágonos foram então ordenados segundo o posicionamento deles no 1 Eixo da PCA de forma hierárquica e da maior para menor escala de hexágonos. Para área de estudo o método de Seleção Bivariada foi construído um gráfico de pontos, para cada escala de hexágono, com as variáveis cobertura florestal e rios. Foram selecionados os hexágonos que estavam localizados no quadrante do gráfico que representasse maior densidade de rios e maior porcentagem de cobertura florestal. Posteriormente foi feita uma simulação para avaliar se os métodos eram capazes de recuperar escores tão alto quanto a ordenação seguindo apenas o posicionamento dos hexágonos no Eixo 1 da PCA, sem uma análise hierárquica. O método de Seleção Hierárquica Multivariada foi mais eficiente para escolha de áreas prioritárias do que a Seleção Bivariada tanto para a escala intermediária (1.000 km) quanto para a menor escala (100 km). Os cinco hexágonos de 100 km mais prioritários estão localizados em São Paulo e Paraná, abrangendo quatro UCs (PARES de Jacupiranga, APA de Guaraqueçaba, APA Cananéia- Jacuípe e PARES da Ilha do Cardoso). Devido à simplicidade e fácil aplicabilidade do método, acredita-se que este pode ser uma opção interessante para escolha de áreas prioritárias para implantação de medidas mitigadoras dos efeitos de estradas

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A modelagem orientada a agentes surge como paradigma no desenvolvimento de software, haja vista a quantidade de iniciativas e estudos que remetem à utilização de agentes de software como solução para tratar de problemas mais complexos. Apesar da popularidade de utilização de agentes, especialistas esbarram na falta de universalidade de uma metodologia para construção dos Sistemas Multiagentes (MAS), pois estas acabam pecando pelo excesso ou falta de soluções para modelar o problema. Esta dissertação propõe o uso de uma Ontologia sobre Metodologias Multiagentes, seguindo os princípios da Engenharia de Métodos Situacionais que se propõe a usar fragmentos de métodos para construção de metodologias baseados na especificidade do projeto em desenvolvimento. O objetivo do estudo é sedimentar o conhecimento na área de Metodologias Multiagentes, auxiliando o engenheiro de software a escolher a melhor metodologia ou o melhor fragmento de metodologia capaz de modelar um Sistema Multiagentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho está inserido no campo da Geomática e se concentra, mais especificamente, no estudo de métodos para exploração e seleção de rotas em espaços geográficos sem delimitação prévia de vias trafegáveis. As atividades que poderiam se beneficiar de estudos desse tipo estão inseridas em áreas da engenharia, logística e robótica. Buscou-se, com as pesquisas realizadas nesse trabalho, elaborar um modelo computacional capaz de consultar as informações de um terreno, explorar uma grande quantidade de rotas viáveis e selecionar aquelas rotas que oferecessem as melhores condições de trajetória entre dois pontos de um mapa. Foi construído um sistema a partir do modelo computacional proposto para validar sua eficiência e aplicabilidade em diferentes casos de estudo. Para que esse sistema fosse construído, foram combinados conceitos de sistemas baseados em agentes, lógica nebulosa e planejamento de rotas em robótica. As informações de um terreno foram organizadas, consumidas e apresentadas pelo sistema criado, utilizando mapas digitais. Todas as funcionalidades do sistema foram construídas por meio de software livre. Como resultado, esse trabalho de pesquisa disponibiliza um sistema eficiente para o estudo, o planejamento ou a simulação de rotas sobre mapas digitais, a partir de um módulo de inferência nebuloso aplicado à classificação de rotas e um módulo de exploração de rotas baseado em agentes autônomos. A perspectiva para futuras aplicações utilizando o modelo computacional apresentado nesse trabalho é bastante abrangente. Acredita-se que, a partir dos resultados alcançados, esse sistema possa ajudar a reduzir custos e automatizar equipamentos em diversas atividades humanas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os crescentes alertas sobre as mudanças climáticas e suas consequências vêm preocupando a sociedade de modo geral. Geram dúvidas sobre as reais modificações que podem ser ocasionadas, principalmente com relação aos efeitos da elevação do nível médio dos oceanos e seus efeitos nas regiões costeiras. Por vezes, as informações veiculadas contribuem para uma percepção limitada da extensão espaço-temporal dos fenômenos. Em paralelo, a democratização de mapas 2D e 3D está cada vez mais ampla, não sendo mais uma ferramenta direcionada apenas aos profissionais ligados à área da Cartografia e demais Geociências. Este é um dos enormes benefícios proporcionados pela Cartografia Digital. Porém, não teria tanto alcance sem a associação das informações a um poderoso veículo de divulgação como a Web. A Internet é um dos meios de comunicação mais democráticos do mundo e uma ferramenta de grande alcance na sociedade. O uso dessas ferramentas pode ser ainda mais explorado para a construção do conhecimento, permitindo aos cidadãos entenderem mais facilmente um determinado fenômeno por meio da sua visualização/simulação em tempo real. Isto melhora a formação de opinião e o posicionamento da sociedade sobre o caso em questão. Com base nessa argumentação, esta dissertação tem o objetivo de simular cenários de elevações do nível médio do mar e disponibilizá-los em formato de mapas interativos na Web utilizando um Modelo Digital de Elevação suficientemente acurado. Para isto, a área de estudo escolhida foi a Praia do Leme, situada no município do Rio de Janeiro, RJ. Os processos para atingir os objetivos envolveram etapas de coleta de dados de campo, confecção de um banco de dados integrado a dados pré-existentes, interpolações, simulação de cenários da elevação do nível do mar e implementação de uma página Web. Os cenários investigados foram obtidos por simulações de elevações do nível do mar a cada 0,5m até 4,0m acima da cota atual. Os resultados obtidos mostram que a Praia do Leme sofrerá modificações geomorfológicas, com perda de até 18,0m da praia, para uma elevação do nível médio do mar de 2,0m. Entretanto, a orla litorânea sofrerá impactos significativos a partir de uma elevação do nível do mar de 3,0m, em que o avanço planimétrico do mar pode ficar entre 76 e 90m, o que atingiria o calçadão e a região do emissário de águas pluviais do Leme, respectivamente. Isto resultaria em um volume adicional de água na praia de, aproximadamente, 106.000m3 e uma perda de até 41.400m3 de areia. Somente a partir de 3,5m de elevação, o mar atingiria a Avenida Atlântica, sendo que, desta altitude em diante, todo o bairro do Leme seria gradualmente inundado pelo avanço do mar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho estuda a transferência de calor por condução considerando a condutividade térmica como uma função constante por partes da temperatura. Esta relação, embora fisicamente mais realista que supor a condutividade térmica constante, permite obter uma forma explícita bem simples para a inversa da Transformada de Kirchhoff (empregada para tratar a não linearidade do problema). Como exemplo, apresenta-se uma solução exata para um problema com simetria esférica. Em seguida, propôe-se uma formulação variacional (com unicidade demonstrada) que introduz um funcional cuja minimização é equivalente à solução do problema na forma forte. Finalmente compara-se uma solução exata obtida pela inversa da Transformada de Kirchhoff com a solução obtida via formulação variacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma das tarefas mais desafiadoras do engenheiro na área da Geotecnia é a escolha dos valores de parâmetros geotécnicos obtidos de ensaios de campo ou laboratório e que serão utilizados nos modelos analíticos ou numéricos na fase de projeto de fundações. Diante das incertezas inerentes aos ensaios de SPT e da heterogeneidade de abordagens para a utilização dos valores de NSPT, é proposta neste estudo, a aplicação de um critério estatístico para obtenção de valores de NSPT, a partir da construção de intervalos de confiança de 95% de probabilidade em torno da reta ajustada de regressão linear simples entre a variável aleatória NSPT e a profundidade. Os valores obtidos de NSPT pelo critério aplicado foram utilizados na previsão da capacidade de carga de 19 estacas isoladas a partir da utilização de três métodos semi-empíricos: Aoki-Velloso (1975) com coeficientes alterados por Monteiro (1997), Décourt & Quaresma (1978) alterado pelo método de Décourt (1996) e Método de Alonso (1996). As cargas de ruptura dessas 19 estacas ensaiadas através de Provas de Carga Estática foram obtidas pelos métodos de extrapolação de Van Der Veen (1953) e Décourt (1996) e serviram para comparação e consequente validação do critério estatístico. Adicionalmente, com fulcro no item 6.2.1.2.1 da ABNT NBR 6122:2010 Resistência calculada por método semi-empírico, foram avaliados os fatores de segurança em relação às cargas de projeto, inclusive, também se utilizando da premissa de reconhecimento de regiões representativas, levando em conta o número de ensaios de SPT executados, fato que promove uma diminuição da incerteza dos parâmetros, apontando a um menor fator de segurança. A dissertação enfatiza as vantagens de um adequado tratamento estatístico dos parâmetros geotécnicos, a exemplo da recomendação já existente nas normas internacionais como Eurocódigo e outras. O critério construído permite e encoraja análises e decisões racionais no universo das partes interessadas consumidores, projetistas, fiscais de obras, contratantes e comunidade científica promovendo as discussões de forma mais objetiva e harmoniosa sobre o tema.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.