961 resultados para Desempenho em 1990-95


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O câncer de próstata é a neoplasia mais incidente entre os homens brasileiros. Atualmente, grande parte destes tumores é confinada à próstata no momento do diagnóstico. No entanto, muitos tumores clinicamente classificados como localizados não o são de fato, levando a indicações terapêuticas curativas não efetivas. Por outro lado, muitos pacientes com câncer sem significância clínica são tratados desnecessariamente em função da limitação prognóstica do estadiamento clínicos (pré-tratamento) de pacientes com diagnóstico histológico de adenocarcinoma de próstata localizado (estágios I e II), em coorte hospitalar composta por pacientes tratados no Instituto Nacional de Câncer, Rio de Janeiro, matriculados entre 1990 a 1999. As funções de sobrevida foram calculadas empregando-se o estimados de Kaplan-Meier tomando-se como início a data do diagnóstico histológico e como eventos os óbitos cuja causa básica foi o câncer de próstata. Para avaliação dos fatores prognósticos clínicos foram calculadas as hazard ratios (HR), com intervalos de confiança de 95%, seguindo-se o modelo de riscos proporcionais de Cox. Foram analisadas como fatores prognósticos independentes as variáveis: idade, cor, grau de instrução, data do primeiro tratamento, grau de diferenciação celular d o tumor primário biopsiado (Gleason), estadiamento clínico e PSA total pré-tratamento. O pressuposto dos riscos proporcionais foi avaliado pela análise dos resíduos de Schoenfeld e a influência de valores aberrantes pelos resíduos martingale e escore. Foram selecionados 258 pacientes pelos critérios de elegibilidade do estudo, dos quais 46 foram a óbito durante o período de seguimento. A sobrevida global foi de 88% em 5 anos e de 71% em 10 anos. Idade maior que 80 anos, classificação de Gleason maior que 6, PSA maior que 40ng/ml, estádio B2 e cor branca foram marcadores independentes de pior prognóstico. Fatores prognósticos clássicos na literatura foram úteis na estimativa do prognóstico nesta coorte hospitalar. Os resultados mostram que para pacientes diagnosticados em fases iniciais, os fatores sócio-econômico analisados, não influenciaram o prognóstico. Outros estudos devem ser conduzidos no país para investigar as diferenças no prognóstico em relação à etnia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O uso de Internet para a distribuição de fluxos de vídeo tem se mostrado uma tendência atual e traz consigo grandes desafios. O alicerce sobre qual a Internet está fundamentada, comutação por pacotes e arquitetura cliente-servidor, não proporciona as melhores condições para este tipo de serviço. A arquitetura P2P (peer-to-peer) vem sendo considerada como infraestrutura para a distribuição de fluxos de vídeo na Internet. A idéia básica da distribuição de vídeo com o suporte de P2P é a de que os vários nós integrantes da rede sobreposta distribuem e encaminham pedaços de vídeo de forma cooperativa, dividindo as tarefas, e colocando à disposição da rede seus recursos locais. Dentro deste contexto, é importante investigar o que ocorre com a qualidade do serviço de distribuição de vídeo quando a infraestrutura provida pelas redes P2P é contaminada por nós que não estejam dispostos a cooperar, já que a base desta arquitetura é a cooperação. Neste trabalho, inicialmente é feito um estudo para verificar o quanto a presença de nós não-cooperativos pode afetar a qualidade da aplicação de distribuição de fluxo de vídeo em uma rede P2P. Com base nos resultados obtidos, é proposto um mecanismo de incentivo à cooperação para que seja garantida uma boa qualidade de vídeo aos nós cooperativos e alguma punição aos nós não-cooperativos. Os testes e avaliações foram realizados utilizando-se o simulador PeerSim.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa tem como objetivo entendermos os processos históricos e geográficos pelo qual a dimensão espacial da Igreja Católica no atual município de Nova Iguaçu, na Baixada Fluminense, foi estruturada, assim como interpretar as ações desenvolvidas pela Igreja Católica mostrando o seu papel de gestor no desenvolvimento de várias ações sociais e religiosas. Nesta localidade, carente de políticas públicas favoreceu inicialmente nas comunidades eclesiais de base a construção de importantes espaços religiosos, assim como, posteriormente foram desenvolvidos movimentos populares que auxiliaram na sociabilidade e trocas de saberes e fazeres. As ações conduzidas pela Teologia da Libertação e dirigidas pela Diocese de Nova Iguaçu e pelo líder religioso Dom Adriano Hypólito possibilitou a expansão da conscientização da população em relação a seus direitos e deveres expressos principalmente nas inúmeras reivindicações por serviços públicos e sociais. Busca-se então, o entendimento na estruturação social de algumas áreas da Baixada Fluminense assim como desvendar as estratégias utilizadas pela Diocese de Nova Iguaçu durante a fim de promover a organização de seu território religioso, através da disseminação de suas estratégias religiosas. Tais ações auxiliaram no fortalecimento das ações coletivas da localidade, marcando a história do município de Nova Iguaçu e da instituição religiosa católica brasileira.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Data quantifying various aspects of the Corps of Engineers wetland regulatory program in Louisiana from 1980 through 1990 are presented. The National Marine Fisheries Service (NMFS) habitat conservation efforts for this time period are described and averages involved delineated. From 1980 through 1990, NMFS reviewed 14,259 public notices to dredge, fill, or impound wetlands in Louisiana and provided recommendations to the Corps on 962 projects which proposed to impact over 600,000 acres of tidally influenced wetlands. NMFS recommended that impacts to about 279,000 acres be avoided and that more than 150,000 acres of compensatory mitigation be provided. During this period, marsh management projects proposed impounding over 197,000 acres of wetlands. On a permit by permit basis, 43% of NMFS recommendations were accepted, 34% were partially accepted, and 23% were rejected.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A pesquisa que apresento discutiu as políticas públicas de educação da Secretaria de Estado de Educação do Rio de Janeiro (SEEDUC/RJ) no segundo governo Sérgio Cabral (2011- 2014). Desde os anos 1990 vem ocorrendo uma recomposição do trabalho escolar e, por consequência, do trabalho docente na educação básica brasileira, para atender às novas exigências que vêm sendo apresentadas à educação escolar pública, em particular com relação a seus objetivos, organização e gestão. No período estudado (2011 2014), ganham destaque as políticas de responsabilização dos docentes pelo desempenho aferido da escola inserido numa lógica gerencialista da educação, segundo a qual as escolas são administradas com métodos semelhantes aos das empresas privadas, o que provoca intensificação do trabalho docente e o modifica. Com a baixa remuneração, associada ao arrocho salarial promovido pelas políticas de contenção dos gastos públicos dos anos 1990, os docentes da SEEDUC/RJ acumularam perdas salariais que (não cobertos pelos ganhos na remuneração bruta que ocorre no período de 2011 a 2014), acrescidas à expansão da cobertura da escola pública básica, sem os investimentos necessários para tanto, entre outros fatores, foram tornando o trabalho deste docente crescentemente precarizado. Procurei discutir então, dialogando com as teses de proletarização e desprofissionalização do professorado essa recomposição do trabalho docente que vem ocorrendo de forma particularmente intensa no Rio de Janeiro, com a implantação do Plano de Metas da Educação pela SEEDUC/RJ em janeiro de 2011. O Plano de Metas da Educação traz profundas modificações para a rede, à medida que estabelece metas de produtividade por unidade escolar, relativas ao fluxo escolar e ao desempenho dos alunos em avaliações externas. Existem ganhos na remuneração dos docentes de 2011 a 2014, ao mesmo tempo em que se intensifica o trabalho docente, sobrecarregado e modificado em seu caráter devido ao crescimento de tarefas de execução, mecânicas, não propriamente intelectuais, e à diminuição do espaço das atividades de elaboração, de caráter mais propriamente intelectual. A composição da carga horária, a atuação em diversas redes de ensino, a provisoriedade que afeta o vínculo com a profissão, são tratadas, neste trabalho, como elementos que interferem na formação da concepção político-pedagógica deste profissional. Procurei discutir então de que modo ocorre esta recomposição do trabalho docente, considerando sua relação com as suas condições efetivas de realização e de exercício da autonomia pedagógica deste trabalhador.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta tese, analisamos um corpus formado por questões de Língua Portuguesa do ENEM de 2010, 2011, 2012 e 2013, para observação de como gramática e leitura estão implicadas na compreensão do texto. Consideramos a hipótese de que componentes gramaticais são geralmente negligenciados em descrições e em estudos do processamento da leitura, porque alunos demonstram menor desempenho em questões que implicam a gramática. Com fundamentação em Azeredo (2013a/b, 2007a/b, 2004), Kleiman (2013, 2006, 2004a/b), Marcuschi (2008, 2006, 2003), Travaglia (2013, 2009, 2004, 2002) e em orientações oficiais para o ensino (PCN, PCNLP, OCNEM), descrevemos como conteúdos gramaticais são mobilizados na produção de sentidos pela leitura. A Matriz de Habilidades do SAEB é empregada como referencial para explicitação de habilidades, na análise das questões do ENEM, que são aplicadas em avaliações do Ensino Médio de duas turmas, resultando em percentuais de aproveitamento. Esses resultados constituem índices do nível de desenvolvimento da leitura desses alunos. Propomos, então, uma nova descrição de procedimentos em questões de gramática, considerando noções de compreensão, reconhecimento e aplicação gramatical

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dataq uantifying the area of habitat affected by Federal programs that regulate development in coastal zones of the southeastern United States are provided for 1988. The National Marine Fisheries Service (NMFS) made recommendations on 3,935 proposals requiring Federal permits or licenses to alter wetlands. A survey of 977 of these activities revealed that 359,876 acres of wetlands that support fishery resources under NMFS purview were proposed for some type of alteration or manipulation. Almost 95 percent of this acreage was for impounding andl/or manipulation of water levels in Louisiana marshes. The NMFS did not object to alteration of 173,284 acres and recommended the conservation of 186,592 acres. To offset habitat losses, 1,827 acres of mitigation were recommended by the NMFS or proposed by applicants and/or the Corps of Engineers (COE). From 1981 to 1988 the NMFS has provided in depth analyses on 8,385 projects proposing the alteration of at least 656,377 acres of wetlands. A follow-up survey on the disposition of 339 permits handled by the COE during 1988 revealed that the COE accepted NMFS recommendations on 68 percent. On a permit-by-permit basis, 13 percent of NMFS recommendations were partially accepted, 17 percent were completely rejected, and 2 percent were withdrawn. The permit requests tracked by the NMFS proposed the alteration of 2,674 acres of wetlands. The COE issued permits to alter 847 acres or 32 percent of the amount proposed.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O crescimento dos serviços de banda-larga em redes de comunicações móveis tem provocado uma demanda por dados cada vez mais rápidos e de qualidade. A tecnologia de redes móveis chamada LTE (Long Term Evolution) ou quarta geração (4G) surgiu com o objetivo de atender esta demanda por acesso sem fio a serviços, como acesso à Internet, jogos online, VoIP e vídeo conferência. O LTE faz parte das especificações do 3GPP releases 8 e 9, operando numa rede totalmente IP, provendo taxas de transmissão superiores a 100 Mbps (DL), 50 Mbps (UL), baixa latência (10 ms) e compatibilidade com as versões anteriores de redes móveis, 2G (GSM/EDGE) e 3G (UMTS/HSPA). O protocolo TCP desenvolvido para operar em redes cabeadas, apresenta baixo desempenho sobre canais sem fio, como redes móveis celulares, devido principalmente às características de desvanecimento seletivo, sombreamento e às altas taxas de erros provenientes da interface aérea. Como todas as perdas são interpretadas como causadas por congestionamento, o desempenho do protocolo é ruim. O objetivo desta dissertação é avaliar o desempenho de vários tipos de protocolo TCP através de simulações, sob a influência de interferência nos canais entre o terminal móvel (UE User Equipment) e um servidor remoto. Para isto utilizou-se o software NS3 (Network Simulator versão 3) e os protocolos TCP Westwood Plus, New Reno, Reno e Tahoe. Os resultados obtidos nos testes mostram que o protocolo TCP Westwood Plus possui um desempenho melhor que os outros. Os protocolos TCP New Reno e Reno tiveram desempenho muito semelhante devido ao modelo de interferência utilizada ter uma distribuição uniforme e, com isso, a possibilidade de perdas de bits consecutivos é baixa em uma mesma janela de transmissão. O TCP Tahoe, como era de se esperar, apresentou o pior desempenho dentre todos, pois o mesmo não possui o mecanismo de fast recovery e sua janela de congestionamento volta sempre para um segmento após o timeout. Observou-se ainda que o atraso tem grande importância no desempenho dos protocolos TCP, mas até do que a largura de banda dos links de acesso e de backbone, uma vez que, no cenário testado, o gargalo estava presente na interface aérea. As simulações com erros na interface aérea, introduzido com o script de fading (desvanecimento) do NS3, mostraram que o modo RLC AM (com reconhecimento) tem um desempenho melhor para aplicações de transferência de arquivos em ambientes ruidosos do que o modo RLC UM sem reconhecimento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A extração de regras de associação (ARM - Association Rule Mining) de dados quantitativos tem sido pesquisa de grande interesse na área de mineração de dados. Com o crescente aumento das bases de dados, há um grande investimento na área de pesquisa na criação de algoritmos para melhorar o desempenho relacionado a quantidade de regras, sua relevância e a performance computacional. O algoritmo APRIORI, tradicionalmente usado na extração de regras de associação, foi criado originalmente para trabalhar com atributos categóricos. Geralmente, para usá-lo com atributos contínuos, ou quantitativos, é necessário transformar os atributos contínuos, discretizando-os e, portanto, criando categorias a partir dos intervalos discretos. Os métodos mais tradicionais de discretização produzem intervalos com fronteiras sharp, que podem subestimar ou superestimar elementos próximos dos limites das partições, e portanto levar a uma representação imprecisa de semântica. Uma maneira de tratar este problema é criar partições soft, com limites suavizados. Neste trabalho é utilizada uma partição fuzzy das variáveis contínuas, que baseia-se na teoria dos conjuntos fuzzy e transforma os atributos quantitativos em partições de termos linguísticos. Os algoritmos de mineração de regras de associação fuzzy (FARM - Fuzzy Association Rule Mining) trabalham com este princípio e, neste trabalho, o algoritmo FUZZYAPRIORI, que pertence a esta categoria, é utilizado. As regras extraídas são expressas em termos linguísticos, o que é mais natural e interpretável pelo raciocício humano. Os algoritmos APRIORI tradicional e FUZZYAPRIORI são comparado, através de classificadores associativos, baseados em regras extraídas por estes algoritmos. Estes classificadores foram aplicados em uma base de dados relativa a registros de conexões TCP/IP que destina-se à criação de um Sistema de Detecção de Intrusos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta dissertação é avaliar o desempenho de ambientes virtuais de roteamento construídos sobre máquinas x86 e dispositivos de rede existentes na Internet atual. Entre as plataformas de virtualização mais utilizadas, deseja-se identificar quem melhor atende aos requisitos de um ambiente virtual de roteamento para permitir a programação do núcleo de redes de produção. As plataformas de virtualização Xen e KVM foram instaladas em servidores x86 modernos de grande capacidade, e comparadas quanto a eficiência, flexibilidade e capacidade de isolamento entre as redes, que são os requisitos para o bom desempenho de uma rede virtual. Os resultados obtidos nos testes mostram que, apesar de ser uma plataforma de virtualização completa, o KVM possui desempenho melhor que o do Xen no encaminhamento e roteamento de pacotes, quando o VIRTIO é utilizado. Além disso, apenas o Xen apresentou problemas de isolamento entre redes virtuais. Também avaliamos o efeito da arquitetura NUMA, muito comum em servidores x86 modernos, sobre o desempenho das VMs quando muita memória e núcleos de processamento são alocados nelas. A análise dos resultados mostra que o desempenho das operações de Entrada e Saída (E/S) de rede pode ser comprometido, caso as quantidades de memória e CPU virtuais alocadas para a VM não respeitem o tamanho dos nós NUMA existentes no hardware. Por último, estudamos o OpenFlow. Ele permite que redes sejam segmentadas em roteadores, comutadores e em máquinas x86 para que ambientes virtuais de roteamento com lógicas de encaminhamento diferentes possam ser criados. Verificamos que ao ser instalado com o Xen e com o KVM, ele possibilita a migração de redes virtuais entre diferentes nós físicos, sem que ocorram interrupções nos fluxos de dados, além de permitir que o desempenho do encaminhamento de pacotes nas redes virtuais criadas seja aumentado. Assim, foi possível programar o núcleo da rede para implementar alternativas ao protocolo IP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O processo produtivo industrial pode gerar uma grande quantidade de efluentes líquidos. Esses efluentes, quando não tratados, podem poluir o solo e a água, podendo causar grande impacto ambiental. Nesse sentido é imprescindível que todas as indústrias que geram efluentes líquidos possuam uma estação de tratamento. Porém, para que a estação esteja permanentemente funcionando de acordo com seu objetivo, essa deve ser rotineiramente avaliada. Dessa forma, a avaliação de desempenho para Estação de Tratamento de Efluentes Industriais (ETEI) se torna uma ferramenta importante para a manutenção da eficiência da estação, pois se justifica por procurar pontos vulneráveis da planta de tratamento fornecendo os subsídios necessários à elaboração do diagnóstico e projetos de adequação dos sistemas, permitindo que os efluentes tratados fiquem em conformidade com as exigências estabelecidas pela legislação ambiental. Neste trabalho, foi elaborada uma proposta metodológica, formada por um roteiro, composto por níveis de questionamentos, que auxilia o avaliador na análise de desempenho da ETEI. Complementando esse roteiro foram elaboradas algumas listas de verificação que contribuem para guiar o avaliador em suas análises. Na elaboração das listas, manuais desenvolvidos em diversos países foram considerados. As listas de verificação incluem perguntas para a avaliação dos dados gerais da indústria, para seu Sistema de Gestão Ambiental (SGA) e para alguns sistemas e unidades operacionais da estação de tratamento. Para exemplificar um dos níveis de questionamento do roteiro foi incluído um estudo de caso, no qual o afluente e o efluente de uma indústria mineradora foram avaliados através da técnica estatística multivariada Análise de Componentes Principais (ACP), para demonstração do desempenho da estação de tratamento. O resultado da avaliação realizada demonstrou um bom desempenho da ETEI em tratar os efluentes líquidos. Espera-se, portanto, que este trabalho seja útil para a avaliação de desempenho em plantas de tratamento de efluentes industriais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta pesquisa foi analisar de forma aprofundada um dos principais atores políticos da atual democracia brasileira: o Partido do Movimento Democrático Brasileiro (PMDB). Mais especificamente, buscou-se responder a seguinte pergunta: como um partido criado para ser a oposição legal ao regime ditatorial se tornou um partido governista com o retorno à democracia? Para compreender a mudança de comportamento desta organização, em primeiro lugar foi analisada a sua importância para a formação de coalizões governamentais. A sua posição de centro no espectro político brasileiro e a sua ampla presença no Congresso Nacional o torna um parceiro ideal para a formação de maiorias parlamentares. Em segundo lugar, foi analisada a importância da participação no governo para o PMDB. Suas características de centralidade e peso foram investigadas desde a sua origem, antes mesmo do MDB, no antigo PSD. Heterogeneidade, federalização, moderação e bom desempenho eleitoral são as principais causas, herdadas do MDB e do PSD, da formação destas características na década de 1980. Contudo, o retorno à democracia impôs um novo contexto político à organização e a necessidade de se adaptar a ele. Ao longo da década de 1990 o partido sofreu uma conversão institucional e um grupo particular, o governista, tomou a frente de sua direção. Dados eleitorais, de apresentação de emendas individuais ao orçamento e entrevistas com membros do partido fornecem mais informações sobre o comportamento político e as transformações sofridas pela sigla.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na madrugada do dia 16 de fevereiro de 1988 a Unidos de Vila Isabel conquistou o título inédito do carnaval carioca com o enredo Kizomba Festa da Raça. Esse título foi o auge da administração de Lícia Maria Maciel Caniné, a Ruça que à época era casada com Martinho José Ferreira, o Martinho da Vila. O casal era filiado ao Partido Comunista Brasileiro, e a administração em questão se opunha politicamente a Liga Independente das Escolas de Samba, comandada pelo presidente anterior da Unidos de Vila Isabel, Aílton Guimarães Jorge, o Capitão Guimarães. Azul Celeste em Vermelho analisa a trama política carnavalesca tensionada de fins da década de 1980, focalizando na gestão da presidente Ruça empreendida entre os carnavais de 1988 e 1990. Iluminado por fontes orais e periódicos da época, o presente trabalho está interessado em discutir as memórias tramadas sobre aquela administração e seus usos políticos, por vezes partidários.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.