848 resultados para otimização


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertaçãoo investiga a utilização de Particle Swarm Optimization (PSO) para a obtenção automática de sistemas fuzzy do tipo Mamdani, tendo como insumo apenas as definições das variáveis do problema, seus domínios e a função objetivo. Neste trabalho utilizam-se algumas técnicas conhecidas na tentativa de minimizar a obtenção de sistemas fuzzy que não sejam coerentes. As principais técnicas usadas são o método de Wang e Mendell, chamado de WM, para auxiliar na obtenção de regras, e os conceitos de clusterização para obtenção das funções de pertinência. Na função de avaliação proposta, considera-se não somente a acurácia do sistema fuzzy, através da medida do erro, mas também a sua interpretabilidade, através da medida da compacidade, que consiste da quantidade de regras e funções membro, da distinguibilidade, que permite evitar que as funções membro não se confundam, e da completude, que permite avaliar que as funções membro abranjam o máximo do domínio. O propósito deste trabalho consiste no desenvolvimento de um algoritmo baseado em PSO, cuja função de avaliação congregue todos esses objetivos. Com parâmetros bem definidos, o algoritmo pode ser utilizado em diversos tipos de problemas sem qualquer alteração, tornando totalmente automática a obtenção de sistemas fuzzy. Com este intuito, o algoritmo proposto é testado utilizando alguns problemas pré-selecionados, que foram classificados em dois grupos, com base no tipo de função: contínua ou discreta. Nos testes com funções contínuas, são utilizados sistemas tridimensionais, com duas variáveis de entrada e uma de saída, enquanto nos testes com funções discretas são utilizados problemas de classificação, sendo um com quatro variáveis e outro com seis variáveis de entrada. Os resultados gerados pelo algoritmo proposto são comparados com aqueles obtidos em outros trabalhos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diversas formas de geração de energia vêm sendo desenvolvidas com o objetivo de oferecer alternativas ecologicamente corretas. Neste contexto, a energia eólica vem se destacando na região Nordeste do Brasil, devido ao grande potencial dos ventos da região. As torres, que representam parcela significativa do custo total do sistema, tendem a crescer buscando ventos mais fortes e permitindo assim a utilização de aerogeradores com maior capacidade de geração de energia. Este trabalho tem como objetivo formular um modelo de otimização de torres tubulares de aço, para aerogeradores eólicos. Busca-se minimizar o volume total (custo, indiretamente), tendo como variáveis de projeto as espessuras da parede da torre. São impostas restrições relativas à frequência natural e ao comportamento estrutural (tensão e deslocamento máximo de acordo com recomendações da norma Europeia). A estrutura da torre é modelada com base no Método dos Elementos Finitos e o carregamento atuante na estrutura inclui os pesos da torre, do conjunto de equipamentos instalados no topo (aerogerador), e o efeito estático da ação do vento sobre a torre. Para verificação das tensões, deslocamentos e frequências naturais, foram utilizados elementos finitos de casca disponíveis na biblioteca do programa de análise ANSYS. Os modelos de otimização foram também implementados no modulo de otimização do programa ANSYS (design optimization), que utiliza técnicas matemáticas em um processo iterativo computadorizado até que um projeto considerado ótimo seja alcançado. Nas aplicações foram usados os métodos de aproximação por subproblemas e o método de primeira ordem. Os resultados obtidos revelam que torres para aerogeradores merecem atenção especial, em relação à concepção do projeto estrutural, sendo que seu desempenho deve ser verificado através de metodologias completas que englobem além das análises clássicas (estáticas e dinâmicas), incluam também as análises de otimização.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A operação de coleta e transporte de resíduos sólidos urbanos é indispensável dentro de quaisquer sistema de limpeza urbana. É necessário que se intensifique a pesquisa nessa área de conhecimento afim de produzir-se material de auxílio ao poder público municipal e o setor privado. Deste modo o objetivo geral deste trabalho é o estudo da utilização de ferramentas computacionais para a otimização dos roteiros dos serviços de coleta de resíduos sólidos domiciliares. Foi feito um comparativo entre os itinerários percorridos pelos caminhões de coleta quando dimensionados de forma empírica e quando dimensionados com o auxílio de ferramentas computacionais. Verificou-se as vantagens e desvantagens de cada modelo de dimensionamento e o grande potencial de redução de custos quando utilizadas ferramentas computacionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Redes de trocadores de calor são bastante utilizadas na indústria química para promover a integração energética do processo, recuperando calor de correntes quentes para aquecer correntes frias. Estas redes estão sujeitas à deposição, o que causa um aumento na resistência à transferência de calor, prejudicando-a. Uma das principais formas de diminuir o prejuízo causado por este fenômeno é a realização periódica de limpezas nos trocadores de calor. O presente trabalho tem como objetivo desenvolver um novo método para encontrar a programação ótima das limpezas em uma rede de trocadores de calor. O método desenvolvido utiliza o conceito de horizonte deslizante associado a um problema de programação linear inteira mista (MILP). Este problema MILP é capaz de definir o conjunto ótimo de trocadores de calor a serem limpos em um determinado instante de tempo (primeiro instante do horizonte deslizante), levando em conta sua influência nos instantes futuros (restante do horizonte deslizante). O problema MILP utiliza restrições referentes aos balanços de energia, equações de trocadores de calor e número máximo de limpezas simultâneas, com o objetivo de minimizar o consumo de energia da planta. A programação ótima das limpezas é composta pela combinação dos resultados obtidos em cada um dos instantes de tempo.O desempenho desta abordagem foi analisado através de sua aplicação em diversos exemplos típicos apresentados na literatura, inclusive um exemplo de grande porte de uma refinaria brasileira. Os resultados mostraram que a abordagem aplicada foi capaz de prover ganhos semelhantes e, algumas vezes, superiores aos da literatura, indicando que o método desenvolvido é capaz de fornecer bons resultados com um baixo esforço computacional

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A co-pirólise é uma rota promissora, uma vez que minimiza o impacto ambiental causado pela disposição do plástico de maneira inadequada, evita seu acúmulo em lixões e permite um melhor aproveitamento de um recurso natural não-renovável, o petróleo, matéria prima importante para a geração de energia e obtenção de produtos químicos. O presente trabalho teve como objetivo a definição das condições experimentais mais propícias à obtenção de líquidos pirolíticos com alta fração de óleo diesel, resultantes da co-pirólise de polietileno de alta densidade (PEAD) pós-consumo com gasóleo pesado tilizando-se catalisador de FCC (Fluid Catalytic Cracking). Como instrumento de otimização das condições experimentais, optou-se pela Metodologia Planejamento Fatorial. Foi também estudado o efeito das condições experimentais, como: a temperatura de reação, a relação gasóleo/polietileno e a quantidade de catalisador no meio reacional. As amostras de polietileno, gasóleo e catalisador foram submetidas à co-pirólise em sistema de leito fixo, sob fluxo constante de nitrogênio, variando-se a temperatura entre 450 C a 550 C, a quantidade de PEAD no meio reacional foi de 0,2 a 0,6 g, e a quantidade de catalisador foi de zero a 0,06 g, mantendo-se fixa a quantidade de gasóleo em 2 g. Foram efetuadas as caracterizações física e química do gasóleo, polietileno pós-uso e do catalisador. Como resultado, obteve-se a produção de 87% de fração de óleo diesel em duas condições diferentes: (a) 550 0C de temperatura sem catalisador; (b) 500 0C de temperatura e 25% de catalisador FCC. Em ambos os casos, a quantidade de gasóleo pesado e PEAD foram constantes (2 g Gasóleo; 0,2 g PEAD), assim com o tempo de reação de 15 minutos. A fração de óleo diesel obtida neste estudo alcançou o poder calorífico de 44,0 MJ/Kg que é similar ao óleo diesel comercial. É importante ressaltar que em ambos os casos nenhum resíduo foi produzido, sendo uma rota ambientalmente importante para reciclagem de embalagens plásticas contaminadas com óleo lubrificante originárias de postos de serviço, visando à recuperação de ambos conteúdo energético e orgânico dos resíduos de embalagens plásticas pós-uso

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dutos de transmissão são tubulações especialmente desenvolvidas para transportar produtos diversos a longas distâncias e representam a forma mais segura e econômica de transporte para grandes quantidades de fluidos. Os dutos de gás natural, denominados gasodutos, são usados para transportar o gás desde os campos de produção até os centros consumidores, onde o gás é inserido em redes de distribuição para entrega aos consumidores finais. Os gasodutos de transporte apresentam diversas características de monopólio natural, que são o principal argumento econômico para sua regulação. A regulação visa garantir que esta atividade seja explorada de maneira eficiente, refletindo em tarifas de transporte justas para os consumidores e que proporcionem o retorno adequado aos investidores, levando-se em consideração a quantidade de gás transportado. Neste contexto, o presente trabalho tem como objetivo propor metodologias de otimização multi-objetivo de projetos de redes de gasodutos de transporte, envolvendo métodos a posteriori. O problema de otimização formulado contempla restrições associadas ao escoamento do gás e o comportamento das estações de compressão. A solução do problema fornece um conjunto de projetos ótimos de redes de transporte em função da maximização da quantidade de gás natural transportado e da minimização da tarifa associada a esse serviço. A ferramenta foi aplicada a diversos estudos de caso com configurações típicas da indústria de transporte de gás natural. Os resultados mostraram que as metodologias propostas são capazes de fornecer subsídios que permitem ao tomador de decisão do ponto de vista regulatório realizar uma análise de trade-off entre a quantidade de gás transportado e a tarifa, buscando assim atender ao interesse da sociedade em relação à exploração do serviço de transporte

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ao se realizar estudo em qualquer área do conhecimento, quanto mais dados se dispuser, maior a dificuldade de se extrair conhecimento útil deste banco de dados. A finalidade deste trabalho é apresentar algumas ferramentas ditas inteligentes, de extração de conhecimento destes grandes repositórios de dados. Apesar de ter várias conotações, neste trabalho, irá se entender extração de conhecimento dos repositórios de dados a ocorrência combinada de alguns dados com freqüência e confiabilidade que se consideram interessantes, ou seja, na medida e que determinado dado ou conjunto de dados aparece no repositório de dados, em freqüência considerada razoável, outro dado ou conjunto de dados irá aparecer. Executada sobre repositórios de dados referentes a informações georreferenciadas dos alunos da UERJ (Universidade do Estado do Rio de Janeiro), irá se analisar os resultados de duas ferramentas de extração de dados, bem como apresentar possibilidades de otimização computacional destas ferramentas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com base no crescimento exponencial das populações urbanas, a demanda por espaço para habitação tem crescido vertiginosamente. Para atender a estas necessidades, edificações cada vez mais altas e mais esbeltas são projetadas e vãos cada vez maiores são utilizados. Novos materiais são criados e aprimorados para que seja extraído o máximo de desempenho com o menor custo. Deste modo, esta dissertação tem como objetivo o estudo do comportamento e otimização do projeto estrutural de edifícios. Para tal, considera-se ao longo do estudo o projeto de uma edificação de concreto armado com 47 metros de altura e 15 pavimentos, submetida às ações das cargas usuais de projeto atuantes sobre edifícios residenciais, além das cargas de vento. No que tange ao desenvolvimento do modelo computacional são empregadas técnicas usuais de discretização, via método dos elementos finitos, por meio do programa ANSYS. Inicialmente, a resposta estática e dinâmica do modelo estrutural é obtida e comparada com base nos valores limites propostos por normas de projeto. A partir de análises qualitativas e quantitativas desenvolvidas sobre a resposta estrutural do modelo em estudo são utilizadas técnicas de otimização com o objetivo de modificar e aprimorar o desempenho estrutural do edifício analisado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um dos problemas mais relevantes em organizações de grande porte é a escolha de locais para instalação de plantas industriais, centros de distribuição ou mesmo pontos comerciais. Esse problema logístico é uma decisão estratégica que pode causar um impacto significativo no custo total do produto comercializado. Existem na literatura diversos trabalhos que abordam esse problema. Assim, o objetivo desse trabalho é analisar o problema da localização de instalações proposto por diferentes autores e definir um modelo que seja o mais adequado possível ao mercado de distribuição de combustíveis no Brasil. Para isso, foi realizada uma análise do fluxo de refino e distribuição praticado neste segmento e da formação do respectivo custo de transporte. Foram consideradas restrições como capacidade de estoque, gama de produtos ofertados e níveis da hierarquia de distribuição. A partir dessa análise, foi definido um modelo matemático aplicado à redução dos custos de frete considerando-se a carga tributária. O modelo matemático foi implementado, em linguagem C, e permite simular o problema. Foram aplicadas técnicas de computação paralela visando reduzir o tempo de execução do algoritmo. Os resultados obtidos com o modelo Single Uncapacited Facility Location Problem (SUFLP) simulado nas duas versões do programa, sequencial e paralela, demonstram ganhos de até 5% em economia de custos e redução do tempo de execução em mais de 50%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Deposição é um fenômeno indesejável que ocorre na superfície dos trocadores de calor ao longo de sua operação, ocasionando redução na efetividade térmica e aumento da resistência ao escoamento nestes equipamentos. Estes efeitos trazem grandes consequências econômicas e ambientais, devido ao aumento dos custos operacionais (energia adicional é requerida), aumento dos custos de projeto (demanda por equipamentos de maior área de troca térmica), limitações hidráulicas (que pode levar a uma diminuição da carga processada) e aumento das emissões (aumento da queima de combustíveis fósseis para suprir a energia adicional requerida). Neste contexto, o presente trabalho tem por objetivo fornecer ferramentas computacionais robustas que apliquem técnicas de otimização para o gerenciamento da deposição em redes de trocadores de calor, visando minimizar os seus efeitos negativos. Estas ferramentas foram desenvolvidas utilizando programação matemática no ambiente computacional GAMS, e três abordagens distintas para a resolução do problema da deposição foram pesquisadas. Uma delas consiste na identificação do conjunto ótimo de trocadores de calor a serem limpos durante uma parada para manutenção da planta, visando restaurar a carga térmica nesses equipamentos através da remoção dos depósitos existentes. Já as duas outras abordagens consistem em otimizar a distribuição das vazões das correntes ao longo de ramais paralelos, uma de forma estacionária e a outra de forma dinâmica, visando maximizar a recuperação de energia ao longo da rede. O desempenho destas três abordagens é ilustrado através de um conjunto de exemplos de redes de trocadores de calor, onde os ganhos reais obtidos com estas ferramentas de otimização desenvolvidas são demonstrados

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os métodos de otimização que adotam condições de otimalidade de primeira e/ou segunda ordem são eficientes e normalmente esses métodos iterativos são desenvolvidos e analisados através da análise matemática do espaço euclidiano n-dimensional, o qual tem caráter local. Esses métodos levam a algoritmos iterativos que são usados para o cálculo de minimizadores globais de uma função não linear, principalmente não-convexas e multimodais, dependendo da posição dos pontos de partida. Método de Otimização Global Topográfico é um algoritmo de agrupamento, o qual é fundamentado nos conceitos elementares da teoria dos grafos, com a finalidade de gerar bons pontos de partida para os métodos de busca local, com base nos pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem como objetivo a aplicação do método de Otimização Global Topográfica junto com um método robusto e eficaz de direções viáveis por pontos-interiores a problemas de otimização que tem restrições de igualdade e/ou desigualdade lineares e/ou não lineares, que constituem conjuntos viáveis com interiores não vazios. Para cada um destes problemas, é representado também um hiper-retângulo compreendendo cada conjunto viável, onde os pontos amostrais são gerados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

ESTABELECIMENTO DE METODOLOGIA PARA ANÁLISE MOLECULAR DE AZEVÉM ANUAL COM MARCADORES AFLP. O uso de marcadores moleculares no manejo de bancos de germoplasma tem sido cada vez mais expressivo. Entre os diferentes tipos de marcadores moleculares, o AFLP, Amplified Fragment Length Polymorphism, apresenta algumas vantagens para uso na caracterização de recursos genéticos, como a detecção de grande número de bandas informativas por reação, com ampla cobertura do genoma e considerável reprodutibilidade, além de não necessitar de dados de seqüenciamento prévio da espécie para a construção de primers. Embora a análise de AFLP seja freqüentemente utilizada em estudos de variabilidade genética em diferentes espécies, o uso da técnica em Lolium multiflorum ainda é incipiente. Com a finalidade de estabelecer um protocolo para o emprego da técnica de AFLP em azevém anual foi conduzido este trabalho. Foram avaliadas as concentrações iniciais de DNA genômico de 100 e 250 ng, a digestão do DNA com 1,25 e 1U das enzimas EcoRI e MSe, e os respectivos tempos de reação de digestão: 3, 6 e 12 horas. Também foram avaliadas quatro concentrações da solução resultante da ligação dos adaptadores: solução sem diluição; diluída 1:5; 1:10 e 1:20 e duas diluições após a reação de pré-amplificação, de 1:25 e 1:50. Como resultado, foi estabelecido como melhor protocolo, no qual foi obtido um maior número e qualidade de fragmentos, o que utiliza a concentração inicial de DNA genômico de 100 ng, num volume final de reação de digestão 10 ?l, com 1U de cada enzima EcoRI e MseI e tempo de reação de 12h a 37°C, com reação de ligação de adaptadores realizada com a adição da solução de ligação de adaptadores, do Kit AFLP? Analysis System I (InvitroGen Life Technologies, Carlsbad, Calif., USA), e 0,4 U de T4 DNA ligase em um volume final de 10?l, por 2h a 20°C. Após a ligação de adaptadores a diluição deverá ser de 1:5. A reação de pré-amplificação deverá ocorrer a partir de 1?l desta última solução (diluída 1:5), 1,0 X PCR buffer com Mg Plus [Tris-HCl (pH 7.6) 20 mM, MgCl2 1,5 mM, KCl 50 mM], BSA 0,003% e 1 U de Taq DNA polimerase, completando com mix de pré-amplificação do Kit AFLP? Analysis System I até alcançar o volume final de 11?l. O produto da pré-amplificação deverá ser diluído 1:25 antes de ser procedida à amplificação seletiva, a qual deve ser realizada utilizando 2,5 ?l da solução de DNA pré-amplificado (diluído 1:25), 1 X PCR buffer com Mg Plus [Tris-HCl (pH 8,4) 20 mM, MgCl2 1,5 mM, KCl 50 mM], BSA (0,003%), 1 U de Taq DNA polimerase, 10 ng de primer EcoRI, 1,5 ng de primer MseI, 0,4mM de DNTps e H2O MilliQ? até completar o volume final de 10?l. Com este protocolo uma única combinação de primers permitiu identificar 58 bandas polimórficas na análise de duas populações de azevém anual.