9 resultados para Unconstrained minimization

em Biblioteca de Teses e Dissertações da USP


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O principal resíduo da indústria de café solúvel é a borra de café, gerada após a extração de sólidos solúveis com água, sendo usualmente queimada em caldeiras para geração de energia para a própria indústria. Entretanto, este co-produto pode conter de 15 a 20 % de óleo, componente de grande interesse na indústria alimentícia. Em paralelo, na indústria de produção de óleos vegetais o solvente frequentemente utilizado é o hexano. Contudo, por este ser um derivado de combustíveis fósseis, alternativas para sua substituição por solventes mais amigáveis ao meio ambiente, que podem ser obtidos por via biotecnológica, estão sendo estudadas. Deste modo, o objetivo principal desta dissertação de mestrado foi a viabilização técnica do emprego de solventes alcoólicos no processo de extração de óleo de borra de café proveniente da indústria de processamento de café solúvel. Foram realizadas extrações sólido-líquido em um estágio para estudar a influência das variáveis de processo temperatura (60 a 90 °C), tipo de solvente (etanol, ET ou isopropanol, IPA) e a hidratação do solvente (absoluto ou azeotrópico) nas características das fases extrato e rafinado, em termos de rendimento de extração de óleo, de ácidos clorogênicos (ACG), de carboidratos totais, teor de proteínas e índice de solubilidade de nitrogênio (ISN) da fase rafinado. Pré-tratamento enzimático ao processo de extração também foi realizado para investigar a sua atuação sobre o rendimento de extração de óleo e ACG, além do ISN das fases rafinado obtidas na temperatura de 70 °C. De forma geral, pode-se inferir que a temperatura favorece a extração de compostos lipídicos, mas a hidratação do solvente prejudica a extração destes compostos pelo aumento da polaridade do solvente. Do mesmo modo, como o ET é mais polar que o IPA, o primeiro solvente proporcionou a obtenção de menores rendimentos de extração de óleo. A temperatura de processo também influenciou a extração de ACG, a qual foi beneficiada a temperaturas mais baixas pelo aumento da polaridade dos solventes utilizados. De tal forma, que a 60 °C, nos experimentos utilizando etanol azeotrópico obteve-se os menores rendimentos de extração de óleo, porém maior rendimento de extração de ACG. O pré-tratamento enzimático apresentou diferenças significativas nas características das fases extrato e rafinado. No entanto, somente os experimentos com etanol absoluto resultaram em rendimentos de extração de óleo economicamente viáveis. De fato, será relevante um estudo mais aprofundado das variáveis de pré-tratamento enzimático para obter resultados mais expressivos em relação à extração de compostos lipídicos. Diante dos dados experimentais obtidos, conclui-se que é tecnicamente viável o emprego de solventes alcoólicos no processo de extração de óleo de borra de café. Entretanto, nota-se que as condições de processo devem ser avaliadas minuciosamente com o objetivo de se obter altos rendimentos de extração de óleo com maior teor de ACG.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O problema de Planejamento da Expansão de Sistemas de Distribuição (PESD) visa determinar diretrizes para a expansão da rede considerando a crescente demanda dos consumidores. Nesse contexto, as empresas distribuidoras de energia elétrica têm o papel de propor ações no sistema de distribuição com o intuito de adequar o fornecimento da energia aos padrões exigidos pelos órgãos reguladores. Tradicionalmente considera-se apenas a minimização do custo global de investimento de planos de expansão, negligenciando-se questões de confiabilidade e robustez do sistema. Como consequência, os planos de expansão obtidos levam o sistema de distribuição a configurações que são vulneráveis a elevados cortes de carga na ocorrência de contingências na rede. Este trabalho busca a elaboração de uma metodologia para inserir questões de confiabilidade e risco ao problema PESD tradicional, com o intuito de escolher planos de expansão que maximizem a robustez da rede e, consequentemente, atenuar os danos causados pelas contingências no sistema. Formulou-se um modelo multiobjetivo do problema PESD em que se minimizam dois objetivos: o custo global (que incorpora custo de investimento, custo de manutenção, custo de operação e custo de produção de energia) e o risco de implantação de planos de expansão. Para ambos os objetivos, são formulados modelos lineares inteiros mistos que são resolvidos utilizando o solver CPLEX através do software GAMS. Para administrar a busca por soluções ótimas, optou-se por programar em linguagem C++ dois Algoritmos Evolutivos: Non-dominated Sorting Genetic Algorithm-2 (NSGA2) e Strength Pareto Evolutionary Algorithm-2 (SPEA2). Esses algoritmos mostraram-se eficazes nessa busca, o que foi constatado através de simulações do planejamento da expansão de dois sistemas testes adaptados da literatura. O conjunto de soluções encontradas nas simulações contém planos de expansão com diferentes níveis de custo global e de risco de implantação, destacando a diversidade das soluções propostas. Algumas dessas topologias são ilustradas para se evidenciar suas diferenças.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta uma abordagem para a criação rápida de modelos em diferentes geometrias (complexas ou de alta simetria) com objetivo de calcular a correspondente intensidade espalhada, podendo esta ser utilizada na descrição de experimentos de es- palhamento à baixos ângulos. A modelagem pode ser realizada com mais de 100 geome- trias catalogadas em um Banco de Dados, além da possibilidade de construir estruturas a partir de posições aleatórias distribuídas na superfície de uma esfera. Em todos os casos os modelos são gerados por meio do método de elementos finitos compondo uma única geometria, ou ainda, compondo diferentes geometrias, combinadas entre si a partir de um número baixo de parâmetros. Para realizar essa tarefa foi desenvolvido um programa em Fortran, chamado de Polygen, que permite modelar geometrias convexas em diferentes formas, como sólidos, cascas, ou ainda com esferas ou estruturas do tipo DNA nas arestas, além de usar esses modelos para simular a curva de intensidade espalhada para sistemas orientados e aleatoriamente orientados. A curva de intensidade de espalhamento é calculada por meio da equação de Debye e os parâmetros que compõe cada um dos modelos, podem ser otimizados pelo ajuste contra dados experimentais, por meio de métodos de minimização baseados em simulated annealing, Levenberg-Marquardt e algorítmicos genéticos. A minimização permite ajustar os parâmetros do modelo (ou composição de modelos) como tamanho, densidade eletrônica, raio das subunidades, entre outros, contribuindo para fornecer uma nova ferramenta para modelagem e análise de dados de espalhamento. Em outra etapa desta tese, é apresentado o design de modelos atomísticos e a sua respectiva simulação por Dinâmica Molecular. A geometria de dois sistemas auto-organizado de DNA na forma de octaedro truncado, um com linkers de 7 Adeninas e outro com linkers de ATATATA, foram escolhidas para realizar a modelagem atomística e a simulação por Dinâmica Molecular. Para este sistema são apresentados os resultados de Root Mean Square Deviations (RMSD), Root Mean Square Fluctuations (RMSF), raio de giro, torção das hélices duplas de DNA além da avaliação das ligações de Hidrogênio, todos obtidos por meio da análise de uma trajetória de 50 ns.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma metodologia de controle de posição das juntas passivas de um manipulador subatuado de uma maneira subótima. O termo subatuado se refere ao fato de que nem todas as juntas ou graus de liberdade do sistema serem equipados com atuadores, o que ocorre na prática devido a falhas ou como resultado de projeto. As juntas passivas de manipuladores desse tipo são indiretamente controladas pelo movimento das juntas ativas usando as características de acoplamento da dinâmica de manipuladores. A utilização de redundância de atuação das juntas ativas permite a minimização de alguns critérios, como consumo de energia, por exemplo. Apesar da estrutura cinemática de manipuladores subatuados ser idêntica a do totalmente atuado, em geral suas características dinâmicas diferem devido a presença de juntas passivas. Assim, apresentamos a modelagem dinâmica de um manipulador subatuado e o conceito de índice de acoplamento. Este índice é utilizado na seqüência de controle ótimo do manipulador. A hipótese de que o número de juntas ativas seja maior que o número de passivas permite o controle ótimo das juntas passivas, uma vez que na etapa de controle destas há mais entradas (torques nos atuadores das juntas ativas), que elementos a controlar (posição das juntas passivas). Neste ponto reside a contribuição desta tese ao estado da arte, uma vez que não há até o momento publicação que proponha o controle ótimo das juntas passivas neste caso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do presente trabalho é a investigação e o desenvolvimento de estratégias de otimização contínua e discreta para problemas de Fluxo de Potência Ótimo (FPO), onde existe a necessidade de se considerar as variáveis de controle associadas aos taps de transformadores em-fase e chaveamentos de bancos de capacitores e reatores shunt como variáveis discretas e existe a necessidade da limitação, e/ou até mesmo a minimização do número de ações de controle. Neste trabalho, o problema de FPO será abordado por meio de três estratégias. Na primeira proposta, o problema de FPO é modelado como um problema de Programação Não Linear com Variáveis Contínuas e Discretas (PNLCD) para a minimização de perdas ativas na transmissão; são propostas três abordagens utilizando funções de discretização para o tratamento das variáveis discretas. Na segunda proposta, considera-se que o problema de FPO, com os taps de transformadores discretos e bancos de capacitores e reatores shunts fixos, possui uma limitação no número de ações de controles; variáveis binárias associadas ao número de ações de controles são tratadas por uma função quadrática. Na terceira proposta, o problema de FPO é modelado como um problema de Otimização Multiobjetivo. O método da soma ponderada e o método ε-restrito são utilizados para modificar os problemas multiobjetivos propostos em problemas mono-objetivos. As variáveis binárias associadas às ações de controles são tratadas por duas funções, uma sigmoidal e uma polinomial. Para verificar a eficácia e a robustez dos modelos e algoritmos desenvolvidos serão realizados testes com os sistemas elétricos IEEE de 14, 30, 57, 118 e 300 barras. Todos os algoritmos e modelos foram implementados em General Algebraic Modeling System (GAMS) e os solvers CONOPT, IPOPT, KNITRO e DICOPT foram utilizados na resolução dos problemas. Os resultados obtidos confirmam que as estratégias de discretização são eficientes e as propostas de modelagem para variáveis binárias permitem encontrar soluções factíveis para os problemas envolvendo as ações de controles enquanto os solvers DICOPT e KNITRO utilizados para modelar variáveis binárias não encontram soluções.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O empacotamento irregular de fita é um grupo de problemas na área de corte e empacotamento, cuja aplicação é observada nas indústrias têxtil, moveleira e construção naval. O problema consiste em definir uma configuração de itens irregulares de modo que o comprimento do contêiner retangular que contém o leiaute seja minimizado. A solução deve ser válida, isto é, não deve haver sobreposição entre os itens, que não devem extrapolar as paredes do contêiner. Devido a aspectos práticos, são admitidas até quatro orientações para o item. O volume de material desperdiçado está diretamente relacionado à qualidade do leiaute obtido e, por este motivo, uma solução eficiente pressupõe uma vantagem econômica e resulta em um menor impacto ambiental. O objetivo deste trabalho consiste na geração automática de leiautes de modo a obter níveis de compactação e tempo de processamento compatíveis com outras soluções na literatura. A fim de atingir este objetivo, são realizadas duas propostas de solução. A primeira consiste no posicionamento sequencial dos itens de modo a maximizar a ocorrência de posições de encaixe, que estão relacionadas à restrição de movimento de um item no leiaute. Em linhas gerais, várias sequências de posicionamentos são exploradas com o objetivo de encontrar a solução mais compacta. Na segunda abordagem, que consiste na principal proposta deste trabalho, métodos rasterizados são aplicados para movimentar itens de acordo com uma grade de posicionamento, admitindo sobreposição. O método é baseado na estratégia de minimização de sobreposição, cujo objetivo é a eliminação da sobreposição em um contêiner fechado. Ambos os algoritmos foram testados utilizando o mesmo conjunto de problemas de referência da literatura. Foi verificado que a primeira estratégia não foi capaz de obter soluções satisfatórias, apesar de fornecer informações importantes sobre as propriedades das posições de encaixe. Por outro lado, a segunda abordagem obteve resultados competitivos. O desempenho do algoritmo também foi compatível com outras soluções, inclusive em casos nos quais o volume de dados era alto. Ademais, como trabalho futuro, o algoritmo pode ser estendido de modo a possibilitar a entrada de itens de geometria genérica, o que pode se tornar o grande diferencial da proposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O aumento da concentração de gases de efeito estufa na atmosfera levou a uma preocupação de como se reduzir as emissões destes gases. Desta preocupação surgiram instrumentos de regulação a fim de reduzir ou controlar os níveis de poluição. Dentro deste contexto, esta pesquisa analisou o setor de transportes de cargas, com ênfase no transporte de soja. No Brasil, o setor de transportes é um dos principais responsáveis pelas emissões de gases de efeito estufa provenientes da queima de combustíveis fósseis. No setor de transportes, as emissões diferem entre os modais, sendo que as ferrovias e hidrovias poluem menos que as rodovias. Desta forma, simulou-se por meio de um modelo de programação linear se a adoção de medidas regulatórias sobre as emissões de CO2 traria uma alteração no uso das ferrovias e hidrovias. Uma das constatações, ao se utilizar o modelo de Minimização de Fluxo de Custo Mínimo para o transporte de soja em 2013, foi que a capacidade de embarque nos terminais ferroviários e hidroviários desempenha um papel fundamental na redução das emissões de CO2. Se não houver capacidade suficiente, a adoção de uma taxa pode não provocar a redução das emissões. No caso do sistema de compra e crédito de carbono, seria necessária a compra de créditos de carbono, numa situação em que a capacidade de embarque nos terminais intermodais seja limitada. Verificou-se, ainda, que melhorias na infraestrutura podem desempenhar um papel mitigador das emissões. Um aumento da capacidade dos terminais ferroviários e hidroviários existentes, bem como o aumento da capacidade dos portos, pode provocar a redução das emissões de CO2. Se os projetos de expansão das ferrovias e hidrovias desenvolvidos por órgãos governamentais saírem do papel, pode-se chegar a uma redução de pouco mais de 50% das emissões de CO2. Consideraram-se ainda quais seriam os efeitos do aumento do uso de biodiesel como combustível e percebeu-se que seria possível obter reduções tanto das emissões quanto do custo de transporte. Efeitos semelhantes foram encontrados quando se simulou um aumento da eficiência energética. Por fim, percebeu-se nesta pesquisa que a adoção de uma taxa não traria tantos benefícios, econômicos e ambientais, quanto a melhoria da infraestrutura logística do país.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diferentemente de muitas cidades europeias, a urbanização da cidade de São Paulo ocorreu na medida de seu crescimento econômico e populacional, formando um desenho urbano heterogêneo, sem padrões. A falta de um planejamento eficaz somada à priorização do transporte individual geraram problemas urbanos tais como congestionamentos, degradação ambiental, transporte público incipiente, etc. O novo plano diretor estratégico de São Paulo surge com uma proposta para reorganização da cidade, adensando regiões providas de maior infraestrutura e limitando a densidade populacional das outras regiões. Responsável pelo desenvolvimento imobiliário, o setor de real estate é afetado diretamente pelas novas diretrizes do plano diretor. Neste trabalho, são discutidos os impactos do novo plano diretor no planejamento de produtos residenciais, identificando os efeitos na formação de preços e das tipologias que passarão a ser ofertadas de acordo com as novas diretrizes de uso do solo, bem como as possíveis respostas do mercado, ou seja, empreendedores e a população. A metodologia de pesquisa contou com estudos bibliográficos, coleta de dados em uma incorporadora tradicional da cidade de São Paulo, e estudos de qualidade de investimento. Uma base de dados de terrenos foi submetida ao modelo de modo a comparar os resultados de empreender considerando a legislação anterior e a atual imposta pelo plano. Como resultado, verificou-se que a consequência indireta do plano será o aumento de preço de venda de apartamentos. Para minimizar esse efeito, será necessário: reduzir as taxas de retorno do empreendedor, reduzir as áreas privativas, custos de obra e os custos de terreno. Para os empreendedores, o planejamento de produtos se tornará ainda mais importante, diante das novas limitações e da provável redução de seus resultados financeiros. Ainda, a tendência é que terrenos localizados próximos dos eixos de transporte tenham seus preços de comercialização elevados, e a oferta de apartamentos nessas regiões será de produtos de até 80 metros quadrados. Já os terrenos localizados em regiões de baixo aproveitamento poderão ter a atividade de incorporação inviabilizada, a não ser que haja reduções consideráveis dos custos de terreno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Teste Baseado em Modelos (TBM) emergiu como uma estratégia promissora para minimizar problemas relacionados à falta de tempo e recursos em teste de software e visa verificar se a implementação sob teste está em conformidade com sua especificação. Casos de teste são gerados automaticamente a partir de modelos comportamentais produzidos durante o ciclo de desenvolvimento de software. Entre as técnicas de modelagem existentes, Sistemas de Transição com Entrada/Saída (do inglês, Input/Output Transition Systems - IOTSs), são modelos amplamente utilizados no TBM por serem mais expressivos do que Máquinas de Estado Finito (MEFs). Apesar dos métodos existentes para geração de testes a partir de IOTSs, o problema da seleção de casos de testes é um tópico difícil e importante. Os métodos existentes para IOTS são não-determinísticos, ao contrário da teoria existente para MEFs, que fornece garantia de cobertura completa com base em um modelo de defeitos. Esta tese investiga a aplicação de modelos de defeitos em métodos determinísticos de geração de testes a partir de IOTSs. Foi proposto um método para geração de conjuntos de teste com base no método W para MEFs. O método gera conjuntos de teste de forma determinística além de satisfazer condições de suficiência de cobertura da especificação e de todos os defeitos do domínio de defeitos definido. Estudos empíricos avaliaram a aplicabilidade e eficácia do método proposto: resultados experimentais para analisar o custo de geração de conjuntos de teste utilizando IOTSs gerados aleatoriamente e um estudo de caso com especificações da indústria mostram a efetividade dos conjuntos gerados em relação ao método tradicional de Tretmans.