16 resultados para Estoque : Otimização
em Biblioteca de Teses e Dissertações da USP
Resumo:
Técnicas analíticas empregadas para a quantificação do teor de lignina em plantas forrageiras, atualmente em uso, são questionáveis quanto às suas acurácias. O método lignina detergente ácido (LDA), que é um dos métodos mais utilizado em Ciência Animal e Agronomia, apresenta algumas falhas, particularmente devido à parcial solubilização da lignina durante a preparação da fibra em detergente ácido (FDA). A lignina Klason (LK), outro método muito usado, apresenta o inconveniente de mensurar a proteína da parede celular como sendo lignina. Em ambos os procedimentos recomenda-se também mensurar cinzas nos resíduos de lignina. A quantificação da concentração de lignina pelo método espectrofotométrico lignina brometo de acetila (LBA) vem ganhando interesse de pesquisadores no Brasil e no exterior. Nesta metodologia, a lignina da planta contida na preparação parede celular (PC) é solubilizada numa solução a 25% de brometo de acetila em ácido acético e a absorbância mensurada é com luz UV a 280 nm. O valor da absorbância é inserido numa equação de regressão e a concentração de lignina é obtida. Para que esta técnica analítica seja mais aceita pelos pesquisadores, ela deve ser, obviamente, convincente e atrativa. O presente trabalho analisou alguns parâmetros relacionados à LBA em 7 gramíneas e 6 leguminosas, em dois estádios de maturidade. Dentre as diferentes temperaturas de pré-secagem, os resultados indicaram que os procedimentos de 55°C com ventilação e liofilização podem ser utilizados com a mesma eficácia. As temperaturas de 55°C sem ventilação e 80°C sem ventilação não são recomendadas, pois aumentaram os valores de FDA e LDA, possivelmente devido ao surgimento de artefatos de técnica como os compostos de Maillard. No método LBA os valores menores das amostras de leguminosas chamaram a atenção e colocaram em questão se a lignina destas plantas seria menos solúvel no reagente brometo de acetila. Dentre algumas alterações na metodologia da técnica LBA, a utilização do moinho de bolas (para diminuir o tamanho particular) nas amostras de PC não mostrou efeito; a hipótese era melhorar a solubilização da lignina usando partículas menores. O uso de um ultrasonicador, que aumenta a vibração das moléculas e assim, facilitaria a solubilização da lignina no reagente brometo de acetila, melhorou a solubilização da lignina em cerca de 10%, tanto nas gramíneas como nas leguminosas. Foi acoplado um ensaio biológico como referência, a degradabilidade in vitro da matéria seca (DIVMS); e como a lignina está intimamente associada à estrutura fibrosa da parede celular, também foi feito um ensaio de degradabilidade in vitro da fibra em detergente neutro (DIVFDN). Os resultados confirmaram o efeito da maturidade, reduzindo a degradabilidade nas plantas mais maduras, e que o teor de lignina de leguminosas é realmente inferior ao de gramíneas. Os resultados de degradabilidade apresentaram coeficientes de correlação mais elevados com o método LBA, quando foi empregada a técnica do ultrasom; o método LK mostrou os menores coeficientes. Também testou-se, com sucesso, a utilização da FDN, como preparação fibrosa, ao invés de PC. A razão é simples: enquanto que a FDN é amplamente conhecida, a preparação PC não o é. Inquestionável que esta manobra facilitará substancialmente a divulgação desse método, tornando-a mais aceitável pela comunidade científica
Resumo:
No presente trabalho foram estudadas as separações de 18 flavonóides (9 agliconas e 9 glicosídeos) pelas técnicas de Cromatografia Líquida de Alta Eficiência em fase reversa (RP-HPLC) e Cromatografia Micelar Eletrocinética em fluxo reverso (RF-Meck). Em ambas as técnicas foram avaliados solventes puros (metanol, acetonitrila e tetrahidrofurano) e suas misturas como formas de promover a variação de seletividade, através da modificação da fase móvel em HPLC, e da natureza do aditivo orgânico em RF-Meck. Nos estudos efetuados em HPLC utilizando-se gradiente, pode-se comprovar a possibilidade da modelagem do fator de retenção em funçã da proporção de solvente utilizados (MeOH, ACN, THF e suas misturas). Pode-se ainda, com base nos dados de retenção e na análise hierárquica de c1usters, diferenciar quatro diferentes grupos de sistemas cromatográficos com diferentes seletividades para flavonóides agliconas, e outros quatro com diferentes seletividades para glicosídeos. Os sistemas cromatográficos mais ortogonais (cada um pertencente a um grupo de seletividade) foram aplicados na separação de uma planta modelo (Azadirachta indica), de onde pode-se escolher a fase móvel mais seletiva para se otimizar a separação dos flavonóides glicosilados presentes nas folhas desta planta. No método final otimizado pode-se identificar e quantificar cinco dos flavonóides majoritários presentes, sendo três glicosídeos de quercetina (rutina, isoquercitrina e quercitrina) e dois glicosídeos de kaempferol (astragalin e nicotiflorin), em amostras de duas diferentes procedências (Piracicaba-SP e Silvânia-GO). Nos estudos envolvendo a separação dos dezoito flavonóides por RFMEKC pode-se comprovar diferenças significativas de seletividade quando se varia a natureza do solvente orgânico utilizado como aditivo, além de se observar tendências na migração em função das propriedades do solvente adicionado e da estrutura molecular do flavonóide. O solvente de menor eficiência para separação dos flavonóides foi o MeOH. Através da análise dos eletroferogramas obtidos através de um planejamento experimental de misturas, e das trocas de pares críticos observadas nos vários eletrólitos utilizados, obteve-se um método de separação com apenas um par crítico em menos de 12 minutos de corrida. O coeficiente de variação obtido para o fator de retenção foi de 1,5% e para área de 3%, considerando-se cinco injeções. O método desenvolvido foi aplicado com sucesso na identificação dos flavonóides majoritários presentes na planta modelo (Neem), obtendo-se o mesmo resultado do estudo anterior. Como forma de avaliar a concentração de flavonóides totais presentes em espécies vegetais é comum a análise de extratos após hidrólise ácida (conversão de todos glicosídeos em agliconas). Desta forma otimizou-se uma metodologia de separação em RP-HPLC de 8 flavonóides agliconas comumente presentes em alimentos e extratos vegetais de uso cosmético. A otimização foi efetuada mediante um planejamento experimental de misturas, para escolha da fase móvel mais seletiva, e de um planejamento fatorial composto central, para otimização das condições de gradiente. O método obtido foi o mais rápido já visto dentro da literatura consultada. A separação em linha de base foi efetuada em menos de 15 minutos, com coeficientes de variação de área entre 0,1 e 1,8%, coeficiente de correlação de 0,9993 a 0,9994 na faixa de 5 a 100 µg/mL, e limites de quantificação estimados na faixa de 0,1 a 0,21µg/mL. O método desenvolvido foi aplicado na otimização das condições de hidrólise de um extrato de Neem. A otimização foi efetuada através de metodologia de superfície de resposta, levando-se em consideração a concentração de ácido adicionada, o tempo de reação, a temperatura, e a concentração de um antioxidante (ácido ascórbico) adicionado. O resultado da otimização foi uma metodologia de hidrólise com tempo de reação igual a 5 minutos, utilizando-se 1,4 mol/L de HCI, 119°C e 500 µg/mL de ácido ascórbico. Através das metodologias de análise e de hidrólise desenvolvidas pode-se constatar a presença e quantificar no extrato de Neem os flavonóides agliconas quercetina, kaempferol e miricetina. Com o objetivo de se avaliar quais os componentes presentes em extratos vegetais são os responsáveis pelo poder antioxidante atribuído a determinadas plantas, foi montado um sistema de avaliação de poder antioxidante \"on-line\" com reação pós-coluna em HPLC (baseado na literatura) utilizando-se como \"radical livre modelo\" o ABTS. A análise da planta modelo (Neem) neste sistema mostrou que os flavonóides glicosilados identificados nas partes anteriores deste trabalho são os responsáveis pelo poder antioxidante atribuído a esta planta. De posse desta informação, e visando a obtenção de extratos para aplicações cosméticas com poder antioxidante, modelou-se a extração dos flavonóide do Neem em função da composição do solvente extrator (água, etanol , propilenoglicol e suas misturas), de acordo com um planejamento simplex centróide ampliado. Além da previsão da concentração dos princípios ativos pode-se ainda prever outras propriedades dos extratos obtidos, tais como, índice de refração e densidade, muitas vezes constituintes de especificações técnicas de acordo com as aplicações a que se destinam (cremes, xampús, etc).
Resumo:
O objetivo do presente trabalho é a investigação e o desenvolvimento de estratégias de otimização contínua e discreta para problemas de Fluxo de Potência Ótimo (FPO), onde existe a necessidade de se considerar as variáveis de controle associadas aos taps de transformadores em-fase e chaveamentos de bancos de capacitores e reatores shunt como variáveis discretas e existe a necessidade da limitação, e/ou até mesmo a minimização do número de ações de controle. Neste trabalho, o problema de FPO será abordado por meio de três estratégias. Na primeira proposta, o problema de FPO é modelado como um problema de Programação Não Linear com Variáveis Contínuas e Discretas (PNLCD) para a minimização de perdas ativas na transmissão; são propostas três abordagens utilizando funções de discretização para o tratamento das variáveis discretas. Na segunda proposta, considera-se que o problema de FPO, com os taps de transformadores discretos e bancos de capacitores e reatores shunts fixos, possui uma limitação no número de ações de controles; variáveis binárias associadas ao número de ações de controles são tratadas por uma função quadrática. Na terceira proposta, o problema de FPO é modelado como um problema de Otimização Multiobjetivo. O método da soma ponderada e o método ε-restrito são utilizados para modificar os problemas multiobjetivos propostos em problemas mono-objetivos. As variáveis binárias associadas às ações de controles são tratadas por duas funções, uma sigmoidal e uma polinomial. Para verificar a eficácia e a robustez dos modelos e algoritmos desenvolvidos serão realizados testes com os sistemas elétricos IEEE de 14, 30, 57, 118 e 300 barras. Todos os algoritmos e modelos foram implementados em General Algebraic Modeling System (GAMS) e os solvers CONOPT, IPOPT, KNITRO e DICOPT foram utilizados na resolução dos problemas. Os resultados obtidos confirmam que as estratégias de discretização são eficientes e as propostas de modelagem para variáveis binárias permitem encontrar soluções factíveis para os problemas envolvendo as ações de controles enquanto os solvers DICOPT e KNITRO utilizados para modelar variáveis binárias não encontram soluções.
Resumo:
Introdução: A Hiperplasia Adrenal Congênita por deficiência da 21-hidroxilase (HAC) é uma doença com mortalidade neonatal elevada sendo elegível para programas públicos de Triagem Neonatal (TN). A HAC é causada por mutações no gene CYP21A2, as quais acarretam diferentes comprometimentos da atividade enzimática e resultam em espectro amplo de manifestações clínicas. Apesar da eficiência da TN para diagnosticar os casos graves, a taxa elevada de resultados falso-positivos (RFP), principalmente relacionados à prematuridade, é um dos maiores problemas. Porém, resultados falso-negativos também podem ocorrer em coletas antes de 24 horas de vida. No Brasil, a coleta da amostra neonatal difere entre os municípios, podendo ser no terceiro dia de vida como após. Objetivo: Avaliar se os valores da 17OH-progesterona neonatal (N17OHP) das coletas no terceiro dia de vida diferem significativamente das coletas a partir do quarto dia. Determinar qual percentil (99,5 ou 99,8) pode ser utilizado como valor de corte para a N17OHP, de acordo com o peso ao nascimento e tempo de vida na coleta, a fim de que proporcione taxa menor de RFP. Métodos: Foi avaliada, retrospectivamente, a N17OHP de 271.810 recém-nascidos (Rns) de acordo com o tempo de vida na coleta (G1: 48 - = 72h) e peso ao nascimento (P1: <= 1.500g, P2: 1.501-2.000g, P3: 2.001-2.500g e P4: >= 2.500g), pelo método imunofluorimétrico. Testes com resultados alterados foram confirmados no soro por Espectrometria de Massas em Tandem - LC-MS/MS. Rns afetados e/ou assintomáticos e com valores persistentemente elevados de 17OHP sérica foram submetidos ao estudo molécular, sequenciamento do gene CYP21A2. Resultados: os valores da N17OHP no grupo G1 foram significativamente menores do que em G2 em todos os grupos de peso (p < 0.001). A taxa de RFP em G1 e G2 foi de 0,2% para o percentil 99,8 e de 0,5% para o percentil 99,5 em ambos os grupos. O percentil 99,8 da N17OHP foi o melhor valor de corte para distinguir os Rns não afetados dos afetados, cujos valores são: G1 (P1: 120; P2: 71; P3: 39 e P4: 20 ng /mL) e em G2 (P1: 173; P2: 90; P3: 66 e P4: 25 ng/mL). Vinte e seis Rns do grupo G1 apresentaram a forma perdedora de sal (PS) (13H e 13M), nestes a N17OHP variou de 31 a 524 ng/mL e vinte Rns no grupo G2 (8H e 12M), nestes a N17OHP variou de 53 a 736 ng/mL. Para ambos os grupos foram encontrados três Rns com a forma virilizante simples (1H e 2M) e os valores da N17OHP variaram de 36 a 51 ng/mL. Resultados falso-negativos não foram relatados. O valor preditivo positivo (VPP) no teste do papel filtro foi de 5,6% e 14,1% nos grupos G1 e G2, respectivamente, ao se utilizar o percentil 99,8, e de 2,3% e 7% nos grupos G1 e G2 ao se utilizar o percentil 99,5. Dentre os casos com TN alterada (RFP), 29 deles também apresentaram 17OHP sérica elevada quando dosada por LC-MS/MS. Os casos assintomáticos foram acompanhados até normalização da 17OHP sérica e/ou submetidos ao estudo molecular, que identificou dois Rns com genótipo que prediz a forma não clássica. Conclusão: a melhor estratégia para otimização do diagnóstico da HAC na triagem neonatal é se padronizar valores de corte da N17OHP em dois grupos de acordo com o tempo de vida na coleta (antes e depois de 72 horas), subdivididos em quatro grupos de peso. A utilização dos valores de corte do percentil 99,8 se mantém eficaz no diagnóstico da HAC-21OH na triagem neonatal, reduzindo de forma significativa a taxa de RFP, sem perda do diagnóstico da forma PS
Resumo:
Esta pesquisa visa a análise da contribuição de cinco variáveis de entrada e a otimização do desempenho termo-hidráulico de trocadores de calor com venezianas combinados com geradores de vórtices delta-winglets. O desempenho termohidráulico de duas geometrias distintas, aqui nomeadas por GEO1 e GEO2, foram avaliadas. Smoothing Spline ANOVA foi usado para avaliar a contribuição dos parâmetros de entrada na transferência de calor e perda de carga. Considerando aplicação automotiva, foram investigados números de Reynolds iguais a 120 e 240, baseados no diâmetro hidráulico. Os resultados indicaram que o ângulo de venezianas é o maior contribuidor para o aumento do fator de atrito para GEO1 e GEO2, para ambos os números de Reynolds. Para o número de Reynolds menor, o parâmetro mais importante em termos de transferência de calor foi o ângulo das venezianas para ambas as geometrias. Para o número de Reynolds maior, o ângulo de ataque dos geradores de vórtices posicionados na primeira fileira é o maior contribuidor para a tranfesferência de calor, no caso da geometria GEO1, enquanto que o ângulo de ataque dos geradores de vórtices na primeira fileira foi tão importante quanto os ângulos das venezianas para a geometria GEO2. Embora as geometrias analisadas possam ser consideradas como técnicas compostas de intensificação da transferência de calor, não foram observadas interações relevantes entre ângulo de venezianas e parâmetros dos geradores de vórtices. O processo de otimização usa NSGA-II (Non-Dominated Sorting Genetic Algorithm) combinado com redes neurais artificiais. Os resultados mostraram que a adição dos geradores de vórtices em GEO1 aumentaram a transferência de calor em 21% e 23% com aumentos na perda de carga iguais a 24,66% e 36,67% para o menor e maior números de Reynolds, respectivamente. Para GEO2, a transferência de calor aumentou 13% e 15% com aumento na perda de carga de 20,33% e 23,70%, para o menor e maior número de Reynolds, respectivamente. As soluções otimizadas para o fator de Colburn mostraram que a transferência de calor atrás da primeira e da segunda fileiras de geradores de vórtices tem a mesma ordem de magnitude para ambos os números de Reynolds. Os padrões de escoamento e as características de transferência de calor das soluções otimizadas apresentaram comportamentos vi particulares, diferentemente daqueles encontrados quando as duas técnicas de intensificação de transferência de calor são aplicadas separadamente.
Resumo:
Esta tese propõe a síntese e o estudo de uma nova técnica de cavidades de borda aplicada a antenas Vivaldi, com o intuito de melhorar suas características de diretividade. Embora as antenas do tipo Vivaldi possuam características diretivas, elas produzem radiações laterais indesejáveis, o que se reflete nos elevados índices de lóbulos laterais devido a correntes superficiais que fluem ao longo das bordas metalizadas nas laterais da antena. Estas correntes são a origem das radiações laterais que vêm sendo mitigadas pela aplicação de cavidades ressonantes, triangulares ou retangulares, que aprisionam tais correntes e, consequentemente, atenuam os lóbulos laterais, sem o incremento do lóbulo principal, uma vez que toda a energia dos lóbulos laterais é apenas confinada nos ressonadores e por isso literalmente perdida. Ao contrário desses esforços, este trabalho propõe cavidades radiantes tanto na forma de abertura exponencial, como na forma do fractais de Koch, que funcionam como radiadores auxiliares (antenas auxiliares), canalizando as correntes de borda e aproveitando-as para aumentar os níveis do lóbulo principal, mitigando os níveis de lóbulo lateral. A síntese desta nova técnica foi implementada em uma antena Vivaldi antipodal com características de baixa diretividade, como qualquer antena Vivaldi, o que foi corrigido e a aplicação da técnica de cavidades radiantes deu origem a duas novas antenas Vivaldis efetivamente diretivas. Os resultados foram obtidos através de simulações do modelo numérico no CST Microwave Studio e confirmados com medidas de laboratório, o que evidenciou a melhora das características de diretividade da antena pela aplicação da nova técnica de cavidades radiantes.
Resumo:
A nanotecnologia tem sido aplicada para o desenvolvimento de materiais para diversas aplicações inclusive na inativação de patógenos. As nanopartículas de sílica (npSi) destacam-se pela alta área superficial, facilidade na alteração da superfície para aumento da eficiência adsortiva, penetrabilidade e toxicidade para bactérias gram-negativas sendo biocompatíveis para células de mamíferos e mais foto-estáveis que a maioria dos compostos orgânicos. Devido as suas vantagens, as npSi podem ser usadas para veicular fotossensibilizadores (FSs) uma vez que permitem sua utilização em solução aquosa em que os FSs geralmente são insolúveis. Além disso, o uso de FSs em vez de antibióticos, permite a inativação microbiológica pela Terapia Fotodinâmica sem que as bactérias adquiram resistência por mecanismos genéticos. Esse processo ocorre pela interação entre um FS, luz e oxigênio molecular produzindo oxigênio singleto que é extremamente reativo danificando estruturas celulares. O objetivo desse estudo foi otimizar a fotoinativação dinâmica de E .coli utilizando Azul de Metileno (AM) e Azul de Toluidina O (ATO) veiculados por npSi. As npSi foram preparadas pela metodologia sol-gel, caracterizadas por microscopia eletrônica de varredura (MEV) e submetidas à adsorção de AM e ATO em sua superfície. A presença de AM e ATO na superfície das npSi foram analisadas por espectroscopia no infravermelho; espectroscopia de fluorescência por raio-X e análise termogravimétrica. O planejamento experimental, iniciado pelo fatorial 23 e modelado ao composto central em busca das condições ótimas foi adotado pela primeira vez nessa aplicabilidade, visando a fotoinativação de E. coli empregando AM e ATO em solução e em seguida com npSi. AM e ATO veiculados por npSi permitem a fotoinativação em concentrações mais baixas de FS (20 e 51% respectivamente), causando desestruturação da integridade bacteriana demonstrada por MEV. Os resultados sugerem que a veiculação de AM e ATO por npSi é extremamente efetiva para a fotoinativação dinâmica de E. coli e que o planejamento composto central pode levar à completa inativação das bactérias.
Resumo:
A otimização de sistemas do tipo Ti-Si-X requer que os sistemas binários estejam constantemente atualizados. O sistema Ti-Si foi investigado experimentalmente desde a década de 50 e poucos estudos usaram os dados experimentais para calcular o diagrama de fases Ti-Si usando modelamento termodinâmico. A otimização mais recente do sistema Ti-Si foi realizada em 1998, descrevendo a fase Ti5Si3 como um intermetálico não estequiométrico contendo três sub-redes e mostrando a presença da fase intermetálica estequiométrica Ti3Si. Dada a recente disputa sobre a cinética de precipitação e a estabilidade das fases Ti3Si e Ti5Si3 nos sistemas Ti-Si e Ti-Si-X, o canto rico em titânio do sistema Ti-Si (estável e metaestável) foi otimizado no presente trabalho. Os limites de estabilidade de fases, os valores dos erros pelo método dos mínimos quadrados do procedimento de otimização e os desvios padrões relativos das variáveis calculadas foram discutidos para inspirar a realização de mais trabalhos experimentais para investigar as reações eutetóides estáveis e/ou metaestáveis, ?->? + Ti3Si e ?->? + + Ti5Si3; e para melhorar cada vez mais as otimizações termodinâmicas do diagrama de fases do sistema Ti-Si.
Resumo:
O presente estudo considera a aplicação do modelo SISAGUA de simulação matemática e de otimização para a operação de sistemas de reservatórios integrados em sistemas complexos para o abastecimento de água. O SISAGUA utiliza a programação não linear inteira mista (PNLIM) com os objetivos de evitar ou minimizar racionamentos, equilibrar a distribuição dos armazenamentos em sistemas com múltiplos reservatórios e minimizar os custos de operação. A metodologia de otimização foi aplicada para o sistema produtor de água da Região Metropolitana de São Paulo (RMSP), que enfrenta a crise hídrica diante de um cenário de estiagem em 2013-2015, o pior na série histórica dos últimos 85 anos. Trata-se de uma região com 20,4 milhões de habitantes. O sistema é formado por oito sistemas produtores parcialmente integrados e operados pela Sabesp (Companhia de Saneamento do Estado de São Paulo). A RMSP é uma região com alta densidade demográfica, localizada na Bacia Hidrográfica do Alto Tietê e caracterizada pela baixa disponibilidade hídrica per capita. Foi abordada a possibilidade de considerar a evaporação durante as simulações, e a aplicação de uma regra de racionamento contínua nos reservatórios, que transforma a formulação do problema em programação não linear (PNL). A evaporação se mostrou pouco representativa em relação a vazão de atendimento à demanda, com cerca de 1% da vazão. Se por um lado uma vazão desta magnitude pode contribuir em um cenário crítico, por outro essa ordem de grandeza pode ser comparada às incertezas de medições ou previsões de afluências. O teste de sensibilidade das diferentes taxas de racionamento em função do volume armazenado permite analisar o tempo de resposta de cada sistema. A variação do tempo de recuperação, porém, não se mostrou muito significativo.
Resumo:
Este trabalho apresenta um modelo de otimização multiobjetivo aplicado ao projeto de concepção de submarinos convencionais (i.e. de propulsão dieselelétrica). Um modelo de síntese que permite a estimativa de pesos, volume, velocidade, carga elétrica e outras características de interesse para a o projeto de concepção é formulado. O modelo de síntese é integrado a um modelo de otimização multiobjetivo baseado em algoritmos genéticos (especificamente, o algoritmo NSGA II). A otimização multiobjetivo consiste na maximização da efetividade militar do submarino e na minimização de seu custo. A efetividade militar do submarino é representada por uma Medida Geral de Efetividade (OMOE) estabelecida por meio do Processo Analítico Hierárquico (AHP). O Custo Básico de Construção (BCC) do submarino é estimado a partir dos seus grupos de peso. Ao fim do processo de otimização, é estabelecida uma Fronteira de Pareto composta por soluções não dominadas. Uma dessas soluções é selecionada para refinamento preliminar e os resultados são discutidos. Subsidiariamente, esta dissertação apresenta discussão sucinta sobre aspectos históricos e operativos relacionados a submarinos, bem como sobre sua metodologia de projeto. Alguns conceitos de Arquitetura Naval, aplicada ao projeto dessas embarcações, são também abordados.
Resumo:
Com o objetivo de aumentar o lucro de plantas químicas, a Otimização em Tempo Real (RTO) é uma ferramenta que busca determinar as condições ótimas operacionais do processo em estado estacionário, respeitando as restrições operacionais estabelecidas. Neste trabalho foi realizada a implementação prática de um ciclo RTO em um processo de destilação por recompressão de vapor (VRD), propileno-propano, da Refinaria de Paulínia (Petrobras S.A.), a partir de dados históricos da planta. Foram consideradas as principais etapas de um ciclo clássico de RTO: identificação de estado estacionário, reconciliação de dados, estimação de parâmetros e otimização econômica. Essa unidade foi modelada, simulada e otimizada em EMSO (Environment for Modeling, Simulation and Optimization), um simulador de processos orientado a equações desenvolvido no Brasil. Foram analisados e comparados dois métodos de identificação de estado estacionário, um baseado no teste estatístico F e outro baseado em wavelets. Ambos os métodos tiveram resultados semelhantes e mostraram-se capazes de identificar os estados estacionários de forma satisfatória, embora seja necessário o ajuste de parâmetros na sua implementação. Foram identificados alguns pontos estacionários para serem submetidos ao ciclo RTO e foi possível verificar a importância de partir de um estado estacionário para a continuidade do ciclo, já que essa é uma premissa do método. A partir dos pontos analisados, os resultados deste estudo mostram que o RTO é capaz de aumentar o ganho econômico entre 2,5-24%, dependendo das condições iniciais consideradas, o que pode representar ganhos de até 18 milhões de dólares por ano. Além disso, para essa unidade, verificou-se que o compressor é um equipamento limitante no aumento de ganho econômico do processo.
Resumo:
Devido às tendências de crescimento da quantidade de dados processados e a crescente necessidade por computação de alto desempenho, mudanças significativas estão acontecendo no projeto de arquiteturas de computadores. Com isso, tem-se migrado do paradigma sequencial para o paralelo, com centenas ou milhares de núcleos de processamento em um mesmo chip. Dentro desse contexto, o gerenciamento de energia torna-se cada vez mais importante, principalmente em sistemas embarcados, que geralmente são alimentados por baterias. De acordo com a Lei de Moore, o desempenho de um processador dobra a cada 18 meses, porém a capacidade das baterias dobra somente a cada 10 anos. Esta situação provoca uma enorme lacuna, que pode ser amenizada com a utilização de arquiteturas multi-cores heterogêneas. Um desafio fundamental que permanece em aberto para estas arquiteturas é realizar a integração entre desenvolvimento de código embarcado, escalonamento e hardware para gerenciamento de energia. O objetivo geral deste trabalho de doutorado é investigar técnicas para otimização da relação desempenho/consumo de energia em arquiteturas multi-cores heterogêneas single-ISA implementadas em FPGA. Nesse sentido, buscou-se por soluções que obtivessem o melhor desempenho possível a um consumo de energia ótimo. Isto foi feito por meio da combinação de mineração de dados para a análise de softwares baseados em threads aliadas às técnicas tradicionais para gerenciamento de energia, como way-shutdown dinâmico, e uma nova política de escalonamento heterogeneity-aware. Como principais contribuições pode-se citar a combinação de técnicas de gerenciamento de energia em diversos níveis como o nível do hardware, do escalonamento e da compilação; e uma política de escalonamento integrada com uma arquitetura multi-core heterogênea em relação ao tamanho da memória cache L1.
Resumo:
A rápida evolução do hardware demanda uma evolução contínua dos compiladores. Um processo de ajuste deve ser realizado pelos projetistas de compiladores para garantir que o código gerado pelo compilador mantenha uma determinada qualidade, seja em termos de tempo de processamento ou outra característica pré-definida. Este trabalho visou automatizar o processo de ajuste de compiladores por meio de técnicas de aprendizado de máquina. Como resultado os planos de compilação obtidos usando aprendizado de máquina com as características propostas produziram código para programas cujos valores para os tempos de execução se aproximaram daqueles seguindo o plano padrão utilizado pela LLVM.
Resumo:
RESUMO Simulações de aeroacústica computacional demandam uma quantidade considerável de tempo, o que torna complicada a realização de estudos paramétricos. O presente trabalho propõe uma metodologia viável para otimização aeroacústica. Através da análise numérica utilizando dinâmica dos fluidos computacional, foi estudada a aplicação de uma placa separadora desacoplada como método de controle passivo da esteira turbulenta de um cilindro e avaliou-se a irradiação de ruído causado pela interação do escoamento com ambos os corpos, empregando ferramentas de aeroacústica computacional baseadas no método de Ffowcs-Williams e Hawkings. Algumas abordagens distintas de metodologias de otimização de projeto foram aplicadas neste problema, com o objetivo de chegar a uma configuração otimizada que permita a redução do nível sonoro ao longe. Assim, utilizando uma ferramenta de otimização multidisciplinar, pode-se avaliar a capacidade de modelos heurísticos e a grande vantagem do emprego de algoritmos baseados em método de superfície de resposta quando aplicados em um problema não linear, pois requerem a avaliação de um menor número de alternativas para se obter um ponto ótimo. Além disso, foi possível identificar e agrupar os resultados em 5 clusters baseados em seus parâmetros geométricos, nível de pressão sonora global e o valor quadrático médio do coeficiente de arrasto, confirmando a eficiência da aplicação de placas separadoras longas desacopladas posicionadas próximas ao cilindro na estabilização da esteira turbulenta, enquanto que o posicionamento de placas acima de um espaçamento crítico aumentou o nível de pressão acústica irradiado devido à formação de vórtices no espaço entre o cilindro e a placa separadora.
Resumo:
A comercialização de energia elétrica de fontes renováveis, ordinariamente, constitui-se uma atividade em que as operações são estruturadas sob condições de incerteza, por exemplo, em relação ao preço \"spot\" no mercado de curto prazo e a geração de energia dos empreendimentos. Deriva desse fato a busca dos agentes pela formulação de estratégias e utilização de ferramentais para auxiliá-los em suas tomadas de decisão, visando não somente o retorno financeiro, mas também à mitigação dos riscos envolvidos. Análises de investimentos em fontes renováveis compartilham de desafios similares. Na literatura, o estudo da tomada de decisão considerada ótima sob condições de incerteza se dá por meio da aplicação de técnicas de programação estocástica, que viabiliza a modelagem de problemas com variáveis randômicas e a obtenção de soluções racionais, de interesse para o investidor. Esses modelos permitem a incorporação de métricas de risco, como por exemplo, o Conditional Value-at-Risk, a fim de se obter soluções ótimas que ponderem a expectativa de resultado financeiro e o risco associado da operação, onde a aversão ao risco do agente torna-se um condicionante fundamental. O objetivo principal da Tese - sob a ótica dos agentes geradores, consumidores e comercializadores - é: (i) desenvolver e implementar modelos de otimização em programação linear estocástica com métrica CVaR associada, customizados para cada um desses agentes; e (ii) aplicá-los na análise estratégica de operações como forma de apresentar alternativas factíveis à gestão das atividades desses agentes e contribuir com a proposição de um instrumento conceitualmente robusto e amigável ao usuário, para utilização por parte das empresas. Nesse contexto, como antes frisado, dá-se ênfase na análise do risco financeiro dessas operações por meio da aplicação do CVaR e com base na aversão ao risco do agente. Considera-se as fontes renováveis hídrica e eólica como opções de ativos de geração, de forma a estudar o efeito de complementaridade entre fontes distintas e entre sites distintos da mesma fonte, avaliando-se os rebatimentos nas operações.