997 resultados para Otimização multiobjetivo


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La toma de decisiones en el sector energético se torna compleja frente a las disímiles opciones y objetivos a cumplir. Para minimizar esta complejidad, se han venido desarrollando una gama amplia de métodos de apoyo a la toma de decisiones en proyectos energéticos. En la última década, las energización de comunidades rurales aisladas ha venido siendo prioridad de muchos gobiernos para mitigar las migraciones del campo para la ciudad. Para la toma de decisiones en los proyectos energéticos de comunidades rurales aisladas se necesitan proyectar la influencia que estos tendrás sobre los costes económicos, medioambientales y sociales. Es por esta razón que el presente trabajo tuvo como objetivo diseñar un modelo original denominado Generación Energética Autóctona Y Limpia (GEAYL) aplicado a una comunidad rural aislada de la provincia de Granma en Cuba. Este modelo parte dos modelos que le preceden el PAMER y el SEMA. El modelo GEAYL constituye un procedimiento multicriterio-multiobjetivo de apoyo a la planificación energética para este contexto. Se plantearon cinco funciones objetivos: F1, para la minimización de los costes energéticos; F2 para la minimización de las emisiones de CO2, F3, para la minimización de las emisiones de NOx; F4, para la minimización de las emisiones de SOx (cuyos coeficientes fueron obtenidos a través de la literatura especializada) y F5, para la maximización de la Aceptación Social de la Energía. La función F5 y la manera de obtener sus coeficientes constituye la novedad del presente trabajo. Estos coeficientes se determinaron aplicando el método AHP (Proceso Analítico Jerárquico) con los datos de partidas derivados de una encuesta a los usuarios finales de la energía y a expertos. Para determinar el suministro óptimo de energía se emplearon varios métodos: la suma ponderada, el producto ponderado, las distancias de Manhattan L1, la distancia Euclidea L2 y la distancia L3. Para estas métricas se aplicaron distintos vectores de pesos para determinar las distintas estructuras de preferencias de los decisores. Finalmente, se concluyó que tener en consideración a Aceptación Social de la Energía como una función del modelo influye en el suministro de energía de cada alternativa energética. ABSTRACT Energy planning decision making is a complex task due to the multiple options to follow and objectives to meet. In order to minimize this complexity, a wide variety of methods and supporting tools have been designed. Over the last decade, rural energization has been a priority for many governments, aiming to alleviate rural to urban migration. Rural energy planning decision making must rely on financial, environmental and social costs. The purpose of this work is to define an original energy planning model named Clean and Native Energy Generation (Generación Energética Autóctona Y Limpia, GEAYL), and carry out a case study on Granma Province, Cuba. This model is based on two previous models: PAMER & SEMA. GEAYL is a multiobjective-multicriteria energy planning model, which includes five functions to be optimized: F1, to minimize financial costs; F2, to minimize CO2 emissions; F3, to minimize NOx emissions; F4, to minimize SOx emissions; and F5, to maximize energy Social Acceptability. The coefficients corresponding to the first four functions have been obtained through specialized papers and official data, and the ones belonging to F5 through an Analytic Hierarchy Process (AHP), built as per a statistical enquiry carried out on energy users and experts. F5 and the AHP application are considered to be the novelty of this model. In order to establish the optimal energy supply, several methods have been applied: weighted sum, weighted product, Manhattan distance L1, Euclidean distance L2 and L3. Several weight vectors have been applied to the mentioned distances in order to conclude the decision makers potential preference structure. Among the conclusions of this work, it must be noted that function F5, Social Acceptability, has a clear influence on every energy supply alternative.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La capacidad de transporte es uno de los baremos fundamentales para evaluar la progresión que puede llegar a tener un área económica y social. Es un sector de elevada importancia para la sociedad actual. Englobado en los distintos tipos de transporte, uno de los medios de transporte que se encuentra más en alza en la actualidad, es el ferroviario. Tanto para movilidad de pasajeros como para mercancías, el tren se ha convertido en un medio de transporte muy útil. Se encuentra dentro de las ciudades, entre ciudades con un radio pequeño entre ellas e incluso cada vez más, gracias a la alta velocidad, entre ciudades con gran distancia entre ellas. Esta Tesis pretende ayudar en el diseño de una de las etapas más importantes de los Proyectos de instalación de un sistema ferroviario: el sistema eléctrico de tracción. La fase de diseño de un sistema eléctrico de tracción ferroviaria se enfrenta a muchas dudas que deben ser resueltas con precisión. Del éxito de esta fase dependerá la capacidad de afrontar las demandas de energía de la explotación ferroviaria. También se debe atender a los costes de instalación y de operación, tanto costes directos como indirectos. Con la Metodología que se presenta en esta Tesis se ofrecerá al diseñador la opción de manejar un sistema experto que como soluciones le plantee un conjunto de escenarios de sistemas eléctricos correctos, comprobados por resolución de modelos de ecuaciones. Correctos desde el punto de vista de validez de distintos parámetros eléctrico, como de costes presupuestarios e impacto de costes indirectos. Por tanto, el diseñador al haber hecho uso de esta Metodología, tendría en un espacio de tiempo relativamente corto, un conjunto de soluciones factibles con las que poder elegir cuál convendría más según sus intereses finales. Esta Tesis se ha desarrollado en una vía de investigación integrada dentro del Centro de Investigaciones Ferroviarias CITEF-UPM. Entre otros proyectos y vías de investigación, en CITEF se ha venido trabajando en estudios de validación y dimensionamiento de sistemas eléctricos ferroviarios con diversos y variados clientes y sistemas ferroviarios. A lo largo de los proyectos realizados, el interés siempre ha girado mayoritariamente sobre los siguientes parámetros del sistema eléctrico: - Calcular número y posición de subestaciones de tracción. Potencia de cada subestación. - Tipo de catenaria a lo largo del recorrido. Conductores que componen la catenaria. Características. - Calcular número y posición de autotransformadores para sistemas funcionando en alterna bitensión o 2x25kV. - Posición Zonas Neutras. - Validación según normativa de: o Caídas de tensión en la línea o Tensiones máximas en el retorno de la línea o Sobrecalentamiento de conductores o Sobrecalentamiento de los transformadores de las subestaciones de tracción La idea es que las soluciones aportadas por la Metodología sugieran escenarios donde de estos parámetros estén dentro de los límites que marca la normativa. Tener la posibilidad de tener un repositorio de posibles escenarios donde los parámetros y elementos eléctricos estén calculados como correctos, aporta un avance en tiempos y en pruebas, que mejoraría ostensiblemente el proceso habitual de diseño para los sistemas eléctricos ferroviarios. Los costes directos referidos a elementos como subestaciones de tracción, autotransformadores, zonas neutras, ocupan un gran volumen dentro del presupuesto de un sistema ferroviario. En esta Tesis se ha querido profundizar también en el efecto de los costes indirectos provocados en la instalación y operación de sistemas eléctricos. Aquellos derivados del impacto medioambiental, los costes que se generan al mantener los equipos eléctricos y la instalación de la catenaria, los costes que implican la conexión entre las subestaciones de tracción con la red general o de distribución y por último, los costes de instalación propios de cada elemento compondrían los costes indirectos que, según experiencia, se han pensado relevantes para ejercer un cierto control sobre ellos. La Metodología cubrirá la posibilidad de que los diseños eléctricos propuestos tengan en cuenta variaciones de coste inasumibles o directamente, proponer en igualdad de condiciones de parámetros eléctricos, los más baratos en función de los costes comentados. Analizando los costes directos e indirectos, se ha pensado dividir su impacto entre los que se computan en la instalación y los que suceden posteriormente, durante la operación de la línea ferroviaria. Estos costes normalmente suelen ser contrapuestos, cuánto mejor es uno peor suele ser el otro y viceversa, por lo que hace falta un sistema que trate ambos objetivos por separado. Para conseguir los objetivos comentados, se ha construido la Metodología sobre tres pilares básicos: - Simulador ferroviario Hamlet: Este simulador integra módulos para construir esquemas de vías ferroviarios completos; módulo de simulación mecánica y de la tracción de material rodante; módulo de señalización ferroviaria; módulo de sistema eléctrico. Software realizado en C++ y Matlab. - Análisis y estudio de cómo focalizar los distintos posibles escenarios eléctricos, para que puedan ser examinados rápidamente. Pico de demanda máxima de potencia por el tráfico ferroviario. - Algoritmos de optimización: A partir de un estudio de los posibles algoritmos adaptables a un sistema tan complejo como el que se plantea, se decidió que los algoritmos genéticos serían los elegidos. Se han escogido 3 algoritmos genéticos, permitiendo recabar información acerca del comportamiento y resultados de cada uno de ellos. Los elegidos por motivos de tiempos de respuesta, multiobjetividad, facilidad de adaptación y buena y amplia aplicación en proyectos de ingeniería fueron: NSGA-II, AMGA-II y ɛ-MOEA. - Diseño de funciones y modelo preparado para trabajar con los costes directos e indirectos y las restricciones básicas que los escenarios eléctricos no deberían violar. Estas restricciones vigilan el comportamiento eléctrico y la estabilidad presupuestaria. Las pruebas realizadas utilizando el sistema han tratado o bien de copiar situaciones que se puedan dar en la realidad o directamente sistemas y problemas reales. Esto ha proporcionado además de la posibilidad de validar la Metodología, también se ha posibilitado la comparación entre los algoritmos genéticos, comparar sistemas eléctricos escogidos con los reales y llegar a conclusiones muy satisfactorias. La Metodología sugiere una vía de trabajo muy interesante, tanto por los resultados ya obtenidos como por las oportunidades que puede llegar a crear con la evolución de la misma. Esta Tesis se ha desarrollado con esta idea, por lo que se espera pueda servir como otro factor para trabajar con la validación y diseño de sistemas eléctricos ferroviarios. ABSTRACT Transport capacity is one of the critical points to evaluate the progress than a specific social and economical area is able to reach. This is a sector of high significance for the actual society. Included inside the most common types of transport, one of the means of transport which is elevating its use nowadays is the railway. Such as for passenger transport of weight movements, the train is being consolidated like a very useful mean of transport. Railways are installed in many geography areas. Everyone know train in cities, or connecting cities inside a surrounding area or even more often, taking into account the high-speed, there are railways infrastructure between cities separated with a long distance. This Ph.D work aims to help in the process to design one of the most essential steps in Installation Projects belonging to a railway system: Power Supply System. Design step of the railway power supply, usually confronts to several doubts and uncertainties, which must be solved with high accuracy. Capacity to supply power to the railway traffic depends on the success of this step. On the other hand is very important to manage the direct and indirect costs derived from Installation and Operation. With the Methodology is presented in this Thesis, it will be offered to the designer the possibility to handle an expert system that finally will fill a set of possible solutions. These solutions must be ready to work properly in the railway system, and they were tested using complex equation models. This Thesis has been developed through a research way, integrated inside Citef (Railway Research Centre of Technical University of Madrid). Among other projects and research ways, in Citef has been working in several validation studies and dimensioning of railway power supplies. It is been working by a large range of clients and railways systems. Along the accomplished Projects, the main goal has been rounded mostly about the next list of parameters of the electrical system: - Calculating number and location of traction substations. Power of each substation. - Type of Overhead contact line or catenary through the railway line. The wires which set up the catenary. Main Characteristics. - Calculating number and position of autotransformers for systems working in alternating current bi-voltage of called 2x25 kV. - Location of Neutral Zones. - Validating upon regulation of: o Drop voltages along the line o Maximum return voltages in the line o Overheating/overcurrent of the wires of the catenary o Avoiding overheating in the transformers of the traction substations. Main objective is that the solutions given by the Methodology, could be suggest scenarios where all of these parameters from above, would be between the limits established in the regulation. Having the choice to achieve a repository of possible good scenarios, where the parameters and electrical elements will be assigned like ready to work, that gives a great advance in terms of times and avoiding several tests. All of this would improve evidently the regular railway electrical systems process design. Direct costs referred to elements like traction substations, autotransformers, neutral zones, usually take up a great volume inside the general budget in railway systems. In this Thesis has been thought to bear in mind another kind of costs related to railway systems, also called indirect costs. These could be enveloped by those enmarked during installation and operation of electrical systems. Those derived from environmental impact; costs generated during the maintenance of the electrical elements and catenary; costs involved in the connection between traction substations and general electric grid; finally costs linked with the own installation of the whole electrical elements needed for the correct performance of the railway system. These are integrated inside the set has been collected taking into account own experience and research works. They are relevant to be controlled for our Methodology, just in case for the designers of this type of systems. The Methodology will cover the possibility that the final proposed power supply systems will be hold non-acceptable variations of costs, comparing with initial expected budgets, or directly assuming a threshold of budget for electrical elements in actual scenario, and achieving the cheapest in terms of commented costs from above. Analyzing direct and indirect costs, has been thought to divide their impact between two main categories. First one will be inside the Installation and the other category will comply with the costs often happens during Railway Operation time. These costs normally are opposed, that means when one is better the other turn into worse, in costs meaning. For this reason is necessary treating both objectives separately, in order to evaluate correctly the impact of each one into the final system. The objectives detailed before build the Methodology under three basic pillars: - Railway simulator Hamlet: This software has modules to configure many railway type of lines; mechanical and traction module to simulate the movement of rolling stock; signaling module; power supply module. This software has been developed using C++ and Matlab R13a - Previously has been mandatory to study how would be possible to work properly with a great number of feasible electrical systems. The target comprised the quick examination of these set of scenarios in terms of time. This point is talking about Maximum power demand peaks by railway operation plans. - Optimization algorithms. A railway infrastructure is a very complex system. At the beginning it was necessary to search about techniques and optimization algorithms, which could be adaptable to this complex system. Finally three genetic multiobjective algorithms were the chosen. Final decision was taken attending to reasons such as time complexity, able to multiobjective, easy to integrate in our problem and with a large application in engineering tasks. They are: NSGA-II, AMGA-II and ɛ-MOEA. - Designing objectives functions and equation model ready to work with the direct and indirect costs. The basic restrictions are not able to avoid, like budgetary or electrical, connected hardly with the recommended performance of elements, catenary and safety in a electrical railway systems. The battery of tests launched to the Methodology has been designed to be as real as possible. In fact, due to our work in Citef and with real Projects, has been integrated and configured three real railway lines, in order to evaluate correctly the final results collected by the Methodology. Another topic of our tests has been the comparison between the performances of the three algorithms chosen. Final step has been the comparison again with different possible good solutions, it means power supply system designs, provided by the Methodology, testing the validity of them. Once this work has been finished, the conclusions have been very satisfactory. Therefore this Thesis suggest a very interesting way of research and work, in terms of the results obtained and for the future opportunities can be created with the evolution of this. This Thesis has been developed with this idea in mind, so is expected this work could adhere another factor to work in the difficult task of validation and design of railway power supply systems.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Técnicas analíticas empregadas para a quantificação do teor de lignina em plantas forrageiras, atualmente em uso, são questionáveis quanto às suas acurácias. O método lignina detergente ácido (LDA), que é um dos métodos mais utilizado em Ciência Animal e Agronomia, apresenta algumas falhas, particularmente devido à parcial solubilização da lignina durante a preparação da fibra em detergente ácido (FDA). A lignina Klason (LK), outro método muito usado, apresenta o inconveniente de mensurar a proteína da parede celular como sendo lignina. Em ambos os procedimentos recomenda-se também mensurar cinzas nos resíduos de lignina. A quantificação da concentração de lignina pelo método espectrofotométrico lignina brometo de acetila (LBA) vem ganhando interesse de pesquisadores no Brasil e no exterior. Nesta metodologia, a lignina da planta contida na preparação parede celular (PC) é solubilizada numa solução a 25% de brometo de acetila em ácido acético e a absorbância mensurada é com luz UV a 280 nm. O valor da absorbância é inserido numa equação de regressão e a concentração de lignina é obtida. Para que esta técnica analítica seja mais aceita pelos pesquisadores, ela deve ser, obviamente, convincente e atrativa. O presente trabalho analisou alguns parâmetros relacionados à LBA em 7 gramíneas e 6 leguminosas, em dois estádios de maturidade. Dentre as diferentes temperaturas de pré-secagem, os resultados indicaram que os procedimentos de 55°C com ventilação e liofilização podem ser utilizados com a mesma eficácia. As temperaturas de 55°C sem ventilação e 80°C sem ventilação não são recomendadas, pois aumentaram os valores de FDA e LDA, possivelmente devido ao surgimento de artefatos de técnica como os compostos de Maillard. No método LBA os valores menores das amostras de leguminosas chamaram a atenção e colocaram em questão se a lignina destas plantas seria menos solúvel no reagente brometo de acetila. Dentre algumas alterações na metodologia da técnica LBA, a utilização do moinho de bolas (para diminuir o tamanho particular) nas amostras de PC não mostrou efeito; a hipótese era melhorar a solubilização da lignina usando partículas menores. O uso de um ultrasonicador, que aumenta a vibração das moléculas e assim, facilitaria a solubilização da lignina no reagente brometo de acetila, melhorou a solubilização da lignina em cerca de 10%, tanto nas gramíneas como nas leguminosas. Foi acoplado um ensaio biológico como referência, a degradabilidade in vitro da matéria seca (DIVMS); e como a lignina está intimamente associada à estrutura fibrosa da parede celular, também foi feito um ensaio de degradabilidade in vitro da fibra em detergente neutro (DIVFDN). Os resultados confirmaram o efeito da maturidade, reduzindo a degradabilidade nas plantas mais maduras, e que o teor de lignina de leguminosas é realmente inferior ao de gramíneas. Os resultados de degradabilidade apresentaram coeficientes de correlação mais elevados com o método LBA, quando foi empregada a técnica do ultrasom; o método LK mostrou os menores coeficientes. Também testou-se, com sucesso, a utilização da FDN, como preparação fibrosa, ao invés de PC. A razão é simples: enquanto que a FDN é amplamente conhecida, a preparação PC não o é. Inquestionável que esta manobra facilitará substancialmente a divulgação desse método, tornando-a mais aceitável pela comunidade científica

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No presente trabalho foram estudadas as separações de 18 flavonóides (9 agliconas e 9 glicosídeos) pelas técnicas de Cromatografia Líquida de Alta Eficiência em fase reversa (RP-HPLC) e Cromatografia Micelar Eletrocinética em fluxo reverso (RF-Meck). Em ambas as técnicas foram avaliados solventes puros (metanol, acetonitrila e tetrahidrofurano) e suas misturas como formas de promover a variação de seletividade, através da modificação da fase móvel em HPLC, e da natureza do aditivo orgânico em RF-Meck. Nos estudos efetuados em HPLC utilizando-se gradiente, pode-se comprovar a possibilidade da modelagem do fator de retenção em funçã da proporção de solvente utilizados (MeOH, ACN, THF e suas misturas). Pode-se ainda, com base nos dados de retenção e na análise hierárquica de c1usters, diferenciar quatro diferentes grupos de sistemas cromatográficos com diferentes seletividades para flavonóides agliconas, e outros quatro com diferentes seletividades para glicosídeos. Os sistemas cromatográficos mais ortogonais (cada um pertencente a um grupo de seletividade) foram aplicados na separação de uma planta modelo (Azadirachta indica), de onde pode-se escolher a fase móvel mais seletiva para se otimizar a separação dos flavonóides glicosilados presentes nas folhas desta planta. No método final otimizado pode-se identificar e quantificar cinco dos flavonóides majoritários presentes, sendo três glicosídeos de quercetina (rutina, isoquercitrina e quercitrina) e dois glicosídeos de kaempferol (astragalin e nicotiflorin), em amostras de duas diferentes procedências (Piracicaba-SP e Silvânia-GO). Nos estudos envolvendo a separação dos dezoito flavonóides por RFMEKC pode-se comprovar diferenças significativas de seletividade quando se varia a natureza do solvente orgânico utilizado como aditivo, além de se observar tendências na migração em função das propriedades do solvente adicionado e da estrutura molecular do flavonóide. O solvente de menor eficiência para separação dos flavonóides foi o MeOH. Através da análise dos eletroferogramas obtidos através de um planejamento experimental de misturas, e das trocas de pares críticos observadas nos vários eletrólitos utilizados, obteve-se um método de separação com apenas um par crítico em menos de 12 minutos de corrida. O coeficiente de variação obtido para o fator de retenção foi de 1,5% e para área de 3%, considerando-se cinco injeções. O método desenvolvido foi aplicado com sucesso na identificação dos flavonóides majoritários presentes na planta modelo (Neem), obtendo-se o mesmo resultado do estudo anterior. Como forma de avaliar a concentração de flavonóides totais presentes em espécies vegetais é comum a análise de extratos após hidrólise ácida (conversão de todos glicosídeos em agliconas). Desta forma otimizou-se uma metodologia de separação em RP-HPLC de 8 flavonóides agliconas comumente presentes em alimentos e extratos vegetais de uso cosmético. A otimização foi efetuada mediante um planejamento experimental de misturas, para escolha da fase móvel mais seletiva, e de um planejamento fatorial composto central, para otimização das condições de gradiente. O método obtido foi o mais rápido já visto dentro da literatura consultada. A separação em linha de base foi efetuada em menos de 15 minutos, com coeficientes de variação de área entre 0,1 e 1,8%, coeficiente de correlação de 0,9993 a 0,9994 na faixa de 5 a 100 µg/mL, e limites de quantificação estimados na faixa de 0,1 a 0,21µg/mL. O método desenvolvido foi aplicado na otimização das condições de hidrólise de um extrato de Neem. A otimização foi efetuada através de metodologia de superfície de resposta, levando-se em consideração a concentração de ácido adicionada, o tempo de reação, a temperatura, e a concentração de um antioxidante (ácido ascórbico) adicionado. O resultado da otimização foi uma metodologia de hidrólise com tempo de reação igual a 5 minutos, utilizando-se 1,4 mol/L de HCI, 119°C e 500 µg/mL de ácido ascórbico. Através das metodologias de análise e de hidrólise desenvolvidas pode-se constatar a presença e quantificar no extrato de Neem os flavonóides agliconas quercetina, kaempferol e miricetina. Com o objetivo de se avaliar quais os componentes presentes em extratos vegetais são os responsáveis pelo poder antioxidante atribuído a determinadas plantas, foi montado um sistema de avaliação de poder antioxidante \"on-line\" com reação pós-coluna em HPLC (baseado na literatura) utilizando-se como \"radical livre modelo\" o ABTS. A análise da planta modelo (Neem) neste sistema mostrou que os flavonóides glicosilados identificados nas partes anteriores deste trabalho são os responsáveis pelo poder antioxidante atribuído a esta planta. De posse desta informação, e visando a obtenção de extratos para aplicações cosméticas com poder antioxidante, modelou-se a extração dos flavonóide do Neem em função da composição do solvente extrator (água, etanol , propilenoglicol e suas misturas), de acordo com um planejamento simplex centróide ampliado. Além da previsão da concentração dos princípios ativos pode-se ainda prever outras propriedades dos extratos obtidos, tais como, índice de refração e densidade, muitas vezes constituintes de especificações técnicas de acordo com as aplicações a que se destinam (cremes, xampús, etc).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução: A Hiperplasia Adrenal Congênita por deficiência da 21-hidroxilase (HAC) é uma doença com mortalidade neonatal elevada sendo elegível para programas públicos de Triagem Neonatal (TN). A HAC é causada por mutações no gene CYP21A2, as quais acarretam diferentes comprometimentos da atividade enzimática e resultam em espectro amplo de manifestações clínicas. Apesar da eficiência da TN para diagnosticar os casos graves, a taxa elevada de resultados falso-positivos (RFP), principalmente relacionados à prematuridade, é um dos maiores problemas. Porém, resultados falso-negativos também podem ocorrer em coletas antes de 24 horas de vida. No Brasil, a coleta da amostra neonatal difere entre os municípios, podendo ser no terceiro dia de vida como após. Objetivo: Avaliar se os valores da 17OH-progesterona neonatal (N17OHP) das coletas no terceiro dia de vida diferem significativamente das coletas a partir do quarto dia. Determinar qual percentil (99,5 ou 99,8) pode ser utilizado como valor de corte para a N17OHP, de acordo com o peso ao nascimento e tempo de vida na coleta, a fim de que proporcione taxa menor de RFP. Métodos: Foi avaliada, retrospectivamente, a N17OHP de 271.810 recém-nascidos (Rns) de acordo com o tempo de vida na coleta (G1: 48 - = 72h) e peso ao nascimento (P1: <= 1.500g, P2: 1.501-2.000g, P3: 2.001-2.500g e P4: >= 2.500g), pelo método imunofluorimétrico. Testes com resultados alterados foram confirmados no soro por Espectrometria de Massas em Tandem - LC-MS/MS. Rns afetados e/ou assintomáticos e com valores persistentemente elevados de 17OHP sérica foram submetidos ao estudo molécular, sequenciamento do gene CYP21A2. Resultados: os valores da N17OHP no grupo G1 foram significativamente menores do que em G2 em todos os grupos de peso (p < 0.001). A taxa de RFP em G1 e G2 foi de 0,2% para o percentil 99,8 e de 0,5% para o percentil 99,5 em ambos os grupos. O percentil 99,8 da N17OHP foi o melhor valor de corte para distinguir os Rns não afetados dos afetados, cujos valores são: G1 (P1: 120; P2: 71; P3: 39 e P4: 20 ng /mL) e em G2 (P1: 173; P2: 90; P3: 66 e P4: 25 ng/mL). Vinte e seis Rns do grupo G1 apresentaram a forma perdedora de sal (PS) (13H e 13M), nestes a N17OHP variou de 31 a 524 ng/mL e vinte Rns no grupo G2 (8H e 12M), nestes a N17OHP variou de 53 a 736 ng/mL. Para ambos os grupos foram encontrados três Rns com a forma virilizante simples (1H e 2M) e os valores da N17OHP variaram de 36 a 51 ng/mL. Resultados falso-negativos não foram relatados. O valor preditivo positivo (VPP) no teste do papel filtro foi de 5,6% e 14,1% nos grupos G1 e G2, respectivamente, ao se utilizar o percentil 99,8, e de 2,3% e 7% nos grupos G1 e G2 ao se utilizar o percentil 99,5. Dentre os casos com TN alterada (RFP), 29 deles também apresentaram 17OHP sérica elevada quando dosada por LC-MS/MS. Os casos assintomáticos foram acompanhados até normalização da 17OHP sérica e/ou submetidos ao estudo molecular, que identificou dois Rns com genótipo que prediz a forma não clássica. Conclusão: a melhor estratégia para otimização do diagnóstico da HAC na triagem neonatal é se padronizar valores de corte da N17OHP em dois grupos de acordo com o tempo de vida na coleta (antes e depois de 72 horas), subdivididos em quatro grupos de peso. A utilização dos valores de corte do percentil 99,8 se mantém eficaz no diagnóstico da HAC-21OH na triagem neonatal, reduzindo de forma significativa a taxa de RFP, sem perda do diagnóstico da forma PS

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa visa a análise da contribuição de cinco variáveis de entrada e a otimização do desempenho termo-hidráulico de trocadores de calor com venezianas combinados com geradores de vórtices delta-winglets. O desempenho termohidráulico de duas geometrias distintas, aqui nomeadas por GEO1 e GEO2, foram avaliadas. Smoothing Spline ANOVA foi usado para avaliar a contribuição dos parâmetros de entrada na transferência de calor e perda de carga. Considerando aplicação automotiva, foram investigados números de Reynolds iguais a 120 e 240, baseados no diâmetro hidráulico. Os resultados indicaram que o ângulo de venezianas é o maior contribuidor para o aumento do fator de atrito para GEO1 e GEO2, para ambos os números de Reynolds. Para o número de Reynolds menor, o parâmetro mais importante em termos de transferência de calor foi o ângulo das venezianas para ambas as geometrias. Para o número de Reynolds maior, o ângulo de ataque dos geradores de vórtices posicionados na primeira fileira é o maior contribuidor para a tranfesferência de calor, no caso da geometria GEO1, enquanto que o ângulo de ataque dos geradores de vórtices na primeira fileira foi tão importante quanto os ângulos das venezianas para a geometria GEO2. Embora as geometrias analisadas possam ser consideradas como técnicas compostas de intensificação da transferência de calor, não foram observadas interações relevantes entre ângulo de venezianas e parâmetros dos geradores de vórtices. O processo de otimização usa NSGA-II (Non-Dominated Sorting Genetic Algorithm) combinado com redes neurais artificiais. Os resultados mostraram que a adição dos geradores de vórtices em GEO1 aumentaram a transferência de calor em 21% e 23% com aumentos na perda de carga iguais a 24,66% e 36,67% para o menor e maior números de Reynolds, respectivamente. Para GEO2, a transferência de calor aumentou 13% e 15% com aumento na perda de carga de 20,33% e 23,70%, para o menor e maior número de Reynolds, respectivamente. As soluções otimizadas para o fator de Colburn mostraram que a transferência de calor atrás da primeira e da segunda fileiras de geradores de vórtices tem a mesma ordem de magnitude para ambos os números de Reynolds. Os padrões de escoamento e as características de transferência de calor das soluções otimizadas apresentaram comportamentos vi particulares, diferentemente daqueles encontrados quando as duas técnicas de intensificação de transferência de calor são aplicadas separadamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese propõe a síntese e o estudo de uma nova técnica de cavidades de borda aplicada a antenas Vivaldi, com o intuito de melhorar suas características de diretividade. Embora as antenas do tipo Vivaldi possuam características diretivas, elas produzem radiações laterais indesejáveis, o que se reflete nos elevados índices de lóbulos laterais devido a correntes superficiais que fluem ao longo das bordas metalizadas nas laterais da antena. Estas correntes são a origem das radiações laterais que vêm sendo mitigadas pela aplicação de cavidades ressonantes, triangulares ou retangulares, que aprisionam tais correntes e, consequentemente, atenuam os lóbulos laterais, sem o incremento do lóbulo principal, uma vez que toda a energia dos lóbulos laterais é apenas confinada nos ressonadores e por isso literalmente perdida. Ao contrário desses esforços, este trabalho propõe cavidades radiantes tanto na forma de abertura exponencial, como na forma do fractais de Koch, que funcionam como radiadores auxiliares (antenas auxiliares), canalizando as correntes de borda e aproveitando-as para aumentar os níveis do lóbulo principal, mitigando os níveis de lóbulo lateral. A síntese desta nova técnica foi implementada em uma antena Vivaldi antipodal com características de baixa diretividade, como qualquer antena Vivaldi, o que foi corrigido e a aplicação da técnica de cavidades radiantes deu origem a duas novas antenas Vivaldis efetivamente diretivas. Os resultados foram obtidos através de simulações do modelo numérico no CST Microwave Studio e confirmados com medidas de laboratório, o que evidenciou a melhora das características de diretividade da antena pela aplicação da nova técnica de cavidades radiantes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A nanotecnologia tem sido aplicada para o desenvolvimento de materiais para diversas aplicações inclusive na inativação de patógenos. As nanopartículas de sílica (npSi) destacam-se pela alta área superficial, facilidade na alteração da superfície para aumento da eficiência adsortiva, penetrabilidade e toxicidade para bactérias gram-negativas sendo biocompatíveis para células de mamíferos e mais foto-estáveis que a maioria dos compostos orgânicos. Devido as suas vantagens, as npSi podem ser usadas para veicular fotossensibilizadores (FSs) uma vez que permitem sua utilização em solução aquosa em que os FSs geralmente são insolúveis. Além disso, o uso de FSs em vez de antibióticos, permite a inativação microbiológica pela Terapia Fotodinâmica sem que as bactérias adquiram resistência por mecanismos genéticos. Esse processo ocorre pela interação entre um FS, luz e oxigênio molecular produzindo oxigênio singleto que é extremamente reativo danificando estruturas celulares. O objetivo desse estudo foi otimizar a fotoinativação dinâmica de E .coli utilizando Azul de Metileno (AM) e Azul de Toluidina O (ATO) veiculados por npSi. As npSi foram preparadas pela metodologia sol-gel, caracterizadas por microscopia eletrônica de varredura (MEV) e submetidas à adsorção de AM e ATO em sua superfície. A presença de AM e ATO na superfície das npSi foram analisadas por espectroscopia no infravermelho; espectroscopia de fluorescência por raio-X e análise termogravimétrica. O planejamento experimental, iniciado pelo fatorial 23 e modelado ao composto central em busca das condições ótimas foi adotado pela primeira vez nessa aplicabilidade, visando a fotoinativação de E. coli empregando AM e ATO em solução e em seguida com npSi. AM e ATO veiculados por npSi permitem a fotoinativação em concentrações mais baixas de FS (20 e 51% respectivamente), causando desestruturação da integridade bacteriana demonstrada por MEV. Os resultados sugerem que a veiculação de AM e ATO por npSi é extremamente efetiva para a fotoinativação dinâmica de E. coli e que o planejamento composto central pode levar à completa inativação das bactérias.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A otimização de sistemas do tipo Ti-Si-X requer que os sistemas binários estejam constantemente atualizados. O sistema Ti-Si foi investigado experimentalmente desde a década de 50 e poucos estudos usaram os dados experimentais para calcular o diagrama de fases Ti-Si usando modelamento termodinâmico. A otimização mais recente do sistema Ti-Si foi realizada em 1998, descrevendo a fase Ti5Si3 como um intermetálico não estequiométrico contendo três sub-redes e mostrando a presença da fase intermetálica estequiométrica Ti3Si. Dada a recente disputa sobre a cinética de precipitação e a estabilidade das fases Ti3Si e Ti5Si3 nos sistemas Ti-Si e Ti-Si-X, o canto rico em titânio do sistema Ti-Si (estável e metaestável) foi otimizado no presente trabalho. Os limites de estabilidade de fases, os valores dos erros pelo método dos mínimos quadrados do procedimento de otimização e os desvios padrões relativos das variáveis calculadas foram discutidos para inspirar a realização de mais trabalhos experimentais para investigar as reações eutetóides estáveis e/ou metaestáveis, ?->? + Ti3Si e ?->? + + Ti5Si3; e para melhorar cada vez mais as otimizações termodinâmicas do diagrama de fases do sistema Ti-Si.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente estudo considera a aplicação do modelo SISAGUA de simulação matemática e de otimização para a operação de sistemas de reservatórios integrados em sistemas complexos para o abastecimento de água. O SISAGUA utiliza a programação não linear inteira mista (PNLIM) com os objetivos de evitar ou minimizar racionamentos, equilibrar a distribuição dos armazenamentos em sistemas com múltiplos reservatórios e minimizar os custos de operação. A metodologia de otimização foi aplicada para o sistema produtor de água da Região Metropolitana de São Paulo (RMSP), que enfrenta a crise hídrica diante de um cenário de estiagem em 2013-2015, o pior na série histórica dos últimos 85 anos. Trata-se de uma região com 20,4 milhões de habitantes. O sistema é formado por oito sistemas produtores parcialmente integrados e operados pela Sabesp (Companhia de Saneamento do Estado de São Paulo). A RMSP é uma região com alta densidade demográfica, localizada na Bacia Hidrográfica do Alto Tietê e caracterizada pela baixa disponibilidade hídrica per capita. Foi abordada a possibilidade de considerar a evaporação durante as simulações, e a aplicação de uma regra de racionamento contínua nos reservatórios, que transforma a formulação do problema em programação não linear (PNL). A evaporação se mostrou pouco representativa em relação a vazão de atendimento à demanda, com cerca de 1% da vazão. Se por um lado uma vazão desta magnitude pode contribuir em um cenário crítico, por outro essa ordem de grandeza pode ser comparada às incertezas de medições ou previsões de afluências. O teste de sensibilidade das diferentes taxas de racionamento em função do volume armazenado permite analisar o tempo de resposta de cada sistema. A variação do tempo de recuperação, porém, não se mostrou muito significativo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o objetivo de aumentar o lucro de plantas químicas, a Otimização em Tempo Real (RTO) é uma ferramenta que busca determinar as condições ótimas operacionais do processo em estado estacionário, respeitando as restrições operacionais estabelecidas. Neste trabalho foi realizada a implementação prática de um ciclo RTO em um processo de destilação por recompressão de vapor (VRD), propileno-propano, da Refinaria de Paulínia (Petrobras S.A.), a partir de dados históricos da planta. Foram consideradas as principais etapas de um ciclo clássico de RTO: identificação de estado estacionário, reconciliação de dados, estimação de parâmetros e otimização econômica. Essa unidade foi modelada, simulada e otimizada em EMSO (Environment for Modeling, Simulation and Optimization), um simulador de processos orientado a equações desenvolvido no Brasil. Foram analisados e comparados dois métodos de identificação de estado estacionário, um baseado no teste estatístico F e outro baseado em wavelets. Ambos os métodos tiveram resultados semelhantes e mostraram-se capazes de identificar os estados estacionários de forma satisfatória, embora seja necessário o ajuste de parâmetros na sua implementação. Foram identificados alguns pontos estacionários para serem submetidos ao ciclo RTO e foi possível verificar a importância de partir de um estado estacionário para a continuidade do ciclo, já que essa é uma premissa do método. A partir dos pontos analisados, os resultados deste estudo mostram que o RTO é capaz de aumentar o ganho econômico entre 2,5-24%, dependendo das condições iniciais consideradas, o que pode representar ganhos de até 18 milhões de dólares por ano. Além disso, para essa unidade, verificou-se que o compressor é um equipamento limitante no aumento de ganho econômico do processo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Devido às tendências de crescimento da quantidade de dados processados e a crescente necessidade por computação de alto desempenho, mudanças significativas estão acontecendo no projeto de arquiteturas de computadores. Com isso, tem-se migrado do paradigma sequencial para o paralelo, com centenas ou milhares de núcleos de processamento em um mesmo chip. Dentro desse contexto, o gerenciamento de energia torna-se cada vez mais importante, principalmente em sistemas embarcados, que geralmente são alimentados por baterias. De acordo com a Lei de Moore, o desempenho de um processador dobra a cada 18 meses, porém a capacidade das baterias dobra somente a cada 10 anos. Esta situação provoca uma enorme lacuna, que pode ser amenizada com a utilização de arquiteturas multi-cores heterogêneas. Um desafio fundamental que permanece em aberto para estas arquiteturas é realizar a integração entre desenvolvimento de código embarcado, escalonamento e hardware para gerenciamento de energia. O objetivo geral deste trabalho de doutorado é investigar técnicas para otimização da relação desempenho/consumo de energia em arquiteturas multi-cores heterogêneas single-ISA implementadas em FPGA. Nesse sentido, buscou-se por soluções que obtivessem o melhor desempenho possível a um consumo de energia ótimo. Isto foi feito por meio da combinação de mineração de dados para a análise de softwares baseados em threads aliadas às técnicas tradicionais para gerenciamento de energia, como way-shutdown dinâmico, e uma nova política de escalonamento heterogeneity-aware. Como principais contribuições pode-se citar a combinação de técnicas de gerenciamento de energia em diversos níveis como o nível do hardware, do escalonamento e da compilação; e uma política de escalonamento integrada com uma arquitetura multi-core heterogênea em relação ao tamanho da memória cache L1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A rápida evolução do hardware demanda uma evolução contínua dos compiladores. Um processo de ajuste deve ser realizado pelos projetistas de compiladores para garantir que o código gerado pelo compilador mantenha uma determinada qualidade, seja em termos de tempo de processamento ou outra característica pré-definida. Este trabalho visou automatizar o processo de ajuste de compiladores por meio de técnicas de aprendizado de máquina. Como resultado os planos de compilação obtidos usando aprendizado de máquina com as características propostas produziram código para programas cujos valores para os tempos de execução se aproximaram daqueles seguindo o plano padrão utilizado pela LLVM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A comercialização de energia elétrica de fontes renováveis, ordinariamente, constitui-se uma atividade em que as operações são estruturadas sob condições de incerteza, por exemplo, em relação ao preço \"spot\" no mercado de curto prazo e a geração de energia dos empreendimentos. Deriva desse fato a busca dos agentes pela formulação de estratégias e utilização de ferramentais para auxiliá-los em suas tomadas de decisão, visando não somente o retorno financeiro, mas também à mitigação dos riscos envolvidos. Análises de investimentos em fontes renováveis compartilham de desafios similares. Na literatura, o estudo da tomada de decisão considerada ótima sob condições de incerteza se dá por meio da aplicação de técnicas de programação estocástica, que viabiliza a modelagem de problemas com variáveis randômicas e a obtenção de soluções racionais, de interesse para o investidor. Esses modelos permitem a incorporação de métricas de risco, como por exemplo, o Conditional Value-at-Risk, a fim de se obter soluções ótimas que ponderem a expectativa de resultado financeiro e o risco associado da operação, onde a aversão ao risco do agente torna-se um condicionante fundamental. O objetivo principal da Tese - sob a ótica dos agentes geradores, consumidores e comercializadores - é: (i) desenvolver e implementar modelos de otimização em programação linear estocástica com métrica CVaR associada, customizados para cada um desses agentes; e (ii) aplicá-los na análise estratégica de operações como forma de apresentar alternativas factíveis à gestão das atividades desses agentes e contribuir com a proposição de um instrumento conceitualmente robusto e amigável ao usuário, para utilização por parte das empresas. Nesse contexto, como antes frisado, dá-se ênfase na análise do risco financeiro dessas operações por meio da aplicação do CVaR e com base na aversão ao risco do agente. Considera-se as fontes renováveis hídrica e eólica como opções de ativos de geração, de forma a estudar o efeito de complementaridade entre fontes distintas e entre sites distintos da mesma fonte, avaliando-se os rebatimentos nas operações.