30 resultados para Quadratic Volterra Filters
em Instituto Politécnico do Porto, Portugal
Resumo:
Constraints nonlinear optimization problems can be solved using penalty or barrier functions. This strategy, based on solving the problems without constraints obtained from the original problem, have shown to be e ective, particularly when used with direct search methods. An alternative to solve the previous problems is the lters method. The lters method introduced by Fletcher and Ley er in 2002, , has been widely used to solve problems of the type mentioned above. These methods use a strategy di erent from the barrier or penalty functions. The previous functions de ne a new one that combine the objective function and the constraints, while the lters method treat optimization problems as a bi-objective problems that minimize the objective function and a function that aggregates the constraints. Motivated by the work of Audet and Dennis in 2004, using lters method with derivative-free algorithms, the authors developed works where other direct search meth- ods were used, combining their potential with the lters method. More recently. In a new variant of these methods was presented, where it some alternative aggregation restrictions for the construction of lters were proposed. This paper presents a variant of the lters method, more robust than the previous ones, that has been implemented with a safeguard procedure where values of the function and constraints are interlinked and not treated completely independently.
Resumo:
Constrained nonlinear optimization problems are usually solved using penalty or barrier methods combined with unconstrained optimization methods. Another alternative used to solve constrained nonlinear optimization problems is the lters method. Filters method, introduced by Fletcher and Ley er in 2002, have been widely used in several areas of constrained nonlinear optimization. These methods treat optimization problem as bi-objective attempts to minimize the objective function and a continuous function that aggregates the constraint violation functions. Audet and Dennis have presented the rst lters method for derivative-free nonlinear programming, based on pattern search methods. Motivated by this work we have de- veloped a new direct search method, based on simplex methods, for general constrained optimization, that combines the features of the simplex method and lters method. This work presents a new variant of these methods which combines the lters method with other direct search methods and are proposed some alternatives to aggregate the constraint violation functions.
Resumo:
In this paper, we consider a mixed market with uncertain demand, involving one private firm and one public firm with quadratic costs. The model is a two-stage game in which players choose to make their output decisions either in stage 1 or stage 2. We assume that the demand is unknown until the end of the first stage. We compute the output levels at equilibrium in each possible role. We also determine ex-ante and ex-post firms’ payoff functions.
Resumo:
The shifted Legendre orthogonal polynomials are used for the numerical solution of a new formulation for the multi-dimensional fractional optimal control problem (M-DFOCP) with a quadratic performance index. The fractional derivatives are described in the Caputo sense. The Lagrange multiplier method for the constrained extremum and the operational matrix of fractional integrals are used together with the help of the properties of the shifted Legendre orthonormal polynomials. The method reduces the M-DFOCP to a simpler problem that consists of solving a system of algebraic equations. For confirming the efficiency and accuracy of the proposed scheme, some test problems are implemented with their approximate solutions.
Resumo:
The main objective of this study was to characterize the organic matter present in raw water and along the treatment process, as well as its seasonal variation. A natural organic matter fractionation approach has been applied to Lever water treatment plant located in Douro River, in Oporto (Portugal). The process used was based on the sorption of dissolved organic matter in different types of ion exchange resins, DAX-8, DAX-4 and IRA-958, allowing its separation into four fractions: very hydrophobic acids (VHA), slightly hydrophobic acids (SHA), charged hydrophilic (CHA) and hydrophilic neutral (NEU). The dissolved organic carbon (DOC) determination was used to quantify dissolved organic matter. Samples were collected monthly, during approximately one year, from raw water captured at the surface and under the bed of the river, and after each step of the treatment: pre-filtration in sand/anthracite filters, ozonation, coagulation/flocculation, counter current dissolved air flotation and filtration (CoCoDAFF) and chlorination. The NEU fraction showed a seasonal variation, with maximum values in autumn for the sampling points corresponding to raw water captured at the surface and under the bed of the river. It was usually the predominating fraction and did not show a significant decrease throughout the treatment. Nevertheless their low concentration, the same occurred for the CHA and VHA fractions. There was an overall decrease in the SHA fraction throughout the water treatment (especially after CoCoDAFF and ozonation) as well as in the DOC. The TSUVA254 values obtained for raw water generally varied between 2.0 and 4.0 L mgC-1 m-1 and between 0.75 and 1.78 L mgC-1 m-1 for treated water. It was observed a decrease of TSUVA values along the treatment, especially after ozonation. These results may contribute to a further optimization in the process of treating water for human consumption.
Resumo:
O presente trabalho experimental teve como objectivos estudar a tratabilidade dum efluente lácteo utilizando a técnica de coagulação/floculação e avaliar a possibilidade de utilização do carvão activado granulado (CAG) Aquasorb 2000 como adsorvente para a remoção de compostos orgânicos presentes nos efluentes lácteos pré–tratados por coagulação/floculação, funcionando como um tratamento de polimento. No estudo da tratabilidade do efluente por coagulação/floculação investigou-se a influência de determinadas variáveis como o tipo e dose de coagulante e pH, a fim de encontrar as melhores condições operatórias. A utilização da referida técnica visou a redução do valor de concentração de alguns parâmetros: carência química de oxigénio (CQO); fósforo total e turvação, tendo sido utilizados efluentes desta indústria recolhidos em diferentes datas e após tratamento biológico, designados por A, B, C e D apresentando características diferentes. Sendo que o efluente A apresentava valores de CQO, fósforo total e turvação de 500 mg O2/L;32 mg P/L e 40 NTU respectivamente, o efluente B 1400 mg O2/L; 120 mg P/L e 80 NTU respectivamente, o efluente C 12300 mg O2/L; 87 mg P/L e 350 NTU respectivamente e o efluente D 340 mg O2/L; 33 mg P/L e 42 NTU respectivamente. Os coagulantes estudados foram hidróxido de cálcio (HC), sulfato de alumínio (SA) e tricloreto de ferro (TF). Verificou-se que o coagulante com maior eficácia nos efluentes estudados foi o TF. As maiores remoções de CQO, fósforo total e turvação, 89%, 99,9% e 99%, respectivamente, foram obtidas para o efluente C, com uma dosagem de TF de 4 g/L e com um pH entre 6 e 7. Entre os efluentes estudados este era o que apresentava valores iniciais mais elevados para qualquer um destes parâmetros. As melhores percentagens de remoção obtidas com o HC, para a CQO, fósforo total e turvação foram de 59%, 99% e 91%, respectivamente, com uma dosagem de HC de 1 g/L e com um pH entre 10 e 11,5 foram conseguidas no tratamento do efluente D, com o qual se alcançaram também as melhores remoções de CQO, fósforo total e turvação de 65%, 99% e 87%, respectivamente, quando se utilizou o coagulante SA, com uma dosagem de 2 g/L e com um pH entre 7 e 7,5. Relativamente ao volume de lamas produzido neste processo pela utilização dos diferentes coagulantes no tratamento dos efluentes referidos concluiu-se que o coagulante que gera menor volume de lamas é o HC, sendo o SA aquele que origina um maior volume. Submeteu-se posteriormente o efluente D, pré-tratado por coagulação/floculação, a um processo de adsorção em batch utilizando o CAG Aquasorb 2000, onde se conseguiu uma remoção de CQO de 48%, alcançando para este parâmetro o valor de 63 mg O2/L, nas condições operatórias que correspondem a uma massa de CAG de 12,5 g/L e um tempo de contacto de 3 horas. Quanto aos custos associados com os coagulantes, o que menores custos apresenta é o HC (150 €/ton), seguido pelo TF (250 €/ton) e por ultimo o SA (340 €/ton). Sendo que o efluente quando tratado com TF e SA é necessário uma correcção do pH do meio para que estes coagulantes actuem eficazmente, em que essa correcção de pH é realizada com hidróxido de sódio (540 €/ton). Realizaram-se ainda estudos de equilíbrio de adsorção com o carvão activado referido e o azul-de-metileno usando diferentes concentrações deste (50 mg/L; 100 mg/L e 200 mg/L) e diferentes massas de CAG (0,1g; 0,2g; 0,3g; 0,4g e 0,5g). A temperatura a que se realizaram estes ensaios foi de 28,7ºC e o volume de azul-de-metileno foi de 200 mL. Verificou-se que os melhores resultados obtidos foram para uma concentração de adsorvato de 100 mg/L. Ajustaram-se os modelos de Langmuir e Freundlich às isotérmicas obtidas tendo correlações mais elevadas para a concentração de 100 mg/L de corante (azul de metileno), sendo o modelo de Freundlich aquele que melhor se ajustou apresentando uma correlação quadrática de 0,9744 e os seguintes parâmetros Kf = 6,59 e n = 5,33, enquanto que o de Langmuir apresentou uma correlação quadrática de 0,9583 e os seguintes parâmetros qmáx = 83,3 mg/g de adsorvente e K = 20 L/mg de adsorvato.. Verificou-se que a capacidade de adsorção promovida pelo CAG, em relação ao azul-demetileno, obtida experimentalmente, 83,3 mg/g, é muito inferior à capacidade de adsorção teoricamente prevista pela ficha técnica deste carvão, 280 mg/g a uma temperatura de 25ºC, o que pode indiciar que o carvão utilizado não estaria nas melhores condições.
Resumo:
No trabalho é desenvolvido um sistema de treino para ciclistas. O sistema de treino é constituído por uma bicicleta de ―Spinning‖, um travão accionado electricamente, e por um sensor de velocidade, utilizado para medir a velocidade de rotação da roda de inércia. Nos primeiros capítulos encontra-se o estudo dos vários conceitos que envolvem o sistema de treino. É realizado um estudo sobre as principais forças que actuam numa bicicleta. Outro conceito estudado é o filtro Kalman (FK). Este será importante para o controlo do sistema de treino. O modelo do sistema de treino está dividido em duas partes. A primeira corresponde ao sistema mecânico, e a segunda o sistema de controlo e actuação. Este é constituído por um sensor de velocidade, uma unidade de estimação e o sistema de actuação do travão da bicicleta. A unidade de estimação é composta por conjunto de filtros de Kalman que estima a velocidade, a aceleração e a posição necessárias ao cálculo da força resistente ao movimento do conjunto ciclista bicicleta. Os resultados da simulação do sistema mostram que o sistema de treino modelado apresenta um desempenho bastante razoável. A estimação efectuada pelos filtros dos valores da velocidade, da aceleração e da posição do ciclista, permite a unidade de controlo do sistema calcular o valor da força resistente ao movimento.
Resumo:
Este trabalho teve como propósito fazer uma avaliação do desempenho energético e da qualidade do ar no interior das instalações de uma Piscina Municipal Coberta, localizada na zona norte de Portugal, sendo estabelecidos os seguintes objetivos: caracterização geral da piscina, no que respeita aos seus diferentes espaços e equipamentos, cálculo dos consumos térmicos e elétricos bem como o registo das concentrações de elementos poluentes para controlo da qualidade do ar no interior da piscina, tendo como base a legislação atualmente em vigor. A caracterização geral da piscina permitiu verificar algumas inconformidades como a temperatura da água nos tanques de natação que tem valores superiores aos recomendados e a sala de primeiros socorros que não possui acesso direto ao exterior. Acrescente-se que o pavimento nos chuveiros da casa de banho feminina e os valores de pH para água do tanque grande e pequeno não estão sempre dentro da gama de recomendação. O caudal da renovação de ar está a ser operado manualmente e quando está a funcionar a 50% da sua capacidade máxima, que acontece numa parte do dia, apenas consegue renovar 77,5% do caudal recomendado pelo RSECE. Para se obter o valor recomendado é necessário ter pelo menos 7 horas com o caudal a 100% da capacidade máxima. A avaria na UTA2 originou que 40% dos registos diários da humidade relativa interior estivessem fora da gama de valores recomendados e que esta é fortemente dependente da humidade no exterior e pode ser agravada quando as portas dos envidraçados da nave são abertas. Analisando ainda a quantidade de água removida na desumidificação do ar com a água evaporada em condições de Outono-Inverno ou Primavera-Verão, este estudo permitiu concluir que todas as combinações demonstraram a necessidade de desumidificação salvo a combinação Outono-Inverno e UTA2 a funcionar a 100% da sua capacidade máxima. Os isolamentos das tubagens na sala das caldeiras foram observados e comparados com as soluções recomendadas pelas empresas especialistas e verificou-se que alguns estão mal colocados com parcial ou total degradação, promovendo perdas térmicas. No caso das perdas calorificas por evaporação, estas representaram cerca de 67,78% das perdas totais. Como tal, estudou-se a aplicação de uma cobertura sobre o plano de água durante o período de inatividade da piscina (8 horas) e verificou-se que o resultado seria uma poupança de 654,8 kWh/dia, na ausência de evaporação da água, mais 88,00 kWh/dia do período da UTA2 a funcionar a 50% da sua capacidade, perfazendo um total de 742,8 kWh/dia. A aplicação da cobertura permite obter um VAL de valor positivo, uma TIR de 22,77% e sendo este valor superior ao WACC (Weight Average Cost of Capital), o projeto torna-se viável com um Pay-Back de 3,17 anos. Caracterizou-se também o consumo total diário em eletricidade, e verificou-se que as unidades de climatização, as bombas de circulação de água, a iluminação, e outros equipamentos representam, respetivamente, cerca de 67,81, 25,26, 2,68 e 3,91% da energia elétrica total consumida. Por fim, a análise à qualidade do ar no interior da nave em Maio e Setembro identificou que as concentrações de ozono apresentavam valores no limite do aceitável em Maio e superiores ao valor de emissão em Setembro. Os compostos orgânicos voláteis também apresentavam valores em Maio 4,98 vezes superior e em Setembro 6,87 vezes superior aos valores máximos exigidos pelo D.L. nº 79/2006. Houve ainda altas concentrações de radão registadas na casa dos filtros, em Maio com um valor 11,49 vezes superior, no entanto esse valor desceu em Setembro para 1,08 vezes, mesmo assim superior ao exigido pelo D.L. nº 79/2006.
Resumo:
Solvent extraction is considered as a multi-criteria optimization problem, since several chemical species with similar extraction kinetic properties are frequently present in the aqueous phase and the selective extraction is not practicable. This optimization, applied to mixer–settler units, considers the best parameters and operating conditions, as well as the best structure or process flow-sheet. Global process optimization is performed for a specific flow-sheet and a comparison of Pareto curves for different flow-sheets is made. The positive weight sum approach linked to the sequential quadratic programming method is used to obtain the Pareto set. In all investigated structures, recovery increases with hold-up, residence time and agitation speed, while the purity has an opposite behaviour. For the same treatment capacity, counter-current arrangements are shown to promote recovery without significant impairment in purity. Recycling the aqueous phase is shown to be irrelevant, but organic recycling with as many stages as economically feasible clearly improves the design criteria and reduces the most efficient organic flow-rate.
Resumo:
This paper presents a complete, quadratic programming formulation of the standard thermal unit commitment problem in power generation planning, together with a novel iterative optimisation algorithm for its solution. The algorithm, based on a mixed-integer formulation of the problem, considers piecewise linear approximations of the quadratic fuel cost function that are dynamically updated in an iterative way, converging to the optimum; this avoids the requirement of resorting to quadratic programming, making the solution process much quicker. From extensive computational tests on a broad set of benchmark instances of this problem, the algorithm was found to be flexible and capable of easily incorporating different problem constraints. Indeed, it is able to tackle ramp constraints, which although very important in practice were rarely considered in previous publications. Most importantly, optimal solutions were obtained for several well-known benchmark instances, including instances of practical relevance, that are not yet known to have been solved to optimality. Computational experiments and their results showed that the method proposed is both simple and extremely effective.
Resumo:
This study aimed to characterize air pollution and the associated carcinogenic risks of polycyclic aromatic hydrocarbon (PAHs) at an urban site, to identify possible emission sources of PAHs using several statistical methodologies, and to analyze the influence of other air pollutants and meteorological variables on PAH concentrations.The air quality and meteorological data were collected in Oporto, the second largest city of Portugal. Eighteen PAHs (the 16 PAHs considered by United States Environment Protection Agency (USEPA) as priority pollutants, dibenzo[a,l]pyrene, and benzo[j]fluoranthene) were collected daily for 24 h in air (gas phase and in particles) during 40 consecutive days in November and December 2008 by constant low-flow samplers and using polytetrafluoroethylene (PTFE) membrane filters for particulate (PM10 and PM2.5 bound) PAHs and pre-cleaned polyurethane foam plugs for gaseous compounds. The other monitored air pollutants were SO2, PM10, NO2, CO, and O3; the meteorological variables were temperature, relative humidity, wind speed, total precipitation, and solar radiation. Benzo[a]pyrene reached a mean concentration of 2.02 ngm−3, surpassing the EU annual limit value. The target carcinogenic risks were equal than the health-based guideline level set by USEPA (10−6) at the studied site, with the cancer risks of eight PAHs reaching senior levels of 9.98×10−7 in PM10 and 1.06×10−6 in air. The applied statistical methods, correlation matrix, cluster analysis, and principal component analysis, were in agreement in the grouping of the PAHs. The groups were formed according to their chemical structure (number of rings), phase distribution, and emission sources. PAH diagnostic ratios were also calculated to evaluate the main emission sources. Diesel vehicular emissions were the major source of PAHs at the studied site. Besides that source, emissions from residential heating and oil refinery were identified to contribute to PAH levels at the respective area. Additionally, principal component regression indicated that SO2, NO2, PM10, CO, and solar radiation had positive correlation with PAHs concentrations, while O3, temperature, relative humidity, and wind speed were negatively correlated.
Resumo:
This paper studies the Fermi-Pasta-Ulam problem having in mind the generalization provided by Fractional Calculus (FC). The study starts by addressing the classical formulation, based on the standard integer order differential calculus and evaluates the time and frequency responses. A first generalization to be investigated consists in the direct replacement of the springs by fractional elements of the dissipative type. It is observed that the responses settle rapidly and no relevant phenomena occur. A second approach consists of replacing the springs by a blend of energy extracting and energy inserting elements of symmetrical fractional order with amplitude modulated by quadratic terms. The numerical results reveal a response close to chaotic behaviour.
Resumo:
Mestrado em Engenharia Química. Ramo optimização energética na indústria química
Resumo:
In this paper we propose the use of the least-squares based methods for obtaining digital rational approximations (IIR filters) to fractional-order integrators and differentiators of type sα, α∈R. Adoption of the Padé, Prony and Shanks techniques is suggested. These techniques are usually applied in the signal modeling of deterministic signals. These methods yield suboptimal solutions to the problem which only requires finding the solution of a set of linear equations. The results reveal that the least-squares approach gives similar or superior approximations in comparison with other widely used methods. Their effectiveness is illustrated, both in the time and frequency domains, as well in the fractional differintegration of some standard time domain functions.
Resumo:
In the present paper we assess the performance of information-theoretic inspired risks functionals in multilayer perceptrons with reference to the two most popular ones, Mean Square Error and Cross-Entropy. The information-theoretic inspired risks, recently proposed, are: HS and HR2 are, respectively, the Shannon and quadratic Rényi entropies of the error; ZED is a risk reflecting the error density at zero errors; EXP is a generalized exponential risk, able to mimic a wide variety of risk functionals, including the information-thoeretic ones. The experiments were carried out with multilayer perceptrons on 35 public real-world datasets. All experiments were performed according to the same protocol. The statistical tests applied to the experimental results showed that the ubiquitous mean square error was the less interesting risk functional to be used by multilayer perceptrons. Namely, mean square error never achieved a significantly better classification performance than competing risks. Cross-entropy and EXP were the risks found by several tests to be significantly better than their competitors. Counts of significantly better and worse risks have also shown the usefulness of HS and HR2 for some datasets.