884 resultados para Multi-objective function


Relevância:

90.00% 90.00%

Publicador:

Resumo:

The attached file is created with Scientific Workplace Latex

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This paper presents an evaluative study about the effects of using a machine learning technique on the main features of a self-organizing and multiobjective genetic algorithm (GA). A typical GA can be seen as a search technique which is usually applied in problems involving no polynomial complexity. Originally, these algorithms were designed to create methods that seek acceptable solutions to problems where the global optimum is inaccessible or difficult to obtain. At first, the GAs considered only one evaluation function and a single objective optimization. Today, however, implementations that consider several optimization objectives simultaneously (multiobjective algorithms) are common, besides allowing the change of many components of the algorithm dynamically (self-organizing algorithms). At the same time, they are also common combinations of GAs with machine learning techniques to improve some of its characteristics of performance and use. In this work, a GA with a machine learning technique was analyzed and applied in a antenna design. We used a variant of bicubic interpolation technique, called 2D Spline, as machine learning technique to estimate the behavior of a dynamic fitness function, based on the knowledge obtained from a set of laboratory experiments. This fitness function is also called evaluation function and, it is responsible for determining the fitness degree of a candidate solution (individual), in relation to others in the same population. The algorithm can be applied in many areas, including in the field of telecommunications, as projects of antennas and frequency selective surfaces. In this particular work, the presented algorithm was developed to optimize the design of a microstrip antenna, usually used in wireless communication systems for application in Ultra-Wideband (UWB). The algorithm allowed the optimization of two variables of geometry antenna - the length (Ls) and width (Ws) a slit in the ground plane with respect to three objectives: radiated signal bandwidth, return loss and central frequency deviation. These two dimensions (Ws and Ls) are used as variables in three different interpolation functions, one Spline for each optimization objective, to compose a multiobjective and aggregate fitness function. The final result proposed by the algorithm was compared with the simulation program result and the measured result of a physical prototype of the antenna built in the laboratory. In the present study, the algorithm was analyzed with respect to their success degree in relation to four important characteristics of a self-organizing multiobjective GA: performance, flexibility, scalability and accuracy. At the end of the study, it was observed a time increase in algorithm execution in comparison to a common GA, due to the time required for the machine learning process. On the plus side, we notice a sensitive gain with respect to flexibility and accuracy of results, and a prosperous path that indicates directions to the algorithm to allow the optimization problems with "η" variables

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Analog networks for solving convex nonlinear unconstrained programming problems without using gradient information of the objective function are proposed. The one-dimensional net can be used as a building block in multi-dimensional networks for optimizing objective functions of several variables.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This work presents an algorithm for the security control of electric power systems using control actions like generation reallocation, determined by sensitivity analysis (linearized model) and optimization by neural networks. The model is developed taking into account the dynamic network aspects. The preventive control methodology is developed by means of sensitivity analysis of the security margin related with the mechanical power of the system synchronous machines. The reallocation power in each machine is determined using neural networks. The neural network used in this work is of Hopfield type. These networks are dedicated electric circuits which simulate the constraint set and the objective function of an optimization problem. The advantage of using these networks is the higher speed in getting the solutions when compared to conventional optimization algorithms due to the great convergence rate of the process and the facility of the method parallelization. Then, the objectives are: formulate and investigate these networks implementations in determining. The generation reallocation in digital computers. Aiming to illustrate the proposed methodology an application considering a multi-machine system is presented.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A simulação de uma seção sísmica de afastamento-nulo (ZO) a partir de dados de cobertura múltipla para um meio 2-D, através do empilhamento, é um método de imageamento de reflexão sísmica muito utilizado, que permite reduzir a quantidade de dados e melhorar a relação sinal/ruído. Segundo Berkovitch et al. (1999) o método Multifoco está baseado na Teoria do Imageamento Homeomórfico e consiste em empilhar dados de cobertura múltipla com distribuição fonte-receptor arbitrária de acordo com uma nova correção de sobretempo, chamada Multifoco. Esta correção de sobretempo esta baseada numa aproximação esférica local da frente de onda focalizante na vizinhança da superfície da terra. Este método permite construir uma seção sísmica no domínio do tempo de afastamento nulo aumentando a relação sinal/ruído. A técnica Multifoco não necessita do conhecimento a priori de um macro-modelo de velocidades. Três parâmetros são usados para descrever a aproximação de tempo de trânsito, Multifoco, os quais são: 1) o ângulo de emergência do raio de afastamento nulo ou raio de reflexão normal (β0), 2) a curvatura da frente de onda no Ponto de Incidência Normal (RNIP) e 3) curvatura da frente de Onda Normal (RN). Sendo também necessário a velocidade próximo a superfície da terra. Neste trabalho de tese aplico esta técnica de empilhamento Multifoco para dados de cobertura múltipla referidos a modelos de velocidade constante e modelo heterogêneos, com o objetivo de simular seções sísmicas afastamento-nulo. Neste caso, como se trata da solução de um problema direto, o macro-modelo de velocidades é considerado conhecido a priori. No contexto do problema inverso tem-se que os parâmetros RNIP, RN e β0 podem ser determinados a partir da análise de coerência aplicada aos dados sísmicos de múltipla cobertura. Na solução deste problema a função objetivo, a ser otimizada, é definida pelo cálculo da máxima coerência existente entre os dados na superfície de empilhamento sísmico. Neste trabalho de tese nos discutimos a sensibilidade da aproximação do tempo de trânsito usado no empilhamento Multifoco, como uma função dos parâmetros RNIP, RN e β0. Esta análise de sensibilidade é feita de três diferentes modos: 1) a primeira derivada da função objetivo, 2) a medida de coerência, denominada semelhança, e 3) a sensibilidade no Empilhamento Multifoco.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

O trabalho em pauta tem como objetivo o modelamento da crosta, através da inversão de dados de refração sísmica profunda, segundo camadas planas horizontais lateralmente homogêneas, sobre um semi-espaço. O modelo direto é dado pela expressão analítica da curva tempo-distância como uma função que depende da distância fonte-estação e do vetor de parâmetros velocidades e espessuras de cada camada, calculado segundo as trajetórias do raio sísmico, regidas pela Lei de Snell. O cálculo dos tempos de chegada por este procedimento, exige a utilização de um modelo cujas velocidades sejam crescentes com a profundidade, de modo que a ocorrência das camadas de baixa velocidade (CBV) é contornada pela reparametrização do modelo, levando-se em conta o fato de que o topo da CBV funciona apenas como um refletor do raio sísmico, e não como refrator. A metodologia de inversão utilizada tem em vista não só a determinação das soluções possíveis, mas também a realização de uma análise sobre as causas responsáveis pela ambiguidade do problema. A região de pesquisa das prováveis soluções é vinculada segundo limites superiores e inferiores para cada parâmetro procurado, e pelo estabelecimento de limites superiores para os valores de distâncias críticas, calculadas a partir do vetor de parâmetros. O processo de inversão é feito utilizando-se uma técnica de otimização do ajuste de curvas através da busca direta no espaço dos parâmetros, denominado COMPLEX. Esta técnica apresenta a vantagem de poder ser utilizada com qualquer função objeto, e ser bastante prática na obtenção de múltiplas soluções do problema. Devido a curva tempo-distância corresponder ao caso de uma multi-função, o algoritmo foi adaptado de modo a minimizar simultaneamente várias funções objetos, com vínculos nos parâmetros. A inversão é feita de modo a se obter um conjunto de soluções representativas do universo existente. Por sua vez, a análise da ambiguidade é realizada pela análise fatorial modo-Q, através da qual é possível se caracterizar as propriedades comuns existentes no elenco das soluções analisadas. Os testes com dados sintéticos e reais foram feitos tendo como aproximação inicial ao processo de inversão, os valores de velocidades e espessuras calculados diretamente da interpretação visual do sismograma. Para a realização dos primeiros, utilizou-se sismogramas calculados pelo método da refletividade, segundo diferentes modelos. Por sua vez, os testes com dados reais foram realizados utilizando-se dados extraídos de um dos sismogramas coletados pelo projeto Lithospheric Seismic Profile in Britain (LISPB), na região norte da Grã-Bretanha. Em todos os testes foi verificado que a geometria do modelo possui um maior peso na ambiguidade do problema, enquanto os parâmetros físicos apresentam apenas suaves variações, no conjunto das soluções obtidas.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Pós-graduação em Engenharia Elétrica - FEIS

Relevância:

90.00% 90.00%

Publicador:

Resumo:

There are strong uncertainties regarding LAI dynamics in forest ecosystems in response to climate change. While empirical growth & yield models (G&YMs) provide good estimations of tree growth at the stand level on a yearly to decennial scale, process-based models (PBMs) use LAI dynamics as a key variable for enabling the accurate prediction of tree growth over short time scales. Bridging the gap between PBMs and G&YMs could improve the prediction of forest growth and, therefore, carbon, water and nutrient fluxes by combining modeling approaches at the stand level.Our study aimed to estimate monthly changes of leaf area in response to climate variations from sparse measurements of foliage area and biomass. A leaf population probabilistic model (SLCD) was designed to simulate foliage renewal. The leaf population was distributed in monthly cohorts, and the total population size was limited depending on forest age and productivity. Foliage dynamics were driven by a foliation function and the probabilities ruling leaf aging or fall. Their formulation depends on the forest environment.The model was applied to three tree species growing under contrasting climates and soil types. In tropical Brazilian evergreen broadleaf eucalypt plantations, the phenology was described using 8 parameters. A multi-objective evolutionary algorithm method (MOEA) was used to fit the model parameters on litterfall and LAI data over an entire stand rotation. Field measurements from a second eucalypt stand were used to validate the model. Seasonal LAI changes were accurately rendered for both sites (R-2 = 0.898 adjustment, R-2 = 0.698 validation). Litterfall production was correctly simulated (R-2 = 0.562, R-2 = 0.4018 validation) and may be improved by using additional validation data in future work. In two French temperate deciduous forests (beech and oak), we adapted phenological sub-modules of the CASTANEA model to simulate canopy dynamics, and SLCD was validated using LAI measurements. The phenological patterns were simulated with good accuracy in the two cases studied. However, IA/max was not accurately simulated in the beech forest, and further improvement is required.Our probabilistic approach is expected to contribute to improving predictions of LAI dynamics. The model formalism is general and suitable to broadleaf forests for a large range of ecological conditions. (C) 2014 Elsevier B.V. All rights reserved.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Research has shown that applying the T-2 control chart by using a variable parameters (VP) scheme yields rapid detection of out-of-control states. In this paper, the problem of economic statistical design of the VP T-2 control chart is considered as a double-objective minimization problem with the statistical objective being the adjusted average time to signal and the economic objective being expected cost per hour. We then find the Pareto-optimal designs in which the two objectives are met simultaneously by using a multi-objective genetic algorithm. Through an illustrative example, we show that relatively large benefits can be achieved by applying the VP scheme when compared with usual schemes, and in addition, the multi-objective approach provides the user with designs that are flexible and adaptive.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)