908 resultados para Non-dominated sorting genetic algorithms


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The optimal design of a heat exchanger system is based on given model parameters together with given standard ranges for machine design variables. The goals set for minimizing the Life Cycle Cost (LCC) function which represents the price of the saved energy, for maximizing the momentary heat recovery output with given constraints satisfied and taking into account the uncertainty in the models were successfully done. Nondominated Sorting Genetic Algorithm II (NSGA-II) for the design optimization of a system is presented and implemented inMatlab environment. Markov ChainMonte Carlo (MCMC) methods are also used to take into account the uncertainty in themodels. Results show that the price of saved energy can be optimized. A wet heat exchanger is found to be more efficient and beneficial than a dry heat exchanger even though its construction is expensive (160 EUR/m2) compared to the construction of a dry heat exchanger (50 EUR/m2). It has been found that the longer lifetime weights higher CAPEX and lower OPEX and vice versa, and the effect of the uncertainty in the models has been identified in a simplified case of minimizing the area of a dry heat exchanger.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Current technology trends in medical device industry calls for fabrication of massive arrays of microfeatures such as microchannels on to nonsilicon material substrates with high accuracy, superior precision, and high throughput. Microchannels are typical features used in medical devices for medication dosing into the human body, analyzing DNA arrays or cell cultures. In this study, the capabilities of machining systems for micro-end milling have been evaluated by conducting experiments, regression modeling, and response surface methodology. In machining experiments by using micromilling, arrays of microchannels are fabricated on aluminium and titanium plates, and the feature size and accuracy (width and depth) and surface roughness are measured. Multicriteria decision making for material and process parameters selection for desired accuracy is investigated by using particle swarm optimization (PSO) method, which is an evolutionary computation method inspired by genetic algorithms (GA). Appropriate regression models are utilized within the PSO and optimum selection of micromilling parameters; microchannel feature accuracy and surface roughness are performed. An analysis for optimal micromachining parameters in decision variable space is also conducted. This study demonstrates the advantages of evolutionary computing algorithms in micromilling decision making and process optimization investigations and can be expanded to other applications

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper examines two passive techniques for vibration reduction in mechanical systems: the first one is based on dynamic vibration absorbers (DVAs) and the second uses resonant circuit shunted (RCS) piezoceramics. Genetic algorithms are used to determine the optimal design parameters with respect to performance indexes, which are associated with the dynamical behavior of the system over selected frequency bands. The calculation of the frequency response functions (FRFs) of the composite structure (primary system + DVAs) is performed through a substructure coupling technique. A modal technique is used to determine the frequency response function of the structure containing shunted piezoceramics which are bonded to the primary structure. The use of both techniques simultaneously on the same structure is investigated. The methodology developed is illustrated by numerical applications in which the primary structure is represented by simple Euler-Bernoulli beams. However, the design aspects of vibration control devices presented in this paper can be extended to more complex structures.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Feature selection plays an important role in knowledge discovery and data mining nowadays. In traditional rough set theory, feature selection using reduct - the minimal discerning set of attributes - is an important area. Nevertheless, the original definition of a reduct is restrictive, so in one of the previous research it was proposed to take into account not only the horizontal reduction of information by feature selection, but also a vertical reduction considering suitable subsets of the original set of objects. Following the work mentioned above, a new approach to generate bireducts using a multi--objective genetic algorithm was proposed. Although the genetic algorithms were used to calculate reduct in some previous works, we did not find any work where genetic algorithms were adopted to calculate bireducts. Compared to the works done before in this area, the proposed method has less randomness in generating bireducts. The genetic algorithm system estimated a quality of each bireduct by values of two objective functions as evolution progresses, so consequently a set of bireducts with optimized values of these objectives was obtained. Different fitness evaluation methods and genetic operators, such as crossover and mutation, were applied and the prediction accuracies were compared. Five datasets were used to test the proposed method and two datasets were used to perform a comparison study. Statistical analysis using the one-way ANOVA test was performed to determine the significant difference between the results. The experiment showed that the proposed method was able to reduce the number of bireducts necessary in order to receive a good prediction accuracy. Also, the influence of different genetic operators and fitness evaluation strategies on the prediction accuracy was analyzed. It was shown that the prediction accuracies of the proposed method are comparable with the best results in machine learning literature, and some of them outperformed it.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’épidémie du VIH-1 dure maintenant depuis plus de 25 ans. La grande diversité génétique de ce virus est un obstacle majeur en vue de l’éradication de cette pandémie. Au cours des années, le VIH-1 a évolué en plus de cinquante sous-types ou formes recombinantes. Cette diversité génétique est influencée par diverses pressions de sélection, incluant les pressions du système immunitaire de l’hôte et les agents antirétroviraux (ARV). En effet, bien que les ARV aient considérablement réduit les taux de morbidité et de mortalité, en plus d’améliorer la qualité et l’espérance de vie des personnes atteintes du VIH-1, ces traitements sont complexes, dispendieux et amènent leur lot de toxicité pouvant mener à des concentrations plasmatiques sous-optimales pour contrôler la réplication virale. Ceci va permettre l’émergence de variantes virales portant des mutations de résistance aux ARV. Ce phénomène est encore plus complexe lorsque l’on prend en considération l’immense diversité génétique des différents sous-types. De plus, le virus du VIH est capable de persister sous forme latente dans diverses populations cellulaires, rendant ainsi son éradication extrêmement difficile. Des stratégies pouvant restreindre la diversité virale ont donc été préconisées dans le but de favoriser les réponses immunes de l’hôte pour le contrôle de l’infection et d’identifier des variantes virales offrant une meilleure cible pour des stratégies vaccinales ou immunothérapeutiques. Dans cet esprit, nous avons donc étudié, chez des sujets infectés récemment par le VIH-1, l’effet du traitement ARV précoce sur la diversité virale de la région C2V5 du gène enveloppe ainsi que sur la taille des réservoirs. En deuxième lieu, nous avons caractérisé la pression de sélection des ARV sur des souches virales de sous types variés non-B, chez des patients du Mali et du Burkina Faso afin d’évaluer les voies d’échappement viral dans un fond génétique différent du sous-type B largement prévalent en Amérique du Nord. Notre étude a démontré la présence d’une population virale très homogène et peu diversifiée dans les premières semaines suivant l’infection, qui évolue pour atteindre une diversification de +0,23% à la fin de la première année. Cette diversification est plus importante chez les sujets n’ayant pas initié de traitement. De plus, ceci s’accompagne d’un plus grand nombre de particules virales infectieuses dans les réservoirs viraux des cellules mononucléées du sang périphérique (PBMC) chez ces sujets. Ces résultats suggèrent que l’initiation précoce du traitement pourrait avoir un effet bénéfique en retardant l’évolution virale ainsi que la taille des réservoirs, ce qui pourrait supporter une réponse immune mieux ciblée et potentiellement des stratégies immunothérapeutiques permettant d’éradiquer le virus. Nous avons également suivi 801 sujets infectés par des sous-types non-B sur le point de débuter un traitement antirétroviral. Bien que la majorité des sujets ait été à un stade avancé de la maladie, plus de 75% des individus ont obtenu une charge virale indétectable après 6 mois d’ARV, témoignant de l’efficacité comparable des ARV sur les sous-types non-B et B. Toutefois, contrairement aux virus de sous-type B, nous avons observé différentes voies moléculaires de résistance chez les sous type non-B, particulièrement chez les sous-types AGK/AK/K pour lesquels les voies de résistances étaient associées de façon prédominante aux TAM2. De plus, bien que la divergence entre les virus retrouvés chez les patients d’une même région soit faible, nos analyses phylogénétiques ont permis de conclure que ces mutations de résistance se sont produites de novo et non à partir d’un ancêtre commun porteur de résistance. Cependant, notre dernière étude au Mali nous a permis d’évaluer la résistance primaire à près de 10% et des études phylogénétiques seront effectuées afin d’évaluer la circulation de ces souches résistantes dans la population. Ces études suggèrent qu’un contrôle de la réplication virale par les ARV peut freiner la diversité du VIH et ainsi ouvrir la voie à un contrôle immunologique ciblé, utilisant de nouvelles stratégies vaccinales ou immunothérapeutiques. Toutefois, une thérapie antirétrovirale sous-optimale (adhérence, toxicité) peut conduire à l’échappement virologique en favorisant l’émergence et la dissémination de souches résistantes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, an improved technique for evolving wavelet coefficients refined for compression and reconstruction of fingerprint images is presented. The FBI fingerprint compression standard [1, 2] uses the cdf 9/7 wavelet filter coefficients. Lifting scheme is an efficient way to represent classical wavelets with fewer filter coefficients [3, 4]. Here Genetic algorithm (GA) is used to evolve better lifting filter coefficients for cdf 9/7 wavelet to compress and reconstruct fingerprint images with better quality. Since the lifting filter coefficients are few in numbers compared to the corresponding classical wavelet filter coefficients, they are evolved at a faster rate using GA. A better reconstructed image quality in terms of Peak-Signal-to-Noise-Ratio (PSNR) is achieved with the best lifting filter coefficients evolved for a compression ratio 16:1. These evolved coefficients perform well for other compression ratios also.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper explains the Genetic Algorithm (GA) evolution of optimized wavelet that surpass the cdf9/7 wavelet for fingerprint compression and reconstruction. Optimized wavelets have already been evolved in previous works in the literature, but they are highly computationally complex and time consuming. Therefore, in this work, a simple approach is made to reduce the computational complexity of the evolution algorithm. A training image set comprised of three 32x32 size cropped images performed much better than the reported coefficients in literature. An average improvement of 1.0059 dB in PSNR above the classical cdf9/7 wavelet over the 80 fingerprint images was achieved. In addition, the computational speed was increased by 90.18 %. The evolved coefficients for compression ratio (CR) 16:1 yielded better average PSNR for other CRs also. Improvement in average PSNR was experienced for degraded and noisy images as well

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Support Vector Machine (SVM) is a new and very promising classification technique developed by Vapnik and his group at AT&T Bell Labs. This new learning algorithm can be seen as an alternative training technique for Polynomial, Radial Basis Function and Multi-Layer Perceptron classifiers. An interesting property of this approach is that it is an approximate implementation of the Structural Risk Minimization (SRM) induction principle. The derivation of Support Vector Machines, its relationship with SRM, and its geometrical insight, are discussed in this paper. Training a SVM is equivalent to solve a quadratic programming problem with linear and box constraints in a number of variables equal to the number of data points. When the number of data points exceeds few thousands the problem is very challenging, because the quadratic form is completely dense, so the memory needed to store the problem grows with the square of the number of data points. Therefore, training problems arising in some real applications with large data sets are impossible to load into memory, and cannot be solved using standard non-linear constrained optimization algorithms. We present a decomposition algorithm that can be used to train SVM's over large data sets. The main idea behind the decomposition is the iterative solution of sub-problems and the evaluation of, and also establish the stopping criteria for the algorithm. We present previous approaches, as well as results and important details of our implementation of the algorithm using a second-order variant of the Reduced Gradient Method as the solver of the sub-problems. As an application of SVM's, we present preliminary results we obtained applying SVM to the problem of detecting frontal human faces in real images.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We compare a broad range of optimal product line design methods. The comparisons take advantage of recent advances that make it possible to identify the optimal solution to problems that are too large for complete enumeration. Several of the methods perform surprisingly well, including Simulated Annealing, Product-Swapping and Genetic Algorithms. The Product-Swapping heuristic is remarkable for its simplicity. The performance of this heuristic suggests that the optimal product line design problem may be far easier to solve in practice than indicated by complexity theory.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La computación evolutiva y muy especialmente los algoritmos genéticos son cada vez más empleados en las organizaciones para resolver sus problemas de gestión y toma de decisiones (Apoteker & Barthelemy, 2000). La literatura al respecto es creciente y algunos estados del arte han sido publicados. A pesar de esto, no hay un trabajo explícito que evalúe de forma sistemática el uso de los algoritmos genéticos en problemas específicos de los negocios internacionales (ejemplos de ello son la logística internacional, el comercio internacional, el mercadeo internacional, las finanzas internacionales o estrategia internacional). El propósito de este trabajo de grado es, por lo tanto, realizar un estado situacional de las aplicaciones de los algoritmos genéticos en los negocios internacionales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Biological Crossover occurs during the early stages of meiosis. During this process the chromosomes undergoing crossover are synapsed together at a number of homogenous sequence sections, it is within such synapsed sections that crossover occurs. The SVLC (Synapsing Variable Length Crossover) Algorithm recurrently synapses homogenous genetic sequences together in order of length. The genomes are considered to be flexible with crossover only being permitted within the synapsed sections. Consequently, common sequences are automatically preserved with only the genetic differences being exchanged, independent of the length of such differences. In addition to providing a rationale for variable length crossover it also provides a genotypic similarity metric for variable length genomes enabling standard niche formation techniques to be utilised. In a simple variable length test problem the SVLC algorithm outperforms current variable length crossover techniques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Differential Evolution (DE) is a tool for efficient optimisation, and it belongs to the class of evolutionary algorithms, which include Evolution Strategies and Genetic Algorithms. DE algorithms work well when the population covers the entire search space, and they have shown to be effective on a large range of classical optimisation problems. However, an undesirable behaviour was detected when all the members of the population are in a basin of attraction of a local optimum (local minimum or local maximum), because in this situation the population cannot escape from it. This paper proposes a modification of the standard mechanisms in DE algorithm in order to change the exploration vs. exploitation balance to improve its behaviour.