932 resultados para optimization method
Resumo:
In this paper we study the reconstruction of a network topology from the values of its betweenness centrality, a measure of the influence of each of its nodes in the dissemination of information over the network. We consider a simple metaheuristic, simulated annealing, as the combinatorial optimization method to generate the network from the values of the betweenness centrality. We compare the performance of this technique when reconstructing different categories of networks –random, regular, small-world, scale-free and clustered–. We show that the method allows an exact reconstruction of small networks and leads to good topological approximations in the case of networks with larger orders. The method can be used to generate a quasi-optimal topology fora communication network from a list with the values of the maximum allowable traffic for each node.
Resumo:
Teollisuuden tuotannon eri prosessien optimointi on hyvin ajankohtainen aihe. Monet ohjausjärjestelmät ovat ajalta, jolloin tietokoneiden laskentateho oli hyvin vaatimaton nykyisiin verrattuna. Työssä esitetään tuotantoprosessi, joka sisältää teräksen leikkaussuunnitelman muodostamisongelman. Valuprosessi on yksi teräksen valmistuksen välivaiheita. Siinä sopivaan laatuun saatettu sula teräs valetaan linjastoon, jossa se jähmettyy ja leikataan aihioiksi. Myöhemmissä vaiheissa teräsaihioista muokataan pienempiä kokonaisuuksia, tehtaan lopputuotteita. Jatkuvavaletut aihiot voidaan leikata tilauskannasta riippuen monella eri tavalla. Tätä varten tarvitaan leikkaussuunnitelma, jonka muodostamiseksi on ratkaistava sekalukuoptimointiongelma. Sekalukuoptimointiongelmat ovat optimoinnin haastavin muoto. Niitä on tutkittu yksinkertaisempiin optimointiongelmiin nähden vähän. Nykyisten tietokoneiden laskentateho on kuitenkin mahdollistanut raskaampien ja monimutkaisempien optimointialgoritmien käytön ja kehittämisen. Työssä on käytetty ja esitetty eräs stokastisen optimoinnin menetelmä, differentiaalievoluutioalgoritmi. Tässä työssä esitetään teräksen leikkausoptimointialgoritmi. Kehitetty optimointimenetelmä toimii dynaamisesti tehdasympäristössä käyttäjien määrittelemien parametrien mukaisesti. Työ on osa Syncron Tech Oy:n Ovako Bar Oy Ab:lle toimittamaa ohjausjärjestelmää.
Resumo:
Thedirect torque control (DTC) has become an accepted vector control method besidethe current vector control. The DTC was first applied to asynchronous machines,and has later been applied also to synchronous machines. This thesis analyses the application of the DTC to permanent magnet synchronous machines (PMSM). In order to take the full advantage of the DTC, the PMSM has to be properly dimensioned. Therefore the effect of the motor parameters is analysed taking the control principle into account. Based on the analysis, a parameter selection procedure is presented. The analysis and the selection procedure utilize nonlinear optimization methods. The key element of a direct torque controlled drive is the estimation of the stator flux linkage. Different estimation methods - a combination of current and voltage models and improved integration methods - are analysed. The effect of an incorrect measured rotor angle in the current model is analysed andan error detection and compensation method is presented. The dynamic performance of an earlier presented sensorless flux estimation method is made better by improving the dynamic performance of the low-pass filter used and by adapting the correction of the flux linkage to torque changes. A method for the estimation ofthe initial angle of the rotor is presented. The method is based on measuring the inductance of the machine in several directions and fitting the measurements into a model. The model is nonlinear with respect to the rotor angle and therefore a nonlinear least squares optimization method is needed in the procedure. A commonly used current vector control scheme is the minimum current control. In the DTC the stator flux linkage reference is usually kept constant. Achieving the minimum current requires the control of the reference. An on-line method to perform the minimization of the current by controlling the stator flux linkage reference is presented. Also, the control of the reference above the base speed is considered. A new estimation flux linkage is introduced for the estimation of the parameters of the machine model. In order to utilize the flux linkage estimates in off-line parameter estimation, the integration methods are improved. An adaptive correction is used in the same way as in the estimation of the controller stator flux linkage. The presented parameter estimation methods are then used in aself-commissioning scheme. The proposed methods are tested with a laboratory drive, which consists of a commercial inverter hardware with a modified software and several prototype PMSMs.
Resumo:
In the present research we have set forth a new, simple, Trade-Off model that would allow us to calculate how much debt and, by default, how much equity a company should have, using easily available information and calculating the cost of debt dynamically on the basis of the effect that the capital structure of the company has on the risk of bankruptcy; in an attempt to answer this question. The proposed model has been applied to the companies that make up the Dow Jones Industrial Average (DJIA) in 2007. We have used consolidated financial data from 1996 to 2006, published by Bloomberg. We have used simplex optimization method to find the debt level that maximizes firm value. Then, we compare the estimated debt with real debt of companies using statistical nonparametric Mann-Whitney. The results indicate that 63% of companies do not show a statistically significant difference between the real and the estimated debt.
Resumo:
It was evaluated the genetic divergence in peach genotypes for brown rot reaction. It was evaluated 26 and 29 peach genotypes in the 2009/2010 and 2010/2011 production cycle, respectively. The experiment was carried out at the Laboratório de Fitossanidade, da UTFPR - Campus Dois Vizinhos. The experimental design was entirely randomized, considering each peach genotype a treatment, and it was use three replication of nine fruits. The treatment control use three replication of three peach. The fruit epidermis were inoculated individually with 0.15 mL of M. fructicola conidial suspension (1.0 x 10(5) spores mL-1). In the control treatment was sprayed with 0.15 mL of distilled water. The fruits were examined 72 and 120 hours after inoculation, and the incidence and severity disease were evaluated. These results allowed realized study for genetic divergence, used as dissimilarity measure the Generalized Mahalanobis distance. Cluster analysis using Tocher´s optimization method and distances in the plan were applied. There was smallest genetic divergence among peach trees evaluated for brown rot, what can difficult to obtain resistance in the genotypes.
Resumo:
Voimalaitoksen sisäisellä optimoinnilla pyritään parantamaan prosessia ja lisäämään voimalaitoskonseptin kilpailukykyä energiamarkkinoilla. Tässä työssä optimoitiin lisäpoltolla varustettua, sähköteholtaan noin 125 MW:n maakaasukompivoimalaitosta. Työ on osa Fortum Engineering Oy:n konseptikehitysohjelmaa. Kaasuturbiinin savukaasun sisältämää happea voidaan hyödyntää lämmöntal-teenottokattilan savukaasukanavaan sijoitetussa lisäpoltossa. Lisäpoltolla saadaan nostettua savukaasun lämpötilaa ja lisättyä tuotetun tuorehöyryn määrää. Työssä tutkittiin lisäpolton kannattavuutta ja sen vaikutusta voimalaitoksen mitoitukseen. Lisäpolton lämpötila valitaan teknisten rajoitusten perusteella, jolloin siitä aiheutuvat investointikustannukset eivät nouse merkittäviksi. Optimointimenetelmä pohjautuu Fortum Oyj:ssä kehitetyllä voimalaitossimulaattori Solvolla laskettujen lämpötaseiden ja asiantuntija-arvioihin perustuvien investointikustannuskaavojen käyttöön. Taloudelliset lähtöarvot on valittu Itä-Euroopan markkinatilanteen mukaisiksi. Kannattavuuslaskelmat perustuvat nykyarvomenetelmään, jossa investointikustannuksille ja sähkön ja kaukolämmön myynnistä saaduille tuotoille lasketaan nykyarvo. Teknisten rajoitusten puitteissa suurimman nykyarvon antava tapaus on aina kunkin tutkittavan prosessisuureen optimitapaus. Tutkittavia prosessisuureita voivat olla esimerkiksi tuorehöyryn tila-arvot. Eräs työn tavoitteista oli selvittää lämmöntalteenottokattilan painetasojen optimaalinen lukumäärä. Lisäpoltto todettiin lämmitysvoimalaitoksella kannattavaksi ratkaisuksi kun nyt optimoitua laitosta verrattiin ilman lisäpolttoa mitoitettuun vastaavanlaiseen laitokseen. Kannattavuuslaskelmille tehtiin herkkyystarkastelut, joiden avulla tutkittiin mitoitetun konseptin herkkyyttä taloudellisten lähtöarvojen muutoksille. Herkkyysanalyysin avulla optimoitua voimalaitoskonseptia voidaan hyödyntää suuremmalla taloudellisten lähtöarvojen vaihteluvälillä.
Resumo:
This dissertation is based on four articles dealing with modeling of ozonation. The literature part of this considers some models for hydrodynamics in bubble column simulation. A literature review of methods for obtaining mass transfer coefficients is presented. The methods presented to obtain mass transfer are general models and can be applied to any gas-liquid system. Ozonation reaction models and methods for obtaining stoichiometric coefficients and reaction rate coefficients for ozonation reactions are discussed in the final section of the literature part. In the first article, ozone gas-liquid mass transfer into water in a bubble column was investigated for different pH values. A more general method for estimation of mass transfer and Henry’s coefficient was developed from the Beltrán method. The ozone volumetric mass transfer coefficient and the Henry’s coefficient were determined simultaneously by parameter estimation using a nonlinear optimization method. A minor dependence of the Henry’s law constant on pH was detected at the pH range 4 - 9. In the second article, a new method using the axial dispersion model for estimation of ozone self-decomposition kinetics in a semi-batch bubble column reactor was developed. The reaction rate coefficients for literature equations of ozone decomposition and the gas phase dispersion coefficient were estimated and compared with the literature data. The reaction order in the pH range 7-10 with respect to ozone 1.12 and 0.51 the hydroxyl ion were obtained, which is in good agreement with literature. The model parameters were determined by parameter estimation using a nonlinear optimization method. Sensitivity analysis was conducted using object function method to obtain information about the reliability and identifiability of the estimated parameters. In the third article, the reaction rate coefficients and the stoichiometric coefficients in the reaction of ozone with the model component p-nitrophenol were estimated at low pH of water using nonlinear optimization. A novel method for estimation of multireaction model parameters in ozonation was developed. In this method the concentration of unknown intermediate compounds is presented as a residual COD (chemical oxygen demand) calculated from the measured COD and the theoretical COD for the known species. The decomposition rate of p-nitrophenol on the pathway producing hydroquinone was found to be about two times faster than the p-nitrophenol decomposition rate on the pathway producing 4- nitrocatechol. In the fourth article, the reaction kinetics of p-nitrophenol ozonation was studied in a bubble column at pH 2. Using the new reaction kinetic model presented in the previous article, the reaction kinetic parameters, rate coefficients, and stoichiometric coefficients as well as the mass transfer coefficient were estimated with nonlinear estimation. The decomposition rate of pnitrophenol was found to be equal both on the pathway producing hydroquinone and on the path way producing 4-nitrocathecol. Comparison of the rate coefficients with the case at initial pH 5 indicates that the p-nitrophenol degradation producing 4- nitrocathecol is more selective towards molecular ozone than the reaction producing hydroquinone. The identifiability and reliability of the estimated parameters were analyzed with the Marcov chain Monte Carlo (MCMC) method. @All rights reserved. No part of the publication may be reproduced, stored in a retrieval system, or transmitted, in any form or by any means, electronic, mechanical, photocopying, recording, or otherwise, without the prior permission of the author.
Resumo:
We introduce a global optimization method based on the cooperation between an Artificial Neural Net (ANN) and Genetic Algorithm (GA). We have used ANN to select the initial population for the GA. We have tested the new method to predict the ground-state geometry of silicon clusters. We have described the clusters as a piling of plane structures. We have trained three ANN architectures and compared their results with those of pure GA. ANN strongly reduces the total computational time. For Si10, it gained a factor of 5 in search speed. This method can be easily extended to other optimization problems.
Resumo:
Tässä diplomityössä määritellään biopolttoainetta käyttävän voimalaitoksen käytönaikainen tuotannon optimointimenetelmä. Määrittelytyö liittyy MW Powerin MultiPower CHP –voimalaitoskonseptin jatkokehitysprojektiin. Erilaisten olemassa olevien optimointitapojen joukosta valitaan tarkoitukseen sopiva, laitosmalliin ja kustannusfunktioon perustuva menetelmä, jonka tulokset viedään automaatiojärjestelmään PID-säätimien asetusarvojen muodossa. Prosessin mittaustulosten avulla lasketaan laitoksen energia- ja massataseet, joiden tuloksia käytetään seuraavan optimointihetken lähtötietoina. Optimoinnin kohdefunktio on kustannusfunktio, jonka termit ovat voimalaitoksen käytöstä aiheutuvia tuottoja ja kustannuksia. Prosessia optimoidaan säätimille annetut raja-arvot huomioiden niin, että kokonaiskate maksimoituu. Kun laitokselle kertyy käyttöikää ja historiadataa, voidaan prosessin optimointia nopeuttaa hakemalla tilastollisesti historiadatasta nykytilanteen olosuhteita vastaava hetki. Kyseisen historian hetken katetta verrataan kustannusfunktion optimoinnista saatuun katteeseen. Paremman katteen antavan menetelmän laskemat asetusarvot otetaan käyttöön prosessin ohjausta varten. Mikäli kustannusfunktion laskenta eikä historiadatan perusteella tehty haku anna paranevaa katetta, niiden laskemia asetusarvoja ei oteta käyttöön. Sen sijaan optimia aletaan hakea deterministisellä optimointialgoritmilla, joka hakee nykyhetken ympäristöstä paremman katteen antavia säätimien asetusarvoja. Säätöjärjestelmä on mahdollista toteuttaa myös tulevaisuutta ennustavana. Työn käytännön osuudessa voimalaitosmalli luodaan kahden eri mallinnusohjelman avulla, joista toisella kuvataan kattilan ja toisella voimalaitosprosessin toimintaa. Mallinnuksen tuloksena saatuja prosessiarvoja hyödynnetään lähtötietoina käyttökatteen laskennassa. Kate lasketaan kustannusfunktion perusteella. Tuotoista suurimmat liittyvät sähkön ja lämmön myyntiin sekä tuotantotukeen, ja suurimmat kustannukset liittyvät investoinnin takaisinmaksuun ja polttoaineen ostoon. Kustannusfunktiolle tehdään herkkyystarkastelu, jossa seurataan katteen muutosta prosessin teknisiä arvoja muutettaessa. Tuloksia vertaillaan referenssivoimalaitoksella suoritettujen verifiointimittausten tuloksiin, ja havaitaan, että tulokset eivät ole täysin yhteneviä. Erot johtuvat sekä mallinnuksen puutteista että mittausten lyhyehköistä tarkasteluajoista. Automatisoidun optimointijärjestelmän käytännön toteutusta alustetaan määrittelemällä käyttöön otettava optimointitapa, siihen liittyvät säätöpiirit ja tarvittavat lähtötiedot. Projektia tullaan jatkamaan järjestelmän ohjelmoinnilla, testauksella ja virityksellä todellisessa voimalaitosympäristössä ja myöhemmin ennustavan säädön toteuttamisella.
Resumo:
Tämä Pro gradu–työ on käytännönläheinen sijoittajalähtöinen tutkimus varallisuudenhoidosta indeksiosuusrahastoilla. Tavoitteena on selvittää indeksiosuusrahastojen olemusta, niiden hyötyjä sekä mahdollisia haittapuolia. Toisena tavoitteena on rakentaa indeksiosuusrahastoista aikaisemman tutkimuksen pohjalta mallisalkku. Kolmantena tavoitteena on luoda Excelin portfolio-optimoinnilla salkku, jossa tutkitaan indeksiosuusrahastojen suoriutumista markkinoilla. Tämä optimointimetodi on rakennettu Mika Vaihekosken (2002) mukaan. Tutkimusmenetelmänä on empiirinen tutkimus. Tarkastelen aihetta pääosin liiketaloustieteellisestä näkökulmasta. Tutkimuksessa käytetään myös paljon rahoitusmarkkinalähtöistä näkökulmaa. Tutkimusaineisto koostuu kolmestakymmenestäneljästä Yhdysvaltain markkinoiden osake-, joukkovelkakirja- sekä raaka-aineindeksiosuusrahastosta. Aineisto on vuosilta 2006 – 2011 sisältäen 34x69 havaintoa. Portfolio-optimoinnissa käytetään neljää hyperbola-kerrointa. Empiiristen tutkimustulosten mukaan indeksiosuusrahastojen menneisyyden hyvät tuotot ennustaisivat hyvin tulevaisuuden hyviä tuottoja ainakin tämän tutkimuksen aikavälillä tammikuusta 2006 syyskuuhun 2011. Valinta-aikavälin 2006 – 2008 aineistosta muodostettu tangenttiportfolio menestyi suhteellisen hyvin hallussapitoaikavälillä 2009 – 2011. Tangenttiportfolio osoittautui ainakin tässä tutkielmassa käyttökelpoiseksi työkaluksi indeksiosuusrahastojen varallisuudenhallinnassa.
Resumo:
Factors involved in the determination of PAHs (16 priority PAHs as an example) and PCBs (10 PCB congeners, representing 10 isomeric groups) by capillary gas chromatography coupled with mass spectrometry (GC/MS, for PAHs) and electron capture detection (GC/ECD , for PCBs) were studied, with emphasis on the effect of solvent. Having various volatilities and different polarities, solvent studied included dichloromethane, acetonitrile, hexan e, cyclohexane, isooctane, octane, nonane, dodecane, benzene, toluene, p-xylene, o-xylene, and mesitylene. Temperatures of the capillary column, the injection port, the GC/MS interface, the flow rates of carrier gas and make-up gas, and the injection volume were optimized by one factor at a time method or simplex optimization method. Under the optimized conditions, both peak height and peak area of 16 PAHs, especially the late-eluting PAHs, were significantly enhanced (1 to 500 times) by using relatively higher boiling point solvents such as p-xylene and nonane, compared with commonly used solvents like benzene and isooctane. With the improved sensitivity, detection limits of between 4.4 pg for naphthalene and 30.8 pg for benzo[g,h,i]perylene were obtained when p-xylene was used as an injection solvent. Effect of solvent on peak shape and peak intensity were found to be greatly dependent on temperature parameters, especially the initial temperature of the capillary column. The relationship between initial temperature and shape of peaks from 16 PAHs and 10 PCBs were studied and compared when toluene, p-xylene, isooctane, and nonane were used as injection solvents. If a too low initial temperature was used, fronting or split of peaks was observed. On the other hand, peak tailing occurred at a too high initial column temperature. The optimum initial temperature, at which both peak fronting and tailing were avoided and symmetrical peaks were obtained, depended on both solvents and the stationary phase of the column used. On a methyl silicone column, the alkane solvents provided wider optimum ranges of initial temperature than aromatic solvents did, for achieving well-shaped symmetrical GC peaks. On a 5% diphenyl: 1% vinyl: 94% dimethyl polysiloxane column, when the aromatic solvents were used, the optimum initial temperature ranges for solutes to form symmetrical peaks were improved to a similar degree as those when the alkanes were used as injection solvents. A mechanism, based on the properties of and possible interactions among the analyte, the injection solvent, and the stationary phase of the capillary column, was proposed to explain these observations. The effect of initial temperature on peak height and peak area of the 16 PAHs and the 10 PCBs was also studied. The optimum initial temperature was found to be dependent on the physical properties of the solvent used and the amount of the solvent injected. Generally, from the boiling point of the solvent to 10 0C above its boiling point was an optimum range of initial temperature at which cthe highest peak height and peak area were obtained.
Resumo:
Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.
Resumo:
Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.
Resumo:
Vorgestellt wird eine weltweit neue Methode, Schnittstellen zwischen Menschen und Maschinen für individuelle Bediener anzupassen. Durch Anwenden von Abstraktionen evolutionärer Mechanismen wie Selektion, Rekombination und Mutation in der EOGUI-Methodik (Evolutionary Optimization of Graphical User Interfaces) kann eine rechnergestützte Umsetzung der Methode für Graphische Bedienoberflächen, insbesondere für industrielle Prozesse, bereitgestellt werden. In die Evolutionäre Optimierung fließen sowohl die objektiven, d.h. messbaren Größen wie Auswahlhäufigkeiten und -zeiten, mit ein, als auch das anhand von Online-Fragebögen erfasste subjektive Empfinden der Bediener. Auf diese Weise wird die Visualisierung von Systemen den Bedürfnissen und Präferenzen einzelner Bedienern angepasst. Im Rahmen dieser Arbeit kann der Bediener aus vier Bedienoberflächen unterschiedlicher Abstraktionsgrade für den Beispielprozess MIPS ( MIschungsProzess-Simulation) die Objekte auswählen, die ihn bei der Prozessführung am besten unterstützen. Über den EOGUI-Algorithmus werden diese Objekte ausgewählt, ggf. verändert und in einer neuen, dem Bediener angepassten graphischen Bedienoberfläche zusammengefasst. Unter Verwendung des MIPS-Prozesses wurden Experimente mit der EOGUI-Methodik durchgeführt, um die Anwendbarkeit, Akzeptanz und Wirksamkeit der Methode für die Führung industrieller Prozesse zu überprüfen. Anhand der Untersuchungen kann zu großen Teilen gezeigt werden, dass die entwickelte Methodik zur Evolutionären Optimierung von Mensch-Maschine-Schnittstellen industrielle Prozessvisualisierungen tatsächlich an den einzelnen Bediener anpaßt und die Prozessführung verbessert.
Resumo:
A greedy technique is proposed to construct parsimonious kernel classifiers using the orthogonal forward selection method and boosting based on Fisher ratio for class separability measure. Unlike most kernel classification methods, which restrict kernel means to the training input data and use a fixed common variance for all the kernel terms, the proposed technique can tune both the mean vector and diagonal covariance matrix of individual kernel by incrementally maximizing Fisher ratio for class separability measure. An efficient weighted optimization method is developed based on boosting to append kernels one by one in an orthogonal forward selection procedure. Experimental results obtained using this construction technique demonstrate that it offers a viable alternative to the existing state-of-the-art kernel modeling methods for constructing sparse Gaussian radial basis function network classifiers. that generalize well.