860 resultados para Simulation-optimization method
Resumo:
It was evaluated the genetic divergence in peach genotypes for brown rot reaction. It was evaluated 26 and 29 peach genotypes in the 2009/2010 and 2010/2011 production cycle, respectively. The experiment was carried out at the Laboratório de Fitossanidade, da UTFPR - Campus Dois Vizinhos. The experimental design was entirely randomized, considering each peach genotype a treatment, and it was use three replication of nine fruits. The treatment control use three replication of three peach. The fruit epidermis were inoculated individually with 0.15 mL of M. fructicola conidial suspension (1.0 x 10(5) spores mL-1). In the control treatment was sprayed with 0.15 mL of distilled water. The fruits were examined 72 and 120 hours after inoculation, and the incidence and severity disease were evaluated. These results allowed realized study for genetic divergence, used as dissimilarity measure the Generalized Mahalanobis distance. Cluster analysis using Tocher´s optimization method and distances in the plan were applied. There was smallest genetic divergence among peach trees evaluated for brown rot, what can difficult to obtain resistance in the genotypes.
Resumo:
Voimalaitoksen sisäisellä optimoinnilla pyritään parantamaan prosessia ja lisäämään voimalaitoskonseptin kilpailukykyä energiamarkkinoilla. Tässä työssä optimoitiin lisäpoltolla varustettua, sähköteholtaan noin 125 MW:n maakaasukompivoimalaitosta. Työ on osa Fortum Engineering Oy:n konseptikehitysohjelmaa. Kaasuturbiinin savukaasun sisältämää happea voidaan hyödyntää lämmöntal-teenottokattilan savukaasukanavaan sijoitetussa lisäpoltossa. Lisäpoltolla saadaan nostettua savukaasun lämpötilaa ja lisättyä tuotetun tuorehöyryn määrää. Työssä tutkittiin lisäpolton kannattavuutta ja sen vaikutusta voimalaitoksen mitoitukseen. Lisäpolton lämpötila valitaan teknisten rajoitusten perusteella, jolloin siitä aiheutuvat investointikustannukset eivät nouse merkittäviksi. Optimointimenetelmä pohjautuu Fortum Oyj:ssä kehitetyllä voimalaitossimulaattori Solvolla laskettujen lämpötaseiden ja asiantuntija-arvioihin perustuvien investointikustannuskaavojen käyttöön. Taloudelliset lähtöarvot on valittu Itä-Euroopan markkinatilanteen mukaisiksi. Kannattavuuslaskelmat perustuvat nykyarvomenetelmään, jossa investointikustannuksille ja sähkön ja kaukolämmön myynnistä saaduille tuotoille lasketaan nykyarvo. Teknisten rajoitusten puitteissa suurimman nykyarvon antava tapaus on aina kunkin tutkittavan prosessisuureen optimitapaus. Tutkittavia prosessisuureita voivat olla esimerkiksi tuorehöyryn tila-arvot. Eräs työn tavoitteista oli selvittää lämmöntalteenottokattilan painetasojen optimaalinen lukumäärä. Lisäpoltto todettiin lämmitysvoimalaitoksella kannattavaksi ratkaisuksi kun nyt optimoitua laitosta verrattiin ilman lisäpolttoa mitoitettuun vastaavanlaiseen laitokseen. Kannattavuuslaskelmille tehtiin herkkyystarkastelut, joiden avulla tutkittiin mitoitetun konseptin herkkyyttä taloudellisten lähtöarvojen muutoksille. Herkkyysanalyysin avulla optimoitua voimalaitoskonseptia voidaan hyödyntää suuremmalla taloudellisten lähtöarvojen vaihteluvälillä.
Resumo:
We introduce a global optimization method based on the cooperation between an Artificial Neural Net (ANN) and Genetic Algorithm (GA). We have used ANN to select the initial population for the GA. We have tested the new method to predict the ground-state geometry of silicon clusters. We have described the clusters as a piling of plane structures. We have trained three ANN architectures and compared their results with those of pure GA. ANN strongly reduces the total computational time. For Si10, it gained a factor of 5 in search speed. This method can be easily extended to other optimization problems.
Resumo:
The amount of installed wind power has been growing exponentially during the past ten years. As wind turbines have become a significant source of electrical energy, the interactions between the turbines and the electric power network need to be studied more thoroughly than before. Especially, the behavior of the turbines in fault situations is of prime importance; simply disconnecting all wind turbines from the network during a voltage drop is no longer acceptable, since this would contribute to a total network collapse. These requirements have been a contributor to the increased role of simulations in the study and design of the electric drive train of a wind turbine. When planning a wind power investment, the selection of the site and the turbine are crucial for the economic feasibility of the installation. Economic feasibility, on the other hand, is the factor that determines whether or not investment in wind power will continue, contributing to green electricity production and reduction of emissions. In the selection of the installation site and the turbine (siting and site matching), the properties of the electric drive train of the planned turbine have so far been generally not been taken into account. Additionally, although the loss minimization of some of the individual components of the drive train has been studied, the drive train as a whole has received less attention. Furthermore, as a wind turbine will typically operate at a power level lower than the nominal most of the time, efficiency analysis in the nominal operating point is not sufficient. This doctoral dissertation attempts to combine the two aforementioned areas of interest by studying the applicability of time domain simulations in the analysis of the economicfeasibility of a wind turbine. The utilization of a general-purpose time domain simulator, otherwise applied to the study of network interactions and control systems, in the economic analysis of the wind energy conversion system is studied. The main benefits of the simulation-based method over traditional methods based on analytic calculation of losses include the ability to reuse and recombine existing models, the ability to analyze interactions between the components and subsystems in the electric drive train (something which is impossible when considering different subsystems as independent blocks, as is commonly done in theanalytical calculation of efficiencies), the ability to analyze in a rather straightforward manner the effect of selections other than physical components, for example control algorithms, and the ability to verify assumptions of the effects of a particular design change on the efficiency of the whole system. Based on the work, it can be concluded that differences between two configurations can be seen in the economic performance with only minor modifications to the simulation models used in the network interaction and control method study. This eliminates the need ofdeveloping analytic expressions for losses and enables the study of the system as a whole instead of modeling it as series connection of independent blocks with no lossinterdependencies. Three example cases (site matching, component selection, control principle selection) are provided to illustrate the usage of the approach and analyze its performance.
Resumo:
Tässä diplomityössä määritellään biopolttoainetta käyttävän voimalaitoksen käytönaikainen tuotannon optimointimenetelmä. Määrittelytyö liittyy MW Powerin MultiPower CHP –voimalaitoskonseptin jatkokehitysprojektiin. Erilaisten olemassa olevien optimointitapojen joukosta valitaan tarkoitukseen sopiva, laitosmalliin ja kustannusfunktioon perustuva menetelmä, jonka tulokset viedään automaatiojärjestelmään PID-säätimien asetusarvojen muodossa. Prosessin mittaustulosten avulla lasketaan laitoksen energia- ja massataseet, joiden tuloksia käytetään seuraavan optimointihetken lähtötietoina. Optimoinnin kohdefunktio on kustannusfunktio, jonka termit ovat voimalaitoksen käytöstä aiheutuvia tuottoja ja kustannuksia. Prosessia optimoidaan säätimille annetut raja-arvot huomioiden niin, että kokonaiskate maksimoituu. Kun laitokselle kertyy käyttöikää ja historiadataa, voidaan prosessin optimointia nopeuttaa hakemalla tilastollisesti historiadatasta nykytilanteen olosuhteita vastaava hetki. Kyseisen historian hetken katetta verrataan kustannusfunktion optimoinnista saatuun katteeseen. Paremman katteen antavan menetelmän laskemat asetusarvot otetaan käyttöön prosessin ohjausta varten. Mikäli kustannusfunktion laskenta eikä historiadatan perusteella tehty haku anna paranevaa katetta, niiden laskemia asetusarvoja ei oteta käyttöön. Sen sijaan optimia aletaan hakea deterministisellä optimointialgoritmilla, joka hakee nykyhetken ympäristöstä paremman katteen antavia säätimien asetusarvoja. Säätöjärjestelmä on mahdollista toteuttaa myös tulevaisuutta ennustavana. Työn käytännön osuudessa voimalaitosmalli luodaan kahden eri mallinnusohjelman avulla, joista toisella kuvataan kattilan ja toisella voimalaitosprosessin toimintaa. Mallinnuksen tuloksena saatuja prosessiarvoja hyödynnetään lähtötietoina käyttökatteen laskennassa. Kate lasketaan kustannusfunktion perusteella. Tuotoista suurimmat liittyvät sähkön ja lämmön myyntiin sekä tuotantotukeen, ja suurimmat kustannukset liittyvät investoinnin takaisinmaksuun ja polttoaineen ostoon. Kustannusfunktiolle tehdään herkkyystarkastelu, jossa seurataan katteen muutosta prosessin teknisiä arvoja muutettaessa. Tuloksia vertaillaan referenssivoimalaitoksella suoritettujen verifiointimittausten tuloksiin, ja havaitaan, että tulokset eivät ole täysin yhteneviä. Erot johtuvat sekä mallinnuksen puutteista että mittausten lyhyehköistä tarkasteluajoista. Automatisoidun optimointijärjestelmän käytännön toteutusta alustetaan määrittelemällä käyttöön otettava optimointitapa, siihen liittyvät säätöpiirit ja tarvittavat lähtötiedot. Projektia tullaan jatkamaan järjestelmän ohjelmoinnilla, testauksella ja virityksellä todellisessa voimalaitosympäristössä ja myöhemmin ennustavan säädön toteuttamisella.
Resumo:
Tämä Pro gradu–työ on käytännönläheinen sijoittajalähtöinen tutkimus varallisuudenhoidosta indeksiosuusrahastoilla. Tavoitteena on selvittää indeksiosuusrahastojen olemusta, niiden hyötyjä sekä mahdollisia haittapuolia. Toisena tavoitteena on rakentaa indeksiosuusrahastoista aikaisemman tutkimuksen pohjalta mallisalkku. Kolmantena tavoitteena on luoda Excelin portfolio-optimoinnilla salkku, jossa tutkitaan indeksiosuusrahastojen suoriutumista markkinoilla. Tämä optimointimetodi on rakennettu Mika Vaihekosken (2002) mukaan. Tutkimusmenetelmänä on empiirinen tutkimus. Tarkastelen aihetta pääosin liiketaloustieteellisestä näkökulmasta. Tutkimuksessa käytetään myös paljon rahoitusmarkkinalähtöistä näkökulmaa. Tutkimusaineisto koostuu kolmestakymmenestäneljästä Yhdysvaltain markkinoiden osake-, joukkovelkakirja- sekä raaka-aineindeksiosuusrahastosta. Aineisto on vuosilta 2006 – 2011 sisältäen 34x69 havaintoa. Portfolio-optimoinnissa käytetään neljää hyperbola-kerrointa. Empiiristen tutkimustulosten mukaan indeksiosuusrahastojen menneisyyden hyvät tuotot ennustaisivat hyvin tulevaisuuden hyviä tuottoja ainakin tämän tutkimuksen aikavälillä tammikuusta 2006 syyskuuhun 2011. Valinta-aikavälin 2006 – 2008 aineistosta muodostettu tangenttiportfolio menestyi suhteellisen hyvin hallussapitoaikavälillä 2009 – 2011. Tangenttiportfolio osoittautui ainakin tässä tutkielmassa käyttökelpoiseksi työkaluksi indeksiosuusrahastojen varallisuudenhallinnassa.
Resumo:
Factors involved in the determination of PAHs (16 priority PAHs as an example) and PCBs (10 PCB congeners, representing 10 isomeric groups) by capillary gas chromatography coupled with mass spectrometry (GC/MS, for PAHs) and electron capture detection (GC/ECD , for PCBs) were studied, with emphasis on the effect of solvent. Having various volatilities and different polarities, solvent studied included dichloromethane, acetonitrile, hexan e, cyclohexane, isooctane, octane, nonane, dodecane, benzene, toluene, p-xylene, o-xylene, and mesitylene. Temperatures of the capillary column, the injection port, the GC/MS interface, the flow rates of carrier gas and make-up gas, and the injection volume were optimized by one factor at a time method or simplex optimization method. Under the optimized conditions, both peak height and peak area of 16 PAHs, especially the late-eluting PAHs, were significantly enhanced (1 to 500 times) by using relatively higher boiling point solvents such as p-xylene and nonane, compared with commonly used solvents like benzene and isooctane. With the improved sensitivity, detection limits of between 4.4 pg for naphthalene and 30.8 pg for benzo[g,h,i]perylene were obtained when p-xylene was used as an injection solvent. Effect of solvent on peak shape and peak intensity were found to be greatly dependent on temperature parameters, especially the initial temperature of the capillary column. The relationship between initial temperature and shape of peaks from 16 PAHs and 10 PCBs were studied and compared when toluene, p-xylene, isooctane, and nonane were used as injection solvents. If a too low initial temperature was used, fronting or split of peaks was observed. On the other hand, peak tailing occurred at a too high initial column temperature. The optimum initial temperature, at which both peak fronting and tailing were avoided and symmetrical peaks were obtained, depended on both solvents and the stationary phase of the column used. On a methyl silicone column, the alkane solvents provided wider optimum ranges of initial temperature than aromatic solvents did, for achieving well-shaped symmetrical GC peaks. On a 5% diphenyl: 1% vinyl: 94% dimethyl polysiloxane column, when the aromatic solvents were used, the optimum initial temperature ranges for solutes to form symmetrical peaks were improved to a similar degree as those when the alkanes were used as injection solvents. A mechanism, based on the properties of and possible interactions among the analyte, the injection solvent, and the stationary phase of the capillary column, was proposed to explain these observations. The effect of initial temperature on peak height and peak area of the 16 PAHs and the 10 PCBs was also studied. The optimum initial temperature was found to be dependent on the physical properties of the solvent used and the amount of the solvent injected. Generally, from the boiling point of the solvent to 10 0C above its boiling point was an optimum range of initial temperature at which cthe highest peak height and peak area were obtained.
Resumo:
On retrouve dans la nature un nombre impressionnant de matériaux semi-transparents tels le marbre, le jade ou la peau, ainsi que plusieurs liquides comme le lait ou les jus. Que ce soit pour le domaine cinématographique ou le divertissement interactif, l'intérêt d'obtenir une image de synthèse de ce type de matériau demeure toujours très important. Bien que plusieurs méthodes arrivent à simuler la diffusion de la lumière de manière convaincante a l'intérieur de matériaux semi-transparents, peu d'entre elles y arrivent de manière interactive. Ce mémoire présente une nouvelle méthode de diffusion de la lumière à l'intérieur d'objets semi-transparents hétérogènes en temps réel. Le coeur de la méthode repose sur une discrétisation du modèle géométrique sous forme de voxels, ceux-ci étant utilisés comme simplification du domaine de diffusion. Notre technique repose sur la résolution de l'équation de diffusion à l'aide de méthodes itératives permettant d'obtenir une simulation rapide et efficace. Notre méthode se démarque principalement par son exécution complètement dynamique ne nécessitant aucun pré-calcul et permettant une déformation complète de la géométrie.
Resumo:
La liste des domaines touchés par l’apprentissage machine s’allonge rapidement. Au fur et à mesure que la quantité de données disponibles augmente, le développement d’algorithmes d’apprentissage de plus en plus puissants est crucial. Ce mémoire est constitué de trois parties: d’abord un survol des concepts de bases de l’apprentissage automatique et les détails nécessaires pour l’entraînement de réseaux de neurones, modèles qui se livrent bien à des architectures profondes. Ensuite, le premier article présente une application de l’apprentissage machine aux jeux vidéos, puis une méthode de mesure performance pour ceux-ci en tant que politique de décision. Finalement, le deuxième article présente des résultats théoriques concernant l’entraînement d’architectures profondes nonsupervisées. Les jeux vidéos sont un domaine particulièrement fertile pour l’apprentissage automatique: il estf facile d’accumuler d’importantes quantités de données, et les applications ne manquent pas. La formation d’équipes selon un critère donné est une tˆache commune pour les jeux en lignes. Le premier article compare différents algorithmes d’apprentissage à des réseaux de neurones profonds appliqués à la prédiction de la balance d’un match. Ensuite nous présentons une méthode par simulation pour évaluer les modèles ainsi obtenus utilisés dans le cadre d’une politique de décision en ligne. Dans un deuxième temps nous présentons une nouvelleméthode pour entraîner des modèles génératifs. Des résultats théoriques nous indiquent qu’il est possible d’entraîner par rétropropagation des modèles non-supervisés pouvant générer des échantillons qui suivent la distribution des données. Ceci est un résultat pertinent dans le cadre de la récente littérature scientifique investiguant les propriétés des autoencodeurs comme modèles génératifs. Ces résultats sont supportés avec des expériences qualitatives préliminaires ainsi que quelques résultats quantitatifs.
Resumo:
Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.
Resumo:
Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.
Resumo:
A greedy technique is proposed to construct parsimonious kernel classifiers using the orthogonal forward selection method and boosting based on Fisher ratio for class separability measure. Unlike most kernel classification methods, which restrict kernel means to the training input data and use a fixed common variance for all the kernel terms, the proposed technique can tune both the mean vector and diagonal covariance matrix of individual kernel by incrementally maximizing Fisher ratio for class separability measure. An efficient weighted optimization method is developed based on boosting to append kernels one by one in an orthogonal forward selection procedure. Experimental results obtained using this construction technique demonstrate that it offers a viable alternative to the existing state-of-the-art kernel modeling methods for constructing sparse Gaussian radial basis function network classifiers. that generalize well.
Resumo:
Many key economic and financial series are bounded either by construction or through policy controls. Conventional unit root tests are potentially unreliable in the presence of bounds, since they tend to over-reject the null hypothesis of a unit root, even asymptotically. So far, very little work has been undertaken to develop unit root tests which can be applied to bounded time series. In this paper we address this gap in the literature by proposing unit root tests which are valid in the presence of bounds. We present new augmented Dickey–Fuller type tests as well as new versions of the modified ‘M’ tests developed by Ng and Perron [Ng, S., Perron, P., 2001. LAG length selection and the construction of unit root tests with good size and power. Econometrica 69, 1519–1554] and demonstrate how these tests, combined with a simulation-based method to retrieve the relevant critical values, make it possible to control size asymptotically. A Monte Carlo study suggests that the proposed tests perform well in finite samples. Moreover, the tests outperform the Phillips–Perron type tests originally proposed in Cavaliere [Cavaliere, G., 2005. Limited time series with a unit root. Econometric Theory 21, 907–945]. An illustrative application to U.S. interest rate data is provided
Resumo:
This paper is concerned with tensor clustering with the assistance of dimensionality reduction approaches. A class of formulation for tensor clustering is introduced based on tensor Tucker decomposition models. In this formulation, an extra tensor mode is formed by a collection of tensors of the same dimensions and then used to assist a Tucker decomposition in order to achieve data dimensionality reduction. We design two types of clustering models for the tensors: PCA Tensor Clustering model and Non-negative Tensor Clustering model, by utilizing different regularizations. The tensor clustering can thus be solved by the optimization method based on the alternative coordinate scheme. Interestingly, our experiments show that the proposed models yield comparable or even better performance compared to most recent clustering algorithms based on matrix factorization.
Resumo:
Evidence of jet precession in many galactic and extragalactic sources has been reported in the literature. Much of this evidence is based on studies of the kinematics of the jet knots, which depends on the correct identification of the components to determine their respective proper motions and position angles on the plane of the sky. Identification problems related to fitting procedures, as well as observations poorly sampled in time, may influence the follow-up of the components in time, which consequently might contribute to a misinterpretation of the data. In order to deal with these limitations, we introduce a very powerful statistical tool to analyse jet precession: the cross-entropy method for continuous multi-extremal optimization. Only based on the raw data of the jet components (right ascension and declination offsets from the core), the cross-entropy method searches for the precession model parameters that better represent the data. In this work we present a large number of tests to validate this technique, using synthetic precessing jets built from a given set of precession parameters. With the aim of recovering these parameters, we applied the cross-entropy method to our precession model, varying exhaustively the quantities associated with the method. Our results have shown that even in the most challenging tests, the cross-entropy method was able to find the correct parameters within a 1 per cent level. Even for a non-precessing jet, our optimization method could point out successfully the lack of precession.