39 resultados para Successive Overrelaxation method with 2 parameters
em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland
Resumo:
Theultimate goal of any research in the mechanism/kinematic/design area may be called predictive design, ie the optimisation of mechanism proportions in the design stage without requiring extensive life and wear testing. This is an ambitious goal and can be realised through development and refinement of numerical (computational) technology in order to facilitate the design analysis and optimisation of complex mechanisms, mechanical components and systems. As a part of the systematic design methodology this thesis concentrates on kinematic synthesis (kinematic design and analysis) methods in the mechanism synthesis process. The main task of kinematic design is to find all possible solutions in the form of structural parameters to accomplish the desired requirements of motion. Main formulations of kinematic design can be broadly divided to exact synthesis and approximate synthesis formulations. The exact synthesis formulation is based in solving n linear or nonlinear equations in n variables and the solutions for the problem areget by adopting closed form classical or modern algebraic solution methods or using numerical solution methods based on the polynomial continuation or homotopy. The approximate synthesis formulations is based on minimising the approximation error by direct optimisation The main drawbacks of exact synthesis formulationare: (ia) limitations of number of design specifications and (iia) failure in handling design constraints- especially inequality constraints. The main drawbacks of approximate synthesis formulations are: (ib) it is difficult to choose a proper initial linkage and (iib) it is hard to find more than one solution. Recentformulations in solving the approximate synthesis problem adopts polynomial continuation providing several solutions, but it can not handle inequality const-raints. Based on the practical design needs the mixed exact-approximate position synthesis with two exact and an unlimited number of approximate positions has also been developed. The solutions space is presented as a ground pivot map but thepole between the exact positions cannot be selected as a ground pivot. In this thesis the exact synthesis problem of planar mechanism is solved by generating all possible solutions for the optimisation process ¿ including solutions in positive dimensional solution sets - within inequality constraints of structural parameters. Through the literature research it is first shown that the algebraic and numerical solution methods ¿ used in the research area of computational kinematics ¿ are capable of solving non-parametric algebraic systems of n equations inn variables and cannot handle the singularities associated with positive-dimensional solution sets. In this thesis the problem of positive-dimensional solutionsets is solved adopting the main principles from mathematical research area of algebraic geometry in solving parametric ( in the mathematical sense that all parameter values are considered ¿ including the degenerate cases ¿ for which the system is solvable ) algebraic systems of n equations and at least n+1 variables.Adopting the developed solution method in solving the dyadic equations in direct polynomial form in two- to three-precision-points it has been algebraically proved and numerically demonstrated that the map of the ground pivots is ambiguousand that the singularities associated with positive-dimensional solution sets can be solved. The positive-dimensional solution sets associated with the poles might contain physically meaningful solutions in the form of optimal defectfree mechanisms. Traditionally the mechanism optimisation of hydraulically driven boommechanisms is done at early state of the design process. This will result in optimal component design rather than optimal system level design. Modern mechanismoptimisation at system level demands integration of kinematic design methods with mechanical system simulation techniques. In this thesis a new kinematic design method for hydraulically driven boom mechanism is developed and integrated in mechanical system simulation techniques. The developed kinematic design method is based on the combinations of two-precision-point formulation and on optimisation ( with mathematical programming techniques or adopting optimisation methods based on probability and statistics ) of substructures using calculated criteria from the system level response of multidegree-of-freedom mechanisms. Eg. by adopting the mixed exact-approximate position synthesis in direct optimisation (using mathematical programming techniques) with two exact positions and an unlimitednumber of approximate positions the drawbacks of (ia)-(iib) has been cancelled.The design principles of the developed method are based on the design-tree -approach of the mechanical systems and the design method ¿ in principle ¿ is capable of capturing the interrelationship between kinematic and dynamic synthesis simultaneously when the developed kinematic design method is integrated with the mechanical system simulation techniques.
Resumo:
Chlorambucil is an anticancer agent used in the treatment of a variety of cancers, especially in chronic lymphocytic leukemia, and autoimmune diseases. Nevertheless, chlorambucil is potentially mutagenic, teratogenic and carcinogenic. The high antitumor activity and high toxicity of chlorambucil and its main metabolite, phenylacetic acid mustard, to normal tissues have been known for a long time. Despite this, no detailed chemical data on their reactions with biomolecules in aqueous media have been available. The aim of the work described in this thesis was to analyze reactions of chlorambucil with 2’-deoxyribonucleosides and calf thymus DNA in aqueous buffered solution, at physiological pH, and to identify and characterize all adducts by using modern analyzing methods. Our research was also focused on the reactions of phenylacetic acid mustard with 2’-deoxynucleosides under similar conditions. A review of the literature consisting of general background of nucleic acids, alkylating agents and ultraviolet spectroscopy used to identify the purine and pyrimidine nucleosides, as well as the results from experimental work are presented and discussed in this doctoral thesis.
Resumo:
Teollisuuden tuotannon eri prosessien optimointi on hyvin ajankohtainen aihe. Monet ohjausjärjestelmät ovat ajalta, jolloin tietokoneiden laskentateho oli hyvin vaatimaton nykyisiin verrattuna. Työssä esitetään tuotantoprosessi, joka sisältää teräksen leikkaussuunnitelman muodostamisongelman. Valuprosessi on yksi teräksen valmistuksen välivaiheita. Siinä sopivaan laatuun saatettu sula teräs valetaan linjastoon, jossa se jähmettyy ja leikataan aihioiksi. Myöhemmissä vaiheissa teräsaihioista muokataan pienempiä kokonaisuuksia, tehtaan lopputuotteita. Jatkuvavaletut aihiot voidaan leikata tilauskannasta riippuen monella eri tavalla. Tätä varten tarvitaan leikkaussuunnitelma, jonka muodostamiseksi on ratkaistava sekalukuoptimointiongelma. Sekalukuoptimointiongelmat ovat optimoinnin haastavin muoto. Niitä on tutkittu yksinkertaisempiin optimointiongelmiin nähden vähän. Nykyisten tietokoneiden laskentateho on kuitenkin mahdollistanut raskaampien ja monimutkaisempien optimointialgoritmien käytön ja kehittämisen. Työssä on käytetty ja esitetty eräs stokastisen optimoinnin menetelmä, differentiaalievoluutioalgoritmi. Tässä työssä esitetään teräksen leikkausoptimointialgoritmi. Kehitetty optimointimenetelmä toimii dynaamisesti tehdasympäristössä käyttäjien määrittelemien parametrien mukaisesti. Työ on osa Syncron Tech Oy:n Ovako Bar Oy Ab:lle toimittamaa ohjausjärjestelmää.
Resumo:
Tässä diplomityössä tutkitaan, miten verkkokaupan kävijävirran käyttäytymistä analysoimalla voidaan tehdä perusteltuja, tarkoituksenmukaisiin nimikkeisiin ja niiden parametreihin kohdistuvia päätöksiä tilanteessa, jossa laajamittaisemmat historiatiedot toteutuneesta myynnistä puuttuvat. Teoriakatsauksen perusteella muodostettiin ratkaisumalli, joka perustuu potentiaalisten kysyntäajurien muodostamiseen ja testaamiseen. Testisarjan perusteella valittavaa ajuria käytetään estimoimaan nimikkeiden kysyntää, jolloin sitä voidaan käyttää toteutuneen myynnin sijasta esimerkiksi Pareto-analyysissä. Näin huomio on mahdollista keskittää rajattuun määrään merkitykseltään suuria nimikkeitä ja niiden yksityiskohtaisiin parametreihin, joilla on merkitystä asiakkaan ostopäätöstilanteissa. Lisäksi voidaan tunnistaa nimikkeitä, joiden ongelmana on joko huono verkkonäkyvyys tai yhteensopimattomuus asiakastarpeiden kanssa. Ajurien testaamisperiaatteena käytetään kertymäfunktioiden yhdenmukaisuustarkastelua, joka rakentuu kolmesta peräkkäisestä vaiheesta; visuaalisesta tarkastelusta, kahden otoksen 2-suuntaisesta Kolmogorov-Smirnov-yhteensopivuustestistä ja Pearsonin korrelaatiotestistä. Mallia ja sen avulla tuotettua kysynnän ajuria testattiin veneilyalan kuluttaja-asiakkaille suunnatussa verkkokaupassa, jossa sillä tunnistettiin Pareto-jakauman alkupäästä runsaasti nimikkeitä, joiden parametreissa oli myynnin kannalta epäedullisia tekijöitä. Jakauman toisessa päässä tunnistettiin satoja nimikkeitä, joiden ongelmana on ilmeisesti joko huono verkkonäkyvyys tai nimikkeiden yhteensopimattomuus asiakastarpeiden kanssa.
Resumo:
The objective of this thesis is to develop and generalize further the differential evolution based data classification method. For many years, evolutionary algorithms have been successfully applied to many classification tasks. Evolution algorithms are population based, stochastic search algorithms that mimic natural selection and genetics. Differential evolution is an evolutionary algorithm that has gained popularity because of its simplicity and good observed performance. In this thesis a differential evolution classifier with pool of distances is proposed, demonstrated and initially evaluated. The differential evolution classifier is a nearest prototype vector based classifier that applies a global optimization algorithm, differential evolution, to determine the optimal values for all free parameters of the classifier model during the training phase of the classifier. The differential evolution classifier applies the individually optimized distance measure for each new data set to be classified is generalized to cover a pool of distances. Instead of optimizing a single distance measure for the given data set, the selection of the optimal distance measure from a predefined pool of alternative measures is attempted systematically and automatically. Furthermore, instead of only selecting the optimal distance measure from a set of alternatives, an attempt is made to optimize the values of the possible control parameters related with the selected distance measure. Specifically, a pool of alternative distance measures is first created and then the differential evolution algorithm is applied to select the optimal distance measure that yields the highest classification accuracy with the current data. After determining the optimal distance measures for the given data set together with their optimal parameters, all determined distance measures are aggregated to form a single total distance measure. The total distance measure is applied to the final classification decisions. The actual classification process is still based on the nearest prototype vector principle; a sample belongs to the class represented by the nearest prototype vector when measured with the optimized total distance measure. During the training process the differential evolution algorithm determines the optimal class vectors, selects optimal distance metrics, and determines the optimal values for the free parameters of each selected distance measure. The results obtained with the above method confirm that the choice of distance measure is one of the most crucial factors for obtaining higher classification accuracy. The results also demonstrate that it is possible to build a classifier that is able to select the optimal distance measure for the given data set automatically and systematically. After finding optimal distance measures together with optimal parameters from the particular distance measure results are then aggregated to form a total distance, which will be used to form the deviation between the class vectors and samples and thus classify the samples. This thesis also discusses two types of aggregation operators, namely, ordered weighted averaging (OWA) based multi-distances and generalized ordered weighted averaging (GOWA). These aggregation operators were applied in this work to the aggregation of the normalized distance values. The results demonstrate that a proper combination of aggregation operator and weight generation scheme play an important role in obtaining good classification accuracy. The main outcomes of the work are the six new generalized versions of previous method called differential evolution classifier. All these DE classifier demonstrated good results in the classification tasks.
Resumo:
Energy efficiency is an important topic when considering electric motor drives market. Although more efficient electric motor types are available, the induction motor remains as the most common industrial motor type. IEC methods for determining losses and efficiency of converter-fed induction motors were introduced recently with the release of technical specification IEC/TS 60034-2-3. Determining the induction motor losses with IEC/TS 60034-2-3 method 2-3-A and assessing the practical applicability of the method are the main interests of this study. The method 2-3-A introduces a specific test converter waveform to be used in the measurements. Differences between the induction motor losses with a test converter supply, and with a DTC converter supply are investigated. In the IEC methods, the tests are run at motor rated fundamental voltage, which, in practice, requires the frequency converter to be fed with a risen input voltage. In this study, the tests are run on both frequency converters with artificially risen converter input voltage, resulting in rated motor fundamental input voltage as required by IEC. For comparison, the tests are run with both converters on normal grid input voltage supply, which results in lower motor fundamental voltage and reduced flux level, but should be more relevant from practical point of view. According to IEC method 2-3-A, tests are run at rated motor load, and to ensure comparability of the results, the rated load is used in the grid-fed converter measurements, although motor is overloaded while producing the rated torque at reduced flux level. The IEC 2-3-A method requires also sinusoidal supply test results with IEC method 2-1-1B. Therefore, the induction motor losses with the recently updated IEC 60034-2-1 method 2-1-1B are determined at the motor rated voltage, but also at two lower motor voltages, which are according to the output fundamental voltages of the two network-supplied converters. The method 2-3-A was found to be complex to apply but the results were stable. According to the results, the method 2-3-A and the test converter supply are usable for comparing losses and efficiency of different induction motors at the operating point of rated voltage, rated frequency and rated load, but the measurements do not give any prediction of the motor losses at final application. One might therefore strongly criticize the method’s main principles. It seems, that the release of IEC 60034-2-3 as a technical specification instead of a final standard for now was justified, since the practical relevance of the main method is questionable.
Resumo:
This thesis concerns the analysis of epidemic models. We adopt the Bayesian paradigm and develop suitable Markov Chain Monte Carlo (MCMC) algorithms. This is done by considering an Ebola outbreak in the Democratic Republic of Congo, former Zaïre, 1995 as a case of SEIR epidemic models. We model the Ebola epidemic deterministically using ODEs and stochastically through SDEs to take into account a possible bias in each compartment. Since the model has unknown parameters, we use different methods to estimate them such as least squares, maximum likelihood and MCMC. The motivation behind choosing MCMC over other existing methods in this thesis is that it has the ability to tackle complicated nonlinear problems with large number of parameters. First, in a deterministic Ebola model, we compute the likelihood function by sum of square of residuals method and estimate parameters using the LSQ and MCMC methods. We sample parameters and then use them to calculate the basic reproduction number and to study the disease-free equilibrium. From the sampled chain from the posterior, we test the convergence diagnostic and confirm the viability of the model. The results show that the Ebola model fits the observed onset data with high precision, and all the unknown model parameters are well identified. Second, we convert the ODE model into a SDE Ebola model. We compute the likelihood function using extended Kalman filter (EKF) and estimate parameters again. The motivation of using the SDE formulation here is to consider the impact of modelling errors. Moreover, the EKF approach allows us to formulate a filtered likelihood for the parameters of such a stochastic model. We use the MCMC procedure to attain the posterior distributions of the parameters of the SDE Ebola model drift and diffusion parts. In this thesis, we analyse two cases: (1) the model error covariance matrix of the dynamic noise is close to zero , i.e. only small stochasticity added into the model. The results are then similar to the ones got from deterministic Ebola model, even if methods of computing the likelihood function are different (2) the model error covariance matrix is different from zero, i.e. a considerable stochasticity is introduced into the Ebola model. This accounts for the situation where we would know that the model is not exact. As a results, we obtain parameter posteriors with larger variances. Consequently, the model predictions then show larger uncertainties, in accordance with the assumption of an incomplete model.
Resumo:
Diplomityön tavoitteena oli tehostaa venttiilipesien koneistuksessa käytettävän monitoimipystysorvin NC - ohjelmointia CAM - ohjelman käyttöönotolla. Tutkimus on osa laajempaa kokonaisuutta liittyen koneistusalihankinnan kehittämiseen ja yrityksen kilpailukyvyn ylläpitoon ja parantamiseen liiketoiminta-alueella, jolla on tällä hetkellä hyvät kasvunäkymät. Tavoite rajattiin yritykseen jo aiemmin hankitun WinCAM - ohjelman päivittämiseen ja hyödyntämiseen monitoimipystysorvin NC - ohjelmoinnissa. Tutkimuksen käytännön tavoitteena oli selvittää CAM - ohjelmoinnin käyttömahdollisuudet, sekä luoda CAM - ohjelmistoon pohjautuva, räätälöity NC - ohjelmointikonsepti pilottikohteeseen. Tutkimuksen kokeellisen osuuden muodostivat tällöin nykyisen tuotannon ongelmakohtien löytäminen, koneen ohjelmointitarpeiden kartoitus,sekä menetelmäkehitys. Tutkimuksen päämääränä oli tuotannon tasolla käytettävä järjestelmä, jolla koneen ohjelmointi olisi mahdollista myös vähemmällä konekohtaisella kokemuksella. Nykyisen toimintatavan ongelmina olivat yhtenäisen NC - ohjelmointikäytännön puute, niin valmiiden ohjelmien käytössä kuin uusienkin ohjelmien tekemisessä. Tähän olivat syynä NC - ohjauksen heikko käytettävyys erityisesti sorvauksen osalta. Nämä tekijät yhdistettynä monitoimityöstökoneessa tarvittavaan koordinaatiston hallintaan vaikeuttivat ohjelmointia. Työntekijäkohtaiset erot NC - ohjelmien käytössä, sekä laadultaan vaihtelevat valuaihiot aiheuttivat tuotannon läpäisyaikaan merkittävää vaihtelua. Siten myös koneen kuormituksen säätely oli vaikeaa. Uuden ohjelmointikonseptin toteutuksessa pidettiin etusijalla hyvää käytettävyyttä, sekä uuden menetelmän aukotonta liittymistä olemassa oleviin tuotantojärjestelmiin. Ohjelmointikonseptin toteutuksessa, osaperheestä haettiin selkeästi parametroitaviksi soveltuvat työvaiheet, jotka voitiin hallita yleiskäyttöisillä aliohjelmilla. Tuotteiden muidengeometrioiden hallintaan laadittiin geometriakirjasto, jota voitiin käyttää tavanomaisen graafisen ohjelmoinnin pohjana. Vanhaa toimintatapaa ja diplomityön aikana kehitettyä CAM - ohjelmointijärjestelmää vertailtiin perustuen NC - ohjelmien tehokkuuteen, jota tarkasteltiin saman työvaiheen työstöaikaan perustuen. Tämän lisäksi tärkeän tuloksen muodostavat myös kvalitatiivisetseikat, jotka liittyvät ohjelmointiympäristön käytettävyyteen. CAM - ohjelmoinnin kehittäminen ja käyttöönotto pilottikohteessa sujui pääosin hyvin ja laaditunsuunnitelman mukaisesti. Aiemmin hankalasti ohjelmoitavat työvaiheet, kuten erilaisten laippatasopintojen ja reikäpiirien ohjelmointi muutettiin makrokäyttöön soveltuviksi. Sorvauksessa ongelmia aiheuttaneen tiivistelilan koneistukseen sovellettiin graafista ohjelmointia. Koko tuotannon mittakaavassa NC - ohjelmoinninosuus oli kuitenkin vähäinen, mistä johtuen koneen tuottavuuteen ei tutkimuksenajanjaksolla voitu vaikuttaa. Sen sijaan tuotannon sujuvuuteen oleellisesti vaikuttavaa työtekijöiden 'hiljaisen tiedon' määrää voitiin vähentää vakioimalla ohjelmointia ja siirtämällä tehokkaiksi havaitut menetelmät ohjelmointijärjestelmään.
Resumo:
Valssilangan valmistuksessa päättymättömällä valssausprosessilla voidaan parantaa tuotannon tuottavuutta ja joustavuutta. Menetelmän ansiosta myös valssilankakieppien kokoa voidaan vaihdella asiakkaan tarpeiden mukaan. Prosessin joustavuus ja tuottavuus perustuvat liikkuvaan leimuhitsauslaitteistoon, jolla austeniittialueelle kuumennetut teelmät hitsataan toisiinsa ennen valssausta. Koska leimuhitsausliitoksen hyvä laatu on valmistusprosessin kannalta erityisen tärkeää, tutkittiin tässä työssä hitsausparametrien vaikutusta liitoksen laatuun. Hitsausparametreista tärkeimpiä ovat leimutusaika ja -jännite sekä tyssäyksen voima ja määrä. Parametrien ollessa liian suuria muodostuvat liitospinnat liian plastisiksi ja sopivan tyssäysvoiman ylläpitäminen on vaikeaa. Liian pienillä parametreilla liitospintojen plastisoituminen jää kesken ja tyssäys jää puutteelliseksi. Leimuhitsauksen laatuun vaikuttaa myös liitospinta-alan koko. Kaikki nämä tekijät heikentävät liitoksia, joten parametrien optimaalisuus on liitoksen hyvän laadun kannalta välttämätön. Parametrikokeina hitsattujen koekappaleiden rakennetta ja ominaisuuksiatutkittiin ainetta rikkovilla kokeilla. Lyhyemmillä leimutusajoilla hitsatuistakoekappaleista löytyi virheitä, jotka heikensivät huomattavasti liitoksien laatua. Menetelmäkokeiden perusteella koekappaleet eivät kaikilta osin täyttäneet liitosten laatuvaatimuksia.
Resumo:
Paperin pinnan karheus on yksi paperin laatukriteereistä. Sitä mitataan fyysisestipaperin pintaa mittaavien laitteiden ja optisten laitteiden avulla. Mittaukset vaativat laboratorioolosuhteita, mutta nopeammille, suoraan linjalla tapahtuville mittauksilla olisi tarvetta paperiteollisuudessa. Paperin pinnan karheus voidaan ilmaista yhtenä näytteelle kohdistuvana karheusarvona. Tässä työssä näyte on jaettu merkitseviin alueisiin, ja jokaiselle alueelle on laskettu erillinen karheusarvo. Karheuden mittaukseen on käytetty useita menetelmiä. Yleisesti hyväksyttyä tilastollista menetelmää on käytetty tässä työssä etäisyysmuunnoksen lisäksi. Paperin pinnan karheudenmittauksessa on ollut tarvetta jakaa analysoitava näyte karheuden perusteella alueisiin. Aluejaon avulla voidaan rajata näytteestä selvästi karheampana esiintyvät alueet. Etäisyysmuunnos tuottaa alueita, joita on analysoitu. Näistä alueista on muodostettu yhtenäisiä alueita erilaisilla segmentointimenetelmillä. PNN -menetelmään (Pairwise Nearest Neighbor) ja naapurialueiden yhdistämiseen perustuvia algoritmeja on käytetty.Alueiden jakamiseen ja yhdistämiseen perustuvaa lähestymistapaa on myös tarkasteltu. Segmentoitujen kuvien validointi on yleensä tapahtunut ihmisen tarkastelemana. Tämän työn lähestymistapa on verrata yleisesti hyväksyttyä tilastollista menetelmää segmentoinnin tuloksiin. Korkea korrelaatio näiden tulosten välillä osoittaa onnistunutta segmentointia. Eri kokeiden tuloksia on verrattu keskenään hypoteesin testauksella. Työssä on analysoitu kahta näytesarjaa, joidenmittaukset on suoritettu OptiTopolla ja profilometrillä. Etäisyysmuunnoksen aloitusparametrit, joita muutettiin kokeiden aikana, olivat aloituspisteiden määrä ja sijainti. Samat parametrimuutokset tehtiin kaikille algoritmeille, joita käytettiin alueiden yhdistämiseen. Etäisyysmuunnoksen jälkeen korrelaatio oli voimakkaampaa profilometrillä mitatuille näytteille kuin OptiTopolla mitatuille näytteille. Segmentoiduilla OptiTopo -näytteillä korrelaatio parantui voimakkaammin kuin profilometrinäytteillä. PNN -menetelmän tuottamilla tuloksilla korrelaatio oli paras.
Resumo:
Uusi EPR-reaktorikonsepti on suunniteltu selviytymään tapauksista, joissa reaktorinsydän sulaa ja sula puhkaisee paineastian. Suojarakennuksen sisälle on suunniteltu alue, jolle sula passiivisesti kerätään, pidätetään ja jäähdytetään. Alueelle laaditaan valurautaelementeistä ns.sydänsieppari, joka tulvitetaan vedellä. Sydänsulan tuottama jälkilämpö siirtyyveteen, mistä se poistetaan suojarakennuksen jälkilämmönpoistojärjestelmän kautta. Suuri osa lämmöstä poistuu sydänsulasta sen yläpuolella olevaan veteen, mutta lämmönsiirron tehostamiseksi myös sydänsiepparin alapuolelle on sijoitettu vedellä täytettävät jäähdytyskanavat. Jotta sydänsiepparin toiminta voitaisiin todentaa, on Lappeenrannan Teknillisellä Yliopistolla rakennettu Volley-koelaitteisto tätä tarkoitusta varten. Koelaitteisto koostuu kahdesta täysimittaisesta valuraudasta tehdystä jäähdytyskanavasta. Sydänsulan tuottamaa jälkilämpöä simuloidaan koelaitteistossa sähkövastuksilla. Tässä työssä kuvataan simulaatioiden suorittaminen ja vertaillaan saatuja arvoja mittaustuloksiin. Työ keskittyy sydänsiepparista jäähdytyskanaviin tapahtuvan lämmönsiirron teoriaan jamekanismeihin. Työssä esitetään kolme erilaista korrelaatiota lämmönsiirtokertoimille allaskiehumisen tapauksessa. Nämä korrelaatiot soveltuvat erityisesti tapauksiin, joissa vain muutamia mittausparametreja on tiedossa. Työn toinen osa onVolley 04 -kokeiden simulointi. Ensin käytettyä simulointitapaa on kelpoistettuvertaamalla tuloksia Volley 04 ja 05 -kokeisiin, joissa koetta voitiin jatkaa tasapainotilaan ja joissa jäähdytteen käyttäytyminen jäähdytyskanavassa on tallennettu myös videokameralla. Näiden simulaatioiden tulokset ovat hyvin samanlaisiakuin mittaustulokset. Korkeammilla lämmitystehoilla kokeissa esiintyi vesi-iskuja, jotka rikkoivat videoinnin mahdollistavia ikkunoita. Tämän johdosta osassa Volley 04 -kokeita ikkunat peitettiin metallilevyillä. Joitakin kokeita jouduttiin keskeyttämään laitteiston suurten lämpöjännitysten johdosta. Tällaisten testien simulaatiot eivät ole yksinkertaisia suorittaa. Veden pinnan korkeudesta ei ole visuaalista havaintoa. Myöskään jäähdytteen tasapainotilanlämpötiloista ei ole tarkkaa tietoa, mutta joitakin oletuksia voidaan tehdä samoilla parametreilla tehtyjen Volley 05 -kokeiden perusteella. Mittaustulokset Volley 04 ja 05 -kokeista, jotka on videoitu ja voitu ajaa tasapainotilaan saakka, antoivat simulaatioiden kanssa hyvin samankaltaisia lämpötilojen arvoja. Keskeytettyjen kokeiden ekstrapolointi tasapainotilaan ei onnistunut kovin hyvin. Kokeet jouduttiin keskeyttämään niin paljon ennen termohydraulista tasapainoa, ettei tasapainotilan reunaehtoja voitu ennustaa. Videonauhoituksen puuttuessa ei veden pinnan korkeudesta saatu lisätietoa. Tuloksista voidaan lähinnä esittää arvioita siitä, mitä suuruusluokkaa mittapisteiden lämpötilat tulevat olemaan. Nämä lämpötilat ovat kuitenkin selvästi alle sydänsiepparissa käytettävän valuraudan sulamislämpötilan. Joten simulaatioiden perusteella voidaan sanoa, etteivät jäähdytyskanavien rakenteet sula, mikäli niissä on pienikin jäähdytevirtaus, eikä useampia kuin muutama vierekkäinen kanava ole täysin kuivana.
Resumo:
The competitiveness comparison is carried out for merely electricity producing alternatives. In Finland, further construction of CHP (combined heat and power) power plants will continue and cover part of the future power supply deficit, but also new condensing power plant capacity will be needed. The following types of power plants are studied: - nuclear power plant, - coal-fired condensing power plant - combined cycle gas turbine plant, - peat-fired condensing power plant. - wood-fired condensing power plant - wind power plant The calculations have been made using the annuity method with a real interest rate of 5 % perannum and with a fixed price level as of March 2003. With the annual full load utilization time of 8000 hours the nuclear electricity would cost 23,7 ¤/MWh, the gas based electricity 32,3 ¤/MWh and coal based electricity 28,1 ¤/MWh. If the influence of emission trading is taken into account,the advantage of the nuclear power will still be improved. Inorder to study the impact of changes in the input data, a sensitivity analysis has been carried out. It reveals that the advantage of the nuclear power is quite clear. E.g. the nuclear electricity is rather insensitive tothe changes of the uranium price, whereas for natural gas alternative the rising trend of gas price causes the greatest risk.
Resumo:
The active magnetic bearings have recently been intensively developed because of noncontact support having several advantages compared to conventional bearings. Due to improved materials, strategies of control, and electrical components, the performance and reliability of the active magnetic bearings are improving. However, additional bearings, retainer bearings, still have a vital role in the applications of the active magnetic bearings. The most crucial moment when the retainer bearings are needed is when the rotor drops from the active magnetic bearings on the retainer bearings due to component or power failure. Without appropriate knowledge of the retainer bearings, there is a chance that an active magnetic bearing supported rotor system will be fatal in a drop-down situation. This study introduces a detailed simulation model of a rotor system in order to describe a rotor drop-down situation on the retainer bearings. The introduced simulation model couples a finite element model with component mode synthesis and detailed bearing models. In this study, electrical components and electromechanical forces are not in the focus. The research looks at the theoretical background of the finite element method with component mode synthesis that can be used in the dynamic analysis of flexible rotors. The retainer bearings are described by using two ball bearing models, which include damping and stiffness properties, oil film, inertia of rolling elements and friction between races and rolling elements. Thefirst bearing model assumes that the cage of the bearing is ideal and that the cage holds the balls in their predefined positions precisely. The second bearing model is an extension of the first model and describes the behavior of the cageless bearing. In the bearing model, each ball is described by using two degrees of freedom. The models introduced in this study are verified with a corresponding actual structure. By using verified bearing models, the effects of the parameters of the rotor system onits dynamics during emergency stops are examined. As shown in this study, the misalignment of the retainer bearings has a significant influence on the behavior of the rotor system in a drop-down situation. In this study, a stability map of the rotor system as a function of rotational speed of the rotor and the misalignment of the retainer bearings is presented. In addition, the effects of parameters of the simulation procedure and the rotor system on the dynamics of system are studied.
Resumo:
Fatigue life assessment of weldedstructures is commonly based on the nominal stress method, but more flexible and accurate methods have been introduced. In general, the assessment accuracy is improved as more localized information about the weld is incorporated. The structural hot spot stress method includes the influence of macro geometric effects and structural discontinuities on the design stress but excludes the local features of the weld. In this thesis, the limitations of the structural hot spot stress method are discussed and a modified structural stress method with improved accuracy is developed and verified for selected welded details. The fatigue life of structures in the as-welded state consists mainly of crack growth from pre-existing cracks or defects. Crack growth rate depends on crack geometry and the stress state on the crack face plane. This means that the stress level and shape of the stress distribution in the assumed crack path governs thetotal fatigue life. In many structural details the stress distribution is similar and adequate fatigue life estimates can be obtained just by adjusting the stress level based on a single stress value, i.e., the structural hot spot stress. There are, however, cases for which the structural stress approach is less appropriate because the stress distribution differs significantly from the more common cases. Plate edge attachments and plates on elastic foundations are some examples of structures with this type of stress distribution. The importance of fillet weld size and weld load variation on the stress distribution is another central topic in this thesis. Structural hot spot stress determination is generally based on a procedure that involves extrapolation of plate surface stresses. Other possibilities for determining the structural hot spot stress is to extrapolate stresses through the thickness at the weld toe or to use Dong's method which includes through-thickness extrapolation at some distance from the weld toe. Both of these latter methods are less sensitive to the FE mesh used. Structural stress based on surface extrapolation is sensitive to the extrapolation points selected and to the FE mesh used near these points. Rules for proper meshing, however, are well defined and not difficult to apply. To improve the accuracy of the traditional structural hot spot stress, a multi-linear stress distribution is introduced. The magnitude of the weld toe stress after linearization is dependent on the weld size, weld load and plate thickness. Simple equations have been derived by comparing assessment results based on the local linear stress distribution and LEFM based calculations. The proposed method is called the modified structural stress method (MSHS) since the structural hot spot stress (SHS) value is corrected using information on weld size andweld load. The correction procedure is verified using fatigue test results found in the literature. Also, a test case was conducted comparing the proposed method with other local fatigue assessment methods.
Resumo:
The Tandem-GMAW method is the latest development as the consequences of improvements in the welding methods. The twin-wire and then the Tandem-method with the separate power sources has got a remarkable place in the welding of many types of materials with different joint types. The biggest advantage of Tandem welding method is the flexibility of choosing both the electrodes of different types from each other according to the type of the parent material. This is possible because of the feasibility of setting the separate welding parameters for both the wires. In this thesis work the effect of the variation in three parameters on the weld bead in Tandem-GMA welding method is studied. Theses three parameters are the wire feed rate in the slave wire, the wire feed rate in the master wire and the voltage difference in both the wires. The results are then compared to study the behaviour of the weld bead with the change in these parameters.