28 resultados para Ottimizzazione Strutture Reticolari Grasshopper Algoritmi genetici


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Maapalloa kiertävien satelliittien liikkeet toistensa suhteen eli satelliittien suhteelliset radat ovat keskeisessä asemassa satelliittimuodostelmien kannalta. Suhteellisten ratojen ratkaiseminen maapallon potentiaalikentässä on haastava ongelma, johon on kehitetty useita eri lähestymistapoja alkaen Hillin tekemästä matemaattisesta pohjatyöstä vuonna 1878. Eri lähestymistavat voidaan jakaa analyyttisiin ja numeerisiin menetelmiin. Analyyttisissa menetelmissä suhteellisen liikkeen liikeyhtälöt ratkaistaan approksimaatioiden avulla ja saadusta ratkaisuista voidaan suoraan lukea suhteellisen radan kehitys jonkin sopivan ajanluonteisen parametrin funktiona. Numeerisissa menetelmissä ratkaistaan liikeyhtälöt numeerisesti eli sovelletaan ratojen numeerista integrointia. Eräs moderni numeerinen menetelmä on soveltaa symplektisiä integrointimenetelmiä suhteellisen radan ratkaisemiseen. Tämän työn ensimmäisessä osassa kehitetään symplektisten integrointimenetelmien tarvitsema matemaattinen teoria lähtien differentiaaligeometrian alkeista. Teorian sovelluksena saadaan Zassenhausin kaavan avulla johdettua symplektisten leapfrog"-menetelmien lähtökohta. Työn toisessa osassa keskitytään suhteellisten satelliittiratojen ongelmaan. Ensin käsitellään yksittäisen satelliitin liikettä ja suhteellisten ratojen esittämisessä käytetyt koordinaatistot. Sen jälkeen esitellään analyyttiset Hillin--Clohessyn--Wiltshiren, Tschaunerin--Hempelin ja Halsallin--Palmerin suhteelliset ratalaskumenetelmät. Numeerisista menetelmistä tutkitaan S.~Mikkolan kehittämää logaritmisen Hamiltonin funktion menetelmää. Työssä kehitetään algoritmi menetelmän soveltamiseen suhteellisiin ratalaskuihin. Kehitettyä menetelmää verrataan analyyttisiin menetelmiin ja tarkkaan ellipsiratojen erotuksena saatuun suhteelliseen rataan. Vertailun tuloksena havaitaan logaritmisen Hamiltonin funktion menetelmä kehityskelpoiseksi ja huomattavasti analyyttisiä menetelmiä tarkemmaksi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lautanauhatekniikka on monipuolinen menetelmä esimerkiksi kuvioitujen nauhojen kutomiseen, mutta uusien kuvioaiheiden suunnittelu, tai aloittelijalle jo valmiiden ohjeettomien kuviomallien jäljittely, voi helposti käydä työlääksi menetelmän ominaispiirteiden johdosta. Tämän työn tavoitteena oli kehittää ohjelmallinen työkalu auttamaan näissä ongelmissa automatisoimalla kudontaohjeen etsintä käyttäjän laatimalle tavoitekuviolle. Ratkaisumenetelmän perustaksi valittiin geneettinen algoritmi, minkä johdosta työn keskeisintutkimusongelma oli kartoittaa algoritmin perusoperaatioiden parametrien ja tavoitekuvion kompleksisuuden keskinäisiä riippuvuuksia riittävästi toimivien arvosuositusten antamiseen ohjelman tulevassa käytännön käytössä. Työssä ei kehitetty sovellusalueeseen mukautettuja evoluutiooperaatioita, vaan keskityttiin luomaan hyvin tunnetuista elementeistä perusta, jota voi myöhemmin kehittää eteenpäin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Web-palvelussa sivuston suorituskyky muodostaa suuren osan käyttökokemuksen mielekkyydestä. Sivuston ollessa kuormitetumpi kuin normaalisti, saattaa se toimia tavallista hitaammin. Tasaamalla yhden web-palvelimen kuormaa muille palvelimille, joko laitteisto tai ohjelmistopohjaisella kuormantasauksella, voidaan saavuttaa merkittäviä suorituskykyparannuksia koko palvelulle. Teoriaosassa selvitettiin kuormantasaukseen soveltuvien algoritmien toimintaa sekä tietokantapohjaista replikaatiota, joka välittää saamansa tiedon lähes välittömästi toiselle palvelimelle. Apachen kuormantasausmoduuliin sekä sen sisältämiin algoritmeihin luotiin myös katsaus teoriaosassa. Varsinaisessa työssä luotiin Apachen kuormantasauspalvelimen ja kahden suorituspalvelimen avulla toimiva palvelinjärjestelmä. Kuormantasaimeen asennettiin käyttöön tahmeat sessiot, joiden toimintaa selvitettiin Drupal-ohjelman avulla. Apachessa on ollut ongelmia tahmeiden sessioiden kanssa, mutta työssä huomattiin kaiken toimivan mainiosti. Kuormantasaus ja tietokantojen replikaatio toimi, kuten odotettiin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Kaasukaarihitsauksessa suojakaasuna käytetään yleensä argonin ja hiilidioksidin tai argonin ja heliumin seoksia. Suojakaasu vaikuttaa useisiin hitsausominaisuuksiin, jotka puolestaan vaikuttavat hitsauksen laatuun ja tuottavuuteen. Automaattisella suojakaasun tunnistuksella ja virtausmäärän mittauksella voitaisiin tehdä hitsauksesta paitsi käyttäjän kannalta yksinkertaisempaa, myös laadukkaampaa. Työn tavoite on löytää mahdollisimman edullinen ja kuitenkin mahdollisimman tarkasti kaasuseoksia tunnistava menetelmä, jota voitaisiin hyödyntää MIG/MAG-hitsauskoneeseen sisäänrakennettuna. Selvä etu on, jos menetelmällä voidaan mitata myös kaasun virtausmäärä. Äänennopeus kaasumaisessa väliaineessa on aineen atomi- ja molekyylirakenteesta ja lämpötilasta riippuva ominaisuus, joka voidaan mitata melko edullisesti. Äänennopeuden määritys perustuu ääniaallon kulkuajan mittaamiseen tunnetun pituisella matkalla. Kaasun virtausnopeus on laskettavissa myötä- ja vastavirtaan mitattujen kulkuaikojen erotuksen avulla. Rakennettu mittauslaitteisto koostuu kahdesta ultraäänimuuntimesta, joiden halkaisija on 10 mm ja jotka toimivat sekä lähettimenä että vastaanottimena. Muuntimet ovat 140 mm:n etäisyydellä toisistaan virtauskanavassa, jossa suojakaasu virtaa yhdensuuntaisesti äänen kanssa. Virtauskanava on putki, jossa on käytetty elastisia materiaaleja, jotta ääniaaltojen eteneminen kanavan runkoa pitkin minimoituisi. Kehitetty algoritmi etsii kahden lähetetyn 40 kHz:n taajuisen kanttiaaltopulssin aiheuttaman vasteen perusteella ääniaallon saapumisajanhetken. Useiden mittausten, tulosten lajittelun ja suodatuksen jälkeen tuntemattomalle kaasulle lasketaan lämpötilakompensoitu vertailuluku. Tuntematon kaasu tunnistetaan vertailemalla lukua tunnettujen kaasuseosten mitattuihin vertailulukuihin. Laitteisto tunnistaa seokset, joissa heliumin osuus argonissa on enintään 50 %. Hiilidioksidia sisältävät argonin seokset puolestaan tunnistetaan puhtaaseen hiilidioksidiin asti jopa kahden prosenttiyksikön tarkkuudella. Kaasun tilavuusvirtausmittauksen tarkkuus on noin 1,0 l/min.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diplomityön tarkoituksena on optimoida asiakkaiden sähkölaskun laskeminen hajautetun laskennan avulla. Älykkäiden etäluettavien energiamittareiden tullessa jokaiseen kotitalouteen, energiayhtiöt velvoitetaan laskemaan asiakkaiden sähkölaskut tuntiperusteiseen mittaustietoon perustuen. Kasvava tiedonmäärä lisää myös tarvittavien laskutehtävien määrää. Työssä arvioidaan vaihtoehtoja hajautetun laskennan toteuttamiseksi ja luodaan tarkempi katsaus pilvilaskennan mahdollisuuksiin. Lisäksi ajettiin simulaatioita, joiden avulla arvioitiin rinnakkaislaskennan ja peräkkäislaskennan eroja. Sähkölaskujen oikeinlaskemisen tueksi kehitettiin mittauspuu-algoritmi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Työssä esitetään Git-versiohallintajärjestelmään liittyviä tietorakenteita ja toimintoja matemaattisesta näkökulmasta. Kuvaillaan Gitin käyttämä tietojen tallennustapa ja annetaan yleiskuva Gitin tärkeimmistä toiminnoista. Erityisen tarkasti Gitin toiminnoista esitetään pakkausmenetelmä, tiedostojen erojen vertailu ja pakettitiedostoissa käytettävä deltapakkaus. Deflate-pakkausmenetelmästä tutustutaan sen käyttämään Huffman-koodaukseen, LZ77- koodaukseen ja koodauskaavioiden pakkaukseen. Lisäksi määritellään deflate-pakatun tietovirran rakenne. Esitetään tiedostojen erojen vertailun matemaattinen määritelmä sekä näytetään miten tähän liittyvä pisimmän yhteisen alijonon hakeva algoritmi voidaan toteuttaa erilaisilla menetelmillä, joiden aikakompleksisuudet poikkeavat merkittävästi toisistaan. Kuvaillaan Gitin pakettitiedoston rakenne ja sen muodostamisen algoritmeja. Lisäksi annetaan matemaattinen määritelmä siinä käytetylle deltapakkaukselle ja esitetään deltapakkauksen algoritmi ja siinä käytetty Rabinin sormenjälki. Esitettävissä algoritmeissa esiintyy muutamia perusmenetelmiä kuten dynaaminen ohjelmointi, ahnas algoritmi sekä hajota ja hallitse -menetelmä.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

During a possible loss of coolant accident in BWRs, a large amount of steam will be released from the reactor pressure vessel to the suppression pool. Steam will be condensed into the suppression pool causing dynamic and structural loads to the pool. The formation and break up of bubbles can be measured by visual observation using a suitable pattern recognition algorithm. The aim of this study was to improve the preliminary pattern recognition algorithm, developed by Vesa Tanskanen in his doctoral dissertation, by using MATLAB. Video material from the PPOOLEX test facility, recorded during thermal stratification and mixing experiments, was used as a reference in the development of the algorithm. The developed algorithm consists of two parts: the pattern recognition of the bubbles and the analysis of recognized bubble images. The bubble recognition works well, but some errors will appear due to the complex structure of the pool. The results of the image analysis were reasonable. The volume and the surface area of the bubbles were not evaluated. Chugging frequencies calculated by using FFT fitted well into the results of oscillation frequencies measured in the experiments. The pattern recognition algorithm works in the conditions it is designed for. If the measurement configuration will be changed, some modifications have to be done. Numerous improvements are proposed for the future 3D equipment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The recent emergence of low-cost RGB-D sensors has brought new opportunities for robotics by providing affordable devices that can provide synchronized images with both color and depth information. In this thesis, recent work on pose estimation utilizing RGBD sensors is reviewed. Also, a pose recognition system for rigid objects using RGB-D data is implemented. The implementation uses half-edge primitives extracted from the RGB-D images for pose estimation. The system is based on the probabilistic object representation framework by Detry et al., which utilizes Nonparametric Belief Propagation for pose inference. Experiments are performed on household objects to evaluate the performance and robustness of the system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tutkimuksessa selvitettiin, kuinka hyvä tekoäly tietokonepeliin on mahdollista toteuttaa nykytiedolla ja -tekniikalla. Tekoäly rajattiin tarkoittamaan tekoälyn ohjaamia pelihahmoja. Lisäksi yksinkertaisia tekoälytoteutuksia ei huomioitu. Työ toteutettiin tutustumalla aiheeseen liittyvään kirjallisuuteen sekä kehittäjäyhteisön web-sivustojen tietoon. Hyvän tekoälyn kriteereiksi valikoituivat viihdyttävyys ja uskottavuus. Katsaus suosituimpiin toteuttamistekniikoihin ja tekoälyn mahdollisuuksiin osoitti, että teoriassa hyvinkin edistynyt tekoäly on toteutettavissa. Käytännössä tietokoneen rajalliset resurssit, kehittäjien rajalliset taidot ja pelinkehitysprojektien asettamat vaatimukset näyttävät kuitenkin rajoittavan tekoälyn toteuttamista kaupallisessa tuotteessa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis introduces an extension of Chomsky’s context-free grammars equipped with operators for referring to left and right contexts of strings.The new model is called grammar with contexts. The semantics of these grammars are given in two equivalent ways — by language equations and by logical deduction, where a grammar is understood as a logic for the recursive definition of syntax. The motivation for grammars with contexts comes from an extensive example that completely defines the syntax and static semantics of a simple typed programming language. Grammars with contexts maintain most important practical properties of context-free grammars, including a variant of the Chomsky normal form. For grammars with one-sided contexts (that is, either left or right), there is a cubic-time tabular parsing algorithm, applicable to an arbitrary grammar. The time complexity of this algorithm can be improved to quadratic,provided that the grammar is unambiguous, that is, it only allows one parsefor every string it defines. A tabular parsing algorithm for grammars withtwo-sided contexts has fourth power time complexity. For these grammarsthere is a recognition algorithm that uses a linear amount of space. For certain subclasses of grammars with contexts there are low-degree polynomial parsing algorithms. One of them is an extension of the classical recursive descent for context-free grammars; the version for grammars with contexts still works in linear time like its prototype. Another algorithm, with time complexity varying from linear to cubic depending on the particular grammar, adapts deterministic LR parsing to the new model. If all context operators in a grammar define regular languages, then such a grammar can be transformed to an equivalent grammar without context operators at all. This allows one to represent the syntax of languages in a more succinct way by utilizing context specifications. Linear grammars with contexts turned out to be non-trivial already over a one-letter alphabet. This fact leads to some undecidability results for this family of grammars

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tallennustekniikan kehittymisen ja internetin murroksen seurauksena tietomäärät ovat kasvaneet dramaattisesti. Tietomäärien yhä kasvaessa on kehitetty erilaisia menetelmiä relevantin tiedon noutamiseksi tällaisesta tietomassasta, prosessia kutsutaan tiedonlouhinnaksi. Erilaisten tiedonlouhinta-algoritmien joukosta tässä tutkielmassa käsitellään päätöspuualgoritmeja. Päätöspuilla on lukuisia etuja muihin tiedonlouhinta-algoritmeihin nähden: Tietoa tarvitsee yleisesti esikäsitellä hyvin minimaalisesti ennen algoritmille syöttämistään, lisäksi päätöspuilla voidaan tarkastella muuttujien välisiä epälineaarisia riippuvuksia. Kenties tärkeimpänä päätöspuiden käyttöä puoltavana asiana voidaan kuitenkin pitää niiden palauttamaa selkeää puumaista esitysmuotoa, josta johtopäätösten tekeminen on suhteellisen helppoa. Tutkielmassa selvitetään ensin korkealla abstraktiotasolla päätöspuualgoritmien perustoiminta ja ongelmat, jonka jälkeen käydään läpi algoritmien toiminnan kannalta olennaisia tilastollisia käsitteitä. Tämän jälkeen analysoidaan relevanteiksi koettuja päätöspuualgoritmeja matalammalla abstraktiotasolla ja lopuksi vertaillaan algoritmien yhtäläisyyksiä ja eroavaisuuksia esimerkiksi laskentatehokkuuden, toimintatarkkuuden ja tuottetujen puiden koon muodossa. Tutkielmassa vastataan siihen minkälaisen ongelman ratkaisuun on suositeltavaa valita minkäkin tyyppinen päätöspuualgoritmi. Apuna käytetään paitsi alan kirjallisuutta, myös omia käytännön kokeita Weka-tiedonlouhintatyökalulla. Tutkielmassa tullaan siihen tulokseen että CHAID-algoritmia suositellaan käytettävän pääsääntöisesti datan piirteiden analysointiin, kun taas muita tutkielmassa esiteltäviä algoritmeja käytetään lähinnä luokittelutehtäviin. ID3 on vanhentunut algoritmi, jota tulee käyttää enää lähinnä opetus- tai demonstraatiotarkoituksissa. Lopputulosten pohjalta voidaan myös sanoa että pääsääntöisesti haluttaessa suoritusnopeutta tulee hyödyntää C4.5:en pohjalta kehitettyä J48-algoritmia ja mikäli taasen halutaan pienempiä malleja suositellaan käytettäväksi CART:in pohjalta kehitettyä SimpleCart-algoritmia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tietokoneet kykenevät suoriutumaan suuresta määrästä raskaita laskutoimituksia lyhyessä ajassa. Niillä on näin ollen siis mahdollista automatisoida sellaisia toimintoja, joissa esimerkiksi ihminen sortuu helposti tarkkaavaisuusvirheisiin. Ihminen pystyy toisaalta sellaisiin toimintoihin, jotka ovat tietokoneille hyvin vaikeita. Esimerkiksi luova ajattelu ja tutun ihmisen kasvojen tunnistaminen onnistuu ihmisiltä huomattavasti helpommin kuin tietokoneilta. Ilman tarkkoja ohjeita tietokone on toimintakyvytön, eikä tuntemattomia ongelmia ole mahdollista ratkaista. Ihmisaivojen toimintaa on niiden kykyjen vuoksi pidetty mielenkiintoisena tutkimuskohteena tietojenkäsittelyn kannalta. Yritykset mallintaa niiden toimintaa ovat johtaneet neuroverkkojen syntyyn. Kehitys alkoi neuronin mallin esittelemisestä ja jatkui edelleen perceptroniin. Lopulta kehitys päättyi neuroverkkoihin, joita on useita erilaisia. Suosituin niistä on kerroksittaisen rakenteen omaava multikerrosperceptroni. Neuroverkkoja on koulutettava halutun toiminnan aikaansaamiseksi. Niitä voidaan kouluttaa ohjatusti, ohjaamattomasti ja arvostellusti. Perceptronin kouluttaminen on helpompaa sen yksinkertaisen rakenteen takia kuin multikerrosperceptronin kouluttaminen. Esimerkiksi back propagation- algoritmi soveltuu multikerrosperceptronin kouluttamiseen. Koulutusprosessissa on oltava tarkkana, sillä neuroverkko voi oppia liikaa opeteltavasta asiasta ja tuottaa huonoja tuloksia koulutuksen jälkeen. Verkon oppimista onkin seurattava tarkkaan kouluttamisen yhteydessä. Oppimiseen vaikuttaa myös verkon rakenne. Neuroverkkojen, erityisesti multikerros perceptronien on todettu sopivan erityisen hyvin erilaisiin käytännön sovelluksiin. Esimerkiksi optisessa kuvantunnistuksessa sen on havaittu tuottavan erityisen hyviä tuloksia, jos kuva tekstistä on prosessoitu oikein neuroverkkoa varten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Currently, laser scribing is growing material processing method in the industry. Benefits of laser scribing technology are studied for example for improving an efficiency of solar cells. Due high-quality requirement of the fast scribing process, it is important to monitor the process in real time for detecting possible defects during the process. However, there is a lack of studies of laser scribing real time monitoring. Commonly used monitoring methods developed for other laser processes such a laser welding, are sufficient slow and existed applications cannot be implemented in fast laser scribing monitoring. The aim of this thesis is to find a method for laser scribing monitoring with a high-speed camera and evaluate reliability and performance of the developed monitoring system with experiments. The laser used in experiments is an IPG ytterbium pulsed fiber laser with 20 W maximum average power and Scan head optics used in the laser is Scanlab’s Hurryscan 14 II with an f100 tele-centric lens. The camera was connected to laser scanner using camera adapter to follow the laser process. A powerful fully programmable industrial computer was chosen for executing image processing and analysis. Algorithms for defect analysis, which are based on particle analysis, were developed using LabVIEW system design software. The performance of the algorithms was analyzed by analyzing a non-moving image from the scribing line with resolution 960x20 pixel. As a result, the maximum analysis speed was 560 frames per second. Reliability of the algorithm was evaluated by imaging scribing path with a variable number of defects 2000 mm/s when the laser was turned off and image analysis speed was 430 frames per second. The experiment was successful and as a result, the algorithms detected all defects from the scribing path. The final monitoring experiment was performed during a laser process. However, it was challenging to get active laser illumination work with the laser scanner due physical dimensions of the laser lens and the scanner. For reliable error detection, the illumination system is needed to be replaced.