500 resultados para GPGPU RaspberryPi OpenGL Algoritmi Paralleli SeamCarving StreamProcessing
Resumo:
Controlling the quality variables (such as basis weight, moisture etc.) is a vital part of making top quality paper or board. In this thesis, an advanced data assimilation tool is applied to the quality control system (QCS) of a paper or board machine. The functionality of the QCS is based on quality observations that are measured with a traversing scanner making a zigzag path. The basic idea is the following: The measured quality variable has to be separated into its machine direction (MD) and cross direction (CD) variations due to the fact that the QCS works separately in MD and CD. Traditionally this is done simply by assuming one scan of the zigzag path to be the CD profile and its mean value to be one point of the MD trend. In this thesis, a more advanced method is introduced. The fundamental idea is to use the signals’ frequency components to represent the variation in both CD and MD. To be able to get to the frequency domain, the Fourier transform is utilized. The frequency domain, that is, the Fourier components are then used as a state vector in a Kalman filter. The Kalman filter is a widely used data assimilation tool to combine noisy observations with a model. The observations here refer to the quality measurements and the model to the Fourier frequency components. By implementing the two dimensional Fourier transform into the Kalman filter, we get an advanced tool for the separation of CD and MD components in total variation or, to be more general, for data assimilation. A piece of a paper roll is analyzed and this tool is applied to model the dataset. As a result, it is clear that the Kalman filter algorithm is able to reconstruct the main features of the dataset from a zigzag path. Although the results are made with a very short sample of paper roll, it seems that this method has great potential to be used later on as a part of the quality control system.
Resumo:
Maapalloa kiertävien satelliittien liikkeet toistensa suhteen eli satelliittien suhteelliset radat ovat keskeisessä asemassa satelliittimuodostelmien kannalta. Suhteellisten ratojen ratkaiseminen maapallon potentiaalikentässä on haastava ongelma, johon on kehitetty useita eri lähestymistapoja alkaen Hillin tekemästä matemaattisesta pohjatyöstä vuonna 1878. Eri lähestymistavat voidaan jakaa analyyttisiin ja numeerisiin menetelmiin. Analyyttisissa menetelmissä suhteellisen liikkeen liikeyhtälöt ratkaistaan approksimaatioiden avulla ja saadusta ratkaisuista voidaan suoraan lukea suhteellisen radan kehitys jonkin sopivan ajanluonteisen parametrin funktiona. Numeerisissa menetelmissä ratkaistaan liikeyhtälöt numeerisesti eli sovelletaan ratojen numeerista integrointia. Eräs moderni numeerinen menetelmä on soveltaa symplektisiä integrointimenetelmiä suhteellisen radan ratkaisemiseen. Tämän työn ensimmäisessä osassa kehitetään symplektisten integrointimenetelmien tarvitsema matemaattinen teoria lähtien differentiaaligeometrian alkeista. Teorian sovelluksena saadaan Zassenhausin kaavan avulla johdettua symplektisten leapfrog"-menetelmien lähtökohta. Työn toisessa osassa keskitytään suhteellisten satelliittiratojen ongelmaan. Ensin käsitellään yksittäisen satelliitin liikettä ja suhteellisten ratojen esittämisessä käytetyt koordinaatistot. Sen jälkeen esitellään analyyttiset Hillin--Clohessyn--Wiltshiren, Tschaunerin--Hempelin ja Halsallin--Palmerin suhteelliset ratalaskumenetelmät. Numeerisista menetelmistä tutkitaan S.~Mikkolan kehittämää logaritmisen Hamiltonin funktion menetelmää. Työssä kehitetään algoritmi menetelmän soveltamiseen suhteellisiin ratalaskuihin. Kehitettyä menetelmää verrataan analyyttisiin menetelmiin ja tarkkaan ellipsiratojen erotuksena saatuun suhteelliseen rataan. Vertailun tuloksena havaitaan logaritmisen Hamiltonin funktion menetelmä kehityskelpoiseksi ja huomattavasti analyyttisiä menetelmiä tarkemmaksi.
Resumo:
L’OpenGL és un motor 3D que s’utilitza com a lligam entre el software i el hardware gràfic. Actualment és una de les tecnologies més utilitzades en el disseny d’aplicacions 3D. El treball està realitzat amb el programa Visual C++, que és el més recomanat per al desenvolupament d’aplicacions OpenGL. L’objectiu principal d’aquest treball és aprendre a programar amb aquest tipus de tecnologia que no hem estudiat durant el període de carrera. Un altre objectiu del treball era trobar una funció útil i pràctica per a l’aplicació i ens vam decantar per a realitzar un editor d’habitacions per un botiga o empresa de mobles. L’usuari pot de forma molt ràpida i senzilla dibuixar com és l’habitació que vol decorar de forma totalment personalitzada. El programa li generarà l’habitació en tres dimensions i amb els materials que s’han escollit (terra, parets, portes…). Després pot editar-hi mobles personalitzats o pertanyents a la llibreria del programa. El programa incorpora també una base de dades per a l’empresa que ens portarà la gestió de clients, habitacions, textures i mobles (permet ampliar la llibreria del programa). Un cop acabada l’habitació el programa ens hi permet fer una visita de forma interactiva i generar-ne la factura entre altres funcions. La conclusió principal després d’haver acabat aquest projecte, és que a part d’haver après OpenGL, hem aconseguit realitzar una aplicació molt pràctica de cares al disseny d’interiorisme.
Resumo:
Lautanauhatekniikka on monipuolinen menetelmä esimerkiksi kuvioitujen nauhojen kutomiseen, mutta uusien kuvioaiheiden suunnittelu, tai aloittelijalle jo valmiiden ohjeettomien kuviomallien jäljittely, voi helposti käydä työlääksi menetelmän ominaispiirteiden johdosta. Tämän työn tavoitteena oli kehittää ohjelmallinen työkalu auttamaan näissä ongelmissa automatisoimalla kudontaohjeen etsintä käyttäjän laatimalle tavoitekuviolle. Ratkaisumenetelmän perustaksi valittiin geneettinen algoritmi, minkä johdosta työn keskeisintutkimusongelma oli kartoittaa algoritmin perusoperaatioiden parametrien ja tavoitekuvion kompleksisuuden keskinäisiä riippuvuuksia riittävästi toimivien arvosuositusten antamiseen ohjelman tulevassa käytännön käytössä. Työssä ei kehitetty sovellusalueeseen mukautettuja evoluutiooperaatioita, vaan keskityttiin luomaan hyvin tunnetuista elementeistä perusta, jota voi myöhemmin kehittää eteenpäin.
Resumo:
Web-palvelussa sivuston suorituskyky muodostaa suuren osan käyttökokemuksen mielekkyydestä. Sivuston ollessa kuormitetumpi kuin normaalisti, saattaa se toimia tavallista hitaammin. Tasaamalla yhden web-palvelimen kuormaa muille palvelimille, joko laitteisto tai ohjelmistopohjaisella kuormantasauksella, voidaan saavuttaa merkittäviä suorituskykyparannuksia koko palvelulle. Teoriaosassa selvitettiin kuormantasaukseen soveltuvien algoritmien toimintaa sekä tietokantapohjaista replikaatiota, joka välittää saamansa tiedon lähes välittömästi toiselle palvelimelle. Apachen kuormantasausmoduuliin sekä sen sisältämiin algoritmeihin luotiin myös katsaus teoriaosassa. Varsinaisessa työssä luotiin Apachen kuormantasauspalvelimen ja kahden suorituspalvelimen avulla toimiva palvelinjärjestelmä. Kuormantasaimeen asennettiin käyttöön tahmeat sessiot, joiden toimintaa selvitettiin Drupal-ohjelman avulla. Apachessa on ollut ongelmia tahmeiden sessioiden kanssa, mutta työssä huomattiin kaiken toimivan mainiosti. Kuormantasaus ja tietokantojen replikaatio toimi, kuten odotettiin.
Resumo:
Kaasukaarihitsauksessa suojakaasuna käytetään yleensä argonin ja hiilidioksidin tai argonin ja heliumin seoksia. Suojakaasu vaikuttaa useisiin hitsausominaisuuksiin, jotka puolestaan vaikuttavat hitsauksen laatuun ja tuottavuuteen. Automaattisella suojakaasun tunnistuksella ja virtausmäärän mittauksella voitaisiin tehdä hitsauksesta paitsi käyttäjän kannalta yksinkertaisempaa, myös laadukkaampaa. Työn tavoite on löytää mahdollisimman edullinen ja kuitenkin mahdollisimman tarkasti kaasuseoksia tunnistava menetelmä, jota voitaisiin hyödyntää MIG/MAG-hitsauskoneeseen sisäänrakennettuna. Selvä etu on, jos menetelmällä voidaan mitata myös kaasun virtausmäärä. Äänennopeus kaasumaisessa väliaineessa on aineen atomi- ja molekyylirakenteesta ja lämpötilasta riippuva ominaisuus, joka voidaan mitata melko edullisesti. Äänennopeuden määritys perustuu ääniaallon kulkuajan mittaamiseen tunnetun pituisella matkalla. Kaasun virtausnopeus on laskettavissa myötä- ja vastavirtaan mitattujen kulkuaikojen erotuksen avulla. Rakennettu mittauslaitteisto koostuu kahdesta ultraäänimuuntimesta, joiden halkaisija on 10 mm ja jotka toimivat sekä lähettimenä että vastaanottimena. Muuntimet ovat 140 mm:n etäisyydellä toisistaan virtauskanavassa, jossa suojakaasu virtaa yhdensuuntaisesti äänen kanssa. Virtauskanava on putki, jossa on käytetty elastisia materiaaleja, jotta ääniaaltojen eteneminen kanavan runkoa pitkin minimoituisi. Kehitetty algoritmi etsii kahden lähetetyn 40 kHz:n taajuisen kanttiaaltopulssin aiheuttaman vasteen perusteella ääniaallon saapumisajanhetken. Useiden mittausten, tulosten lajittelun ja suodatuksen jälkeen tuntemattomalle kaasulle lasketaan lämpötilakompensoitu vertailuluku. Tuntematon kaasu tunnistetaan vertailemalla lukua tunnettujen kaasuseosten mitattuihin vertailulukuihin. Laitteisto tunnistaa seokset, joissa heliumin osuus argonissa on enintään 50 %. Hiilidioksidia sisältävät argonin seokset puolestaan tunnistetaan puhtaaseen hiilidioksidiin asti jopa kahden prosenttiyksikön tarkkuudella. Kaasun tilavuusvirtausmittauksen tarkkuus on noin 1,0 l/min.
Resumo:
Diplomityön tarkoituksena on optimoida asiakkaiden sähkölaskun laskeminen hajautetun laskennan avulla. Älykkäiden etäluettavien energiamittareiden tullessa jokaiseen kotitalouteen, energiayhtiöt velvoitetaan laskemaan asiakkaiden sähkölaskut tuntiperusteiseen mittaustietoon perustuen. Kasvava tiedonmäärä lisää myös tarvittavien laskutehtävien määrää. Työssä arvioidaan vaihtoehtoja hajautetun laskennan toteuttamiseksi ja luodaan tarkempi katsaus pilvilaskennan mahdollisuuksiin. Lisäksi ajettiin simulaatioita, joiden avulla arvioitiin rinnakkaislaskennan ja peräkkäislaskennan eroja. Sähkölaskujen oikeinlaskemisen tueksi kehitettiin mittauspuu-algoritmi.
Resumo:
Työssä esitetään Git-versiohallintajärjestelmään liittyviä tietorakenteita ja toimintoja matemaattisesta näkökulmasta. Kuvaillaan Gitin käyttämä tietojen tallennustapa ja annetaan yleiskuva Gitin tärkeimmistä toiminnoista. Erityisen tarkasti Gitin toiminnoista esitetään pakkausmenetelmä, tiedostojen erojen vertailu ja pakettitiedostoissa käytettävä deltapakkaus. Deflate-pakkausmenetelmästä tutustutaan sen käyttämään Huffman-koodaukseen, LZ77- koodaukseen ja koodauskaavioiden pakkaukseen. Lisäksi määritellään deflate-pakatun tietovirran rakenne. Esitetään tiedostojen erojen vertailun matemaattinen määritelmä sekä näytetään miten tähän liittyvä pisimmän yhteisen alijonon hakeva algoritmi voidaan toteuttaa erilaisilla menetelmillä, joiden aikakompleksisuudet poikkeavat merkittävästi toisistaan. Kuvaillaan Gitin pakettitiedoston rakenne ja sen muodostamisen algoritmeja. Lisäksi annetaan matemaattinen määritelmä siinä käytetylle deltapakkaukselle ja esitetään deltapakkauksen algoritmi ja siinä käytetty Rabinin sormenjälki. Esitettävissä algoritmeissa esiintyy muutamia perusmenetelmiä kuten dynaaminen ohjelmointi, ahnas algoritmi sekä hajota ja hallitse -menetelmä.
Resumo:
During a possible loss of coolant accident in BWRs, a large amount of steam will be released from the reactor pressure vessel to the suppression pool. Steam will be condensed into the suppression pool causing dynamic and structural loads to the pool. The formation and break up of bubbles can be measured by visual observation using a suitable pattern recognition algorithm. The aim of this study was to improve the preliminary pattern recognition algorithm, developed by Vesa Tanskanen in his doctoral dissertation, by using MATLAB. Video material from the PPOOLEX test facility, recorded during thermal stratification and mixing experiments, was used as a reference in the development of the algorithm. The developed algorithm consists of two parts: the pattern recognition of the bubbles and the analysis of recognized bubble images. The bubble recognition works well, but some errors will appear due to the complex structure of the pool. The results of the image analysis were reasonable. The volume and the surface area of the bubbles were not evaluated. Chugging frequencies calculated by using FFT fitted well into the results of oscillation frequencies measured in the experiments. The pattern recognition algorithm works in the conditions it is designed for. If the measurement configuration will be changed, some modifications have to be done. Numerous improvements are proposed for the future 3D equipment.
Resumo:
The recent emergence of low-cost RGB-D sensors has brought new opportunities for robotics by providing affordable devices that can provide synchronized images with both color and depth information. In this thesis, recent work on pose estimation utilizing RGBD sensors is reviewed. Also, a pose recognition system for rigid objects using RGB-D data is implemented. The implementation uses half-edge primitives extracted from the RGB-D images for pose estimation. The system is based on the probabilistic object representation framework by Detry et al., which utilizes Nonparametric Belief Propagation for pose inference. Experiments are performed on household objects to evaluate the performance and robustness of the system.
Resumo:
Tutkimuksessa selvitettiin, kuinka hyvä tekoäly tietokonepeliin on mahdollista toteuttaa nykytiedolla ja -tekniikalla. Tekoäly rajattiin tarkoittamaan tekoälyn ohjaamia pelihahmoja. Lisäksi yksinkertaisia tekoälytoteutuksia ei huomioitu. Työ toteutettiin tutustumalla aiheeseen liittyvään kirjallisuuteen sekä kehittäjäyhteisön web-sivustojen tietoon. Hyvän tekoälyn kriteereiksi valikoituivat viihdyttävyys ja uskottavuus. Katsaus suosituimpiin toteuttamistekniikoihin ja tekoälyn mahdollisuuksiin osoitti, että teoriassa hyvinkin edistynyt tekoäly on toteutettavissa. Käytännössä tietokoneen rajalliset resurssit, kehittäjien rajalliset taidot ja pelinkehitysprojektien asettamat vaatimukset näyttävät kuitenkin rajoittavan tekoälyn toteuttamista kaupallisessa tuotteessa.
Resumo:
This thesis introduces an extension of Chomsky’s context-free grammars equipped with operators for referring to left and right contexts of strings.The new model is called grammar with contexts. The semantics of these grammars are given in two equivalent ways — by language equations and by logical deduction, where a grammar is understood as a logic for the recursive definition of syntax. The motivation for grammars with contexts comes from an extensive example that completely defines the syntax and static semantics of a simple typed programming language. Grammars with contexts maintain most important practical properties of context-free grammars, including a variant of the Chomsky normal form. For grammars with one-sided contexts (that is, either left or right), there is a cubic-time tabular parsing algorithm, applicable to an arbitrary grammar. The time complexity of this algorithm can be improved to quadratic,provided that the grammar is unambiguous, that is, it only allows one parsefor every string it defines. A tabular parsing algorithm for grammars withtwo-sided contexts has fourth power time complexity. For these grammarsthere is a recognition algorithm that uses a linear amount of space. For certain subclasses of grammars with contexts there are low-degree polynomial parsing algorithms. One of them is an extension of the classical recursive descent for context-free grammars; the version for grammars with contexts still works in linear time like its prototype. Another algorithm, with time complexity varying from linear to cubic depending on the particular grammar, adapts deterministic LR parsing to the new model. If all context operators in a grammar define regular languages, then such a grammar can be transformed to an equivalent grammar without context operators at all. This allows one to represent the syntax of languages in a more succinct way by utilizing context specifications. Linear grammars with contexts turned out to be non-trivial already over a one-letter alphabet. This fact leads to some undecidability results for this family of grammars
Resumo:
Tallennustekniikan kehittymisen ja internetin murroksen seurauksena tietomäärät ovat kasvaneet dramaattisesti. Tietomäärien yhä kasvaessa on kehitetty erilaisia menetelmiä relevantin tiedon noutamiseksi tällaisesta tietomassasta, prosessia kutsutaan tiedonlouhinnaksi. Erilaisten tiedonlouhinta-algoritmien joukosta tässä tutkielmassa käsitellään päätöspuualgoritmeja. Päätöspuilla on lukuisia etuja muihin tiedonlouhinta-algoritmeihin nähden: Tietoa tarvitsee yleisesti esikäsitellä hyvin minimaalisesti ennen algoritmille syöttämistään, lisäksi päätöspuilla voidaan tarkastella muuttujien välisiä epälineaarisia riippuvuksia. Kenties tärkeimpänä päätöspuiden käyttöä puoltavana asiana voidaan kuitenkin pitää niiden palauttamaa selkeää puumaista esitysmuotoa, josta johtopäätösten tekeminen on suhteellisen helppoa. Tutkielmassa selvitetään ensin korkealla abstraktiotasolla päätöspuualgoritmien perustoiminta ja ongelmat, jonka jälkeen käydään läpi algoritmien toiminnan kannalta olennaisia tilastollisia käsitteitä. Tämän jälkeen analysoidaan relevanteiksi koettuja päätöspuualgoritmeja matalammalla abstraktiotasolla ja lopuksi vertaillaan algoritmien yhtäläisyyksiä ja eroavaisuuksia esimerkiksi laskentatehokkuuden, toimintatarkkuuden ja tuottetujen puiden koon muodossa. Tutkielmassa vastataan siihen minkälaisen ongelman ratkaisuun on suositeltavaa valita minkäkin tyyppinen päätöspuualgoritmi. Apuna käytetään paitsi alan kirjallisuutta, myös omia käytännön kokeita Weka-tiedonlouhintatyökalulla. Tutkielmassa tullaan siihen tulokseen että CHAID-algoritmia suositellaan käytettävän pääsääntöisesti datan piirteiden analysointiin, kun taas muita tutkielmassa esiteltäviä algoritmeja käytetään lähinnä luokittelutehtäviin. ID3 on vanhentunut algoritmi, jota tulee käyttää enää lähinnä opetus- tai demonstraatiotarkoituksissa. Lopputulosten pohjalta voidaan myös sanoa että pääsääntöisesti haluttaessa suoritusnopeutta tulee hyödyntää C4.5:en pohjalta kehitettyä J48-algoritmia ja mikäli taasen halutaan pienempiä malleja suositellaan käytettäväksi CART:in pohjalta kehitettyä SimpleCart-algoritmia.
Resumo:
New emerging technologies in the recent decade have brought new options to cross platform computer graphics development. This master thesis took a look for cross platform 3D graphics development possibilities. All platform dependent and non real time solutions were excluded. WebGL and two different OpenGL based solutions were assessed via demo application by using most recent development tools. In the results pros and cons of the each solutions were noted.
Resumo:
Tietokoneet kykenevät suoriutumaan suuresta määrästä raskaita laskutoimituksia lyhyessä ajassa. Niillä on näin ollen siis mahdollista automatisoida sellaisia toimintoja, joissa esimerkiksi ihminen sortuu helposti tarkkaavaisuusvirheisiin. Ihminen pystyy toisaalta sellaisiin toimintoihin, jotka ovat tietokoneille hyvin vaikeita. Esimerkiksi luova ajattelu ja tutun ihmisen kasvojen tunnistaminen onnistuu ihmisiltä huomattavasti helpommin kuin tietokoneilta. Ilman tarkkoja ohjeita tietokone on toimintakyvytön, eikä tuntemattomia ongelmia ole mahdollista ratkaista. Ihmisaivojen toimintaa on niiden kykyjen vuoksi pidetty mielenkiintoisena tutkimuskohteena tietojenkäsittelyn kannalta. Yritykset mallintaa niiden toimintaa ovat johtaneet neuroverkkojen syntyyn. Kehitys alkoi neuronin mallin esittelemisestä ja jatkui edelleen perceptroniin. Lopulta kehitys päättyi neuroverkkoihin, joita on useita erilaisia. Suosituin niistä on kerroksittaisen rakenteen omaava multikerrosperceptroni. Neuroverkkoja on koulutettava halutun toiminnan aikaansaamiseksi. Niitä voidaan kouluttaa ohjatusti, ohjaamattomasti ja arvostellusti. Perceptronin kouluttaminen on helpompaa sen yksinkertaisen rakenteen takia kuin multikerrosperceptronin kouluttaminen. Esimerkiksi back propagation- algoritmi soveltuu multikerrosperceptronin kouluttamiseen. Koulutusprosessissa on oltava tarkkana, sillä neuroverkko voi oppia liikaa opeteltavasta asiasta ja tuottaa huonoja tuloksia koulutuksen jälkeen. Verkon oppimista onkin seurattava tarkkaan kouluttamisen yhteydessä. Oppimiseen vaikuttaa myös verkon rakenne. Neuroverkkojen, erityisesti multikerros perceptronien on todettu sopivan erityisen hyvin erilaisiin käytännön sovelluksiin. Esimerkiksi optisessa kuvantunnistuksessa sen on havaittu tuottavan erityisen hyviä tuloksia, jos kuva tekstistä on prosessoitu oikein neuroverkkoa varten.