36 resultados para modularised computing unit
em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland
Resumo:
Abstract
Resumo:
Tietokonejärjestelmän osien ja ohjelmistojen suorituskykymittauksista saadaan tietoa,jota voidaan käyttää suorituskyvyn parantamiseen ja laitteistohankintojen päätöksen tukena. Tässä työssä tutustutaan suorituskyvyn mittaamiseen ja mittausohjelmiin eli ns. benchmark-ohjelmistoihin. Työssä etsittiin ja arvioitiin eri tyyppisiä vapaasti saatavilla olevia benchmark-ohjelmia, jotka soveltuvat Linux-laskentaklusterin suorituskyvynanalysointiin. Benchmarkit ryhmiteltiin ja arvioitiin testaamalla niiden ominaisuuksia Linux-klusterissa. Työssä käsitellään myös mittausten tekemisen ja rinnakkaislaskennan haasteita. Benchmarkkeja löytyi moneen tarkoitukseen ja ne osoittautuivat laadultaan ja laajuudeltaan vaihteleviksi. Niitä on myös koottu ohjelmistopaketeiksi, jotta laitteiston suorituskyvystä saisi laajemman kuvan kuin mitä yhdellä ohjelmalla on mahdollista saada. Olennaista on ymmärtää nopeus, jolla dataa saadaan siirretyä prosessorille keskusmuistista, levyjärjestelmistä ja toisista laskentasolmuista. Tyypillinen benchmark-ohjelma sisältää paljon laskentaa tarvitsevan matemaattisen algoritmin, jota käytetään tieteellisissä ohjelmistoissa. Benchmarkista riippuen tulosten ymmärtäminen ja hyödyntäminen voi olla haasteellista.
Resumo:
Teollisuuden tuotannon eri prosessien optimointi on hyvin ajankohtainen aihe. Monet ohjausjärjestelmät ovat ajalta, jolloin tietokoneiden laskentateho oli hyvin vaatimaton nykyisiin verrattuna. Työssä esitetään tuotantoprosessi, joka sisältää teräksen leikkaussuunnitelman muodostamisongelman. Valuprosessi on yksi teräksen valmistuksen välivaiheita. Siinä sopivaan laatuun saatettu sula teräs valetaan linjastoon, jossa se jähmettyy ja leikataan aihioiksi. Myöhemmissä vaiheissa teräsaihioista muokataan pienempiä kokonaisuuksia, tehtaan lopputuotteita. Jatkuvavaletut aihiot voidaan leikata tilauskannasta riippuen monella eri tavalla. Tätä varten tarvitaan leikkaussuunnitelma, jonka muodostamiseksi on ratkaistava sekalukuoptimointiongelma. Sekalukuoptimointiongelmat ovat optimoinnin haastavin muoto. Niitä on tutkittu yksinkertaisempiin optimointiongelmiin nähden vähän. Nykyisten tietokoneiden laskentateho on kuitenkin mahdollistanut raskaampien ja monimutkaisempien optimointialgoritmien käytön ja kehittämisen. Työssä on käytetty ja esitetty eräs stokastisen optimoinnin menetelmä, differentiaalievoluutioalgoritmi. Tässä työssä esitetään teräksen leikkausoptimointialgoritmi. Kehitetty optimointimenetelmä toimii dynaamisesti tehdasympäristössä käyttäjien määrittelemien parametrien mukaisesti. Työ on osa Syncron Tech Oy:n Ovako Bar Oy Ab:lle toimittamaa ohjausjärjestelmää.
Resumo:
Tutkimus tarkastelee vaihtoehtoisia termiinisuojaustrategioita metsäteollisuuden alan tulosyksikössä. Jälkitestauksen tarkoituksena on arvioida vaihtoehtoisten strategioiden tuloksellisuutta suojata case-yrityksen kassavirtoja seuraavan kolmen arviointikriteerin avulla: yksittäisten vieraan valuutan määräisten kassavirtojen vaihtelu; koko vieraan valuutan määräisen kassavirran vaihtelu; suojausvoitot ja -tappiot. Tutkimuksen teoreettinen viitekehys tarkastelee yrityksen päätöksentekoa, valuuttariskien suojausprosessia sekä esittelee yrityksen vaihtoehtoisia suojausstrategioita. Tutkimuksen empiirinen aineisto pohjautuu case- yrityksen historiallisiin myyntilukuihin ja on kerätty yrityksen tietojärjestelmästä. Muu tutkimuksessa käytetty dataon kerätty eri tietokannoista. Tutkimuksen tulokset osoittavat, että suojaaminen vähentää kassavirtojen vaihtelua. Suojaamisen taloudelliset tulokset ovat kuitenkin erittäin riippuvaisia valitusta suojausstrategiasta, joka voi johtaa merkittäviin suojausvoittoihin, mutta yhtä hyvin myos merkittäviin tappioihin. Johdon näkemykset ja riskitoleranssi määrittelevät mitä strategiaa yrityksessä tullaan viime kädessä noudattamaan.
Resumo:
Työssä tutkitaan telepäätelaitteen yli gigahertsin taajuisen säteilevän RF kentän sietoisuutta. Mittauksissa testattava laite on Tellabs Oy:n valmistaman CTU modeemin tuotekehitysversio. Teoriaosassa käydään läpi sähkömagneettisten aaltojen teoriaa, sekä säteilevän RF kentän aiheuttamien sähkömagneettiset häiriöiden syntymekanismeja. Myös säteilevien häiriöiden EMC mittauksiin tarvittavien mittalaitteiden tärkeimmät ominaisuudet esitellään, sekä pohditaan yli gigahertsin taajuuksille sopivien EMC mittalaitteiden vaatimuksia. EMC standardit eivät tällä hetkellä aseta vaatimuksia telelaitteiden RF kentän sietoisuudelle yli gigahertsin taajuudella. Tämän vuoksi työssä käsitellään myös todennäköisimpiä häiriölähteitä tällä taajuusalueella. Mittauksissa tutkittiin CTU:n RF kentän sietoisuutta taajuusalueella l - 4.2 GHz. Mittaukset suoritettiin sekä radiokaiuttomassa kammiossa että GTEM solussa. Myös metallisten lisäsuojien vaikutusta CTU:n kentänsietoisuuteen tutkittiin GTEM solussa.
Resumo:
In metallurgic plants a high quality metal production is always required. Nowadays soft computing applications are more often used for automation of manufacturing process and quality control instead of mechanical techniques. In this thesis an overview of soft computing methods presents. As an example of soft computing application, an effective model of fuzzy expert system for the automotive quality control of steel degassing process was developed. The purpose of this work is to describe the fuzzy relations as quality hypersurfaces by varying number of linguistic variables and fuzzy sets.
Resumo:
This master’s thesis aims to study and represent from literature how evolutionary algorithms are used to solve different search and optimisation problems in the area of software engineering. Evolutionary algorithms are methods, which imitate the natural evolution process. An artificial evolution process evaluates fitness of each individual, which are solution candidates. The next population of candidate solutions is formed by using the good properties of the current population by applying different mutation and crossover operations. Different kinds of evolutionary algorithm applications related to software engineering were searched in the literature. Applications were classified and represented. Also the necessary basics about evolutionary algorithms were presented. It was concluded, that majority of evolutionary algorithm applications related to software engineering were about software design or testing. For example, there were applications about classifying software production data, project scheduling, static task scheduling related to parallel computing, allocating modules to subsystems, N-version programming, test data generation and generating an integration test order. Many applications were experimental testing rather than ready for real production use. There were also some Computer Aided Software Engineering tools based on evolutionary algorithms.
Resumo:
Tutkimuksen selvitettiin miten skenaarioanalyysia voidaan käyttää uuden teknologian tutkimisessa. Työssä havaittiin, että skenaarioanalyysin soveltuvuuteen vaikuttaa eniten teknologisen muutoksen taso ja saatavilla olevan tiedon luonne. Skenaariomenetelmä soveltuu hyvin uusien teknologioiden tutkimukseen erityisesti radikaalien innovaatioiden kohdalla. Syynä tähän on niihin liittyvä suuri epävarmuus, kompleksisuus ja vallitsevan paradigman muuttuminen, joiden takia useat muut tulevaisuuden tutkimuksen menetelmät eivät ole tilanteessa käyttökelpoisia. Työn empiirisessä osiossa tutkittiin hilaverkkoteknologian tulevaisuutta skenaarioanalyysin avulla. Hilaverkot nähtiin mahdollisena disruptiivisena teknologiana, joka radikaalina innovaationa saattaa muuttaa tietokonelaskennan nykyisestä tuotepohjaisesta laskentakapasiteetin ostamisesta palvelupohjaiseksi. Tällä olisi suuri vaikutus koko nykyiseen ICT-toimialaan erityisesti tarvelaskennan hyödyntämisen ansiosta. Tutkimus tarkasteli kehitystä vuoteen 2010 asti. Teorian ja olemassa olevan tiedon perusteella muodostettiin vahvaan asiantuntijatietouteen nojautuen neljä mahdollista ympäristöskenaariota hilaverkoille. Skenaarioista huomattiin, että teknologian kaupallinen menestys on vielä monen haasteen takana. Erityisesti luottamus ja lisäarvon synnyttäminen nousivat tärkeimmiksi hilaverkkojen tulevaisuutta ohjaaviksi tekijöiksi.
Resumo:
Tutkimus ”Ilmarisen Suomi” ja sen tekijät tarjoaa uutta tietoa ja historiallisen tulkinnan huipputeknologisen Suomen rakentamisesta sodanjälkeisenä aikana. Kirja kertoo ESKO-tietokoneen tekijöiden monipuolisesta toiminnasta sekä koneen kohtalosta 1950-luvulla. ESKOa rakennuttanut Matematiikkakonekomitea (19541960) suunnitteli laitteesta Suomen ensimmäistä tietokonetta, mutta kirjassa esitetyn tulkinnan mukaan komitealla oli myös laajempia, kansallisia ihanteita ja tavoitteita, kuten kansallisen keskuslaskutoimiston perustaminen. Varhaisia tietokoneita kutsuttiin niiden käyttöä kuvaavasti matematiikkakoneiksi. Kirja on ensimmäinen perusteellinen esitys ja samalla ensimmäinen tutkimus ESKOsta ja sen tekijöiden hankkeesta 1950-luvulla. Matematiikkakonekomitean johdossa toimivat aikansa huipputiedemiehet Rolf Nevanlinna ja Erkki Laurila. Väitöstutkimuksessa kysytään, miten maan ensimmäisen tietokoneen hankkimista perusteltiin, mitä Matematiikkakonekomitea oikeastaan teki ja millaisia erityisesti kansallisia motiiveja koneen tekijöiden toiminta ilmaisi. Tutkimuksessa käytetään monipuolisesti arkistoaineistoa, kirjallisuutta ja haastatteluja Suomesta, Saksasta ja Ruotsista. Tarkastelussa hyödynnetään erityisesti teknologian historian ja yhteiskuntatieteellisen tieteen- ja teknologiantutkimuksen tutkimuskirjallisuutta. Kirjassa tarkastellaan yksityiskohtaisesti sitä, miten ESKOn tekijät yhdistivät tekniikan ja kansalliset perustelut sekä rakensivat uudenlaista, teknisesti taitavaa ”Ilmarisen Suomea” yhdessä ja kilvan muiden tahojen kanssa tuottaen teknologiasta kansallista projektia suomalaisille. Matematiikkakonekomitean ja ESKO-hankkeen tutkimisen perusteella suomalaisten ja teknologian suhteesta voidaan sanoa, että tekniikasta ei vain tullut kansallinen asia suomalaisille, vaan tekniikasta nimenomaan tehtiin kansallinen projekti, joka ei suinkaan ollut erityisen yksimielinen edes sodanjälkeisenä aikana. Tutkimuksen mukaan kotimainen komitea sai paljon aikaan ja tuotti vielä merkittävämpiä seurauksia. Näin siitä huolimatta, että ESKO valmistui pahasti myöhässä, vuonna 1960. Komitea myötävaikutti niin IBM:n menestykseen Suomessa, valtiojohtoisen tiedepolitiikan alkuun kuin Nokian edeltäjän Kaapelitehtaan elektroniikkaosaamisen syntyyn.
Resumo:
This thesis addresses the problem of computing the minimal and maximal diameter of the Cayley graph of Coxeter groups. We first present and assert relevant parts of polytope theory and related Coxeter theory. After this, a method of contracting the orthogonal projections of a polytope from Rd onto R2 and R3, d ¸ 3 is presented. This method is the Equality Set Projection algorithm that requires a constant number of linearprogramming problems per facet of the projection in the absence of degeneracy. The ESP algorithm allows us to compute also projected geometric diameters of high-dimensional polytopes. A representation set of projected polytopes is presented to illustrate the methods adopted in this thesis.
Resumo:
Laser scanning is becoming an increasingly popular method for measuring 3D objects in industrial design. Laser scanners produce a cloud of 3D points. For CAD software to be able to use such data, however, this point cloud needs to be turned into a vector format. A popular way to do this is to triangulate the assumed surface of the point cloud using alpha shapes. Alpha shapes start from the convex hull of the point cloud and gradually refine it towards the true surface of the object. Often it is nontrivial to decide when to stop this refinement. One criterion for this is to do so when the homology of the object stops changing. This is known as the persistent homology of the object. The goal of this thesis is to develop a way to compute the homology of a given point cloud when processed with alpha shapes, and to infer from it when the persistent homology has been achieved. Practically, the computation of such a characteristic of the target might be applied to power line tower span analysis.
Resumo:
The purpose of this Thesis was to study what is the present situation of Business Intelligence of the company unit. This means how efficiently unit uses possibilities of modern information management systems. The aim was to resolve how operative informa-tion management of unit’s tender process could be improved by modern information technology applications. This makes it possible that tender processes could be faster and more efficiency. At the beginning it was essential to acquaint oneself with written literature of Business Intelligence. Based on Business Intelligence theory is was relatively easy but challenging to search and discern how tender business could be improved by methods of Busi-ness Intelligence. The empirical phase of this study was executed as qualitative research method. This phase includes theme and natural interviews on the company. Problems and challenges of tender process were clarified in a part an empirical phase. Group of challenges were founded when studying information management of company unit. Based on theory and interviews, group of improvements were listed which company could possible do in the future when developing its operative processes.
Resumo:
The objective of this study is to develop an improved support unit cost allocation system for a medium-sized technology company, and to examine which options for overhead cost accounting exist. The study begins with presenting the terminology and methods associated with overhead cost accounting and responsibility accounting. Also the most common challenges and resulting benefits of overhead cost allocation system development are brought up. As one research method two case studies were conducted for benchmarking purposes. These external cases are compared with the principal company’s cost allocation system and reflected against the theoretical background. In the empirical section interviews were used as the primary source of information alongside self studying principal company’s old cost allocation method. Interviews revealed the main weaknesses of the old system and proposals for a new one, which were utilized in setting targets for developing the new system. As a result of the development process an improved support unit cost allocation system was realized for year 2009. The new system is able to handle support unit costs in more detail enhancing the transparency and fairness of resulting cost allocations. Parts of support unit costs are now seen as business units’ own costs rather than group-level overhead. Also recommendations for further development are made after analyzing how well the targets were reached.
Resumo:
The main goal of the thesis was to further develop harvester head saw device to the Finnish forest machine manufacturer. The work was done from the basis of the manufacturer´s current production model and the earlier study from this same subject called: “Development of chain saw for harvester” Tero Kaatrasalo, 2004. The work was focused to improving the serviceability and reliability of the saw device, but design also included adding few beforehand determined new features into the saw unit. This was done to give some added value for the end customer. The work includes analysis of the earlier saw devices and ideations of the improvements for the structure.
Resumo:
The effects of pulp processing on softwood fiber properties strongly influence the properties of wet and dry paper webs. Pulp strength delivery studies have provided observations that much of the strength potential of long fibered pulp is lost during brown stock fiber line operations where the pulp is merely washed and transferred to the subsequent processing stages. The objective of this work was to study the intrinsic mechanisms which maycause fiber damage in the different unit operations of modern softwood brown stock processing. The work was conducted by studying the effects of industrial machinery on pulp properties with some actions of unit operations simulated in laboratory scale devices under controlled conditions. An optical imaging system was created and used to study the orientation of fibers in the internal flows during pulp fluidization in mixers and the passage of fibers through the screen openings during screening. The qualitative changes in fibers were evaluated with existing and standardized techniques. The results showed that each process stage has its characteristic effects on fiber properties: Pulp washing and mat formation in displacement washers introduced fiber deformations especially if the fibers entering the stage were intact, but it did not decrease the pulp strength properties. However, storage chests and pulp transfer after displacement washers contributed to strength deterioration. Pulp screening proved to be quite gentle, having the potential of slightly evening out fiber deformations from very deformed pulps and vice versa inflicting a marginal increase in the deformation indices if the fibers were previously intact. Pulp mixing in fluidizing industrial mixers did not have detrimental effects on pulp strength and had the potential of slightly evening out the deformations, provided that the intensity of fluidization was high enough to allow fiber orientation with the flow and that the time of mixing was short. The chemical and mechanical actions of oxygen delignification had two distinct effects on pulp properties: chemical treatment clearly reduced pulp strength with and without mechanical treatment, and the mechanical actions of process machinery introduced more conformability to pulp fibers, but did not clearly contribute to a further decrease in pulp strength. The chemical composition of fibers entering the oxygen stage was also found to affect the susceptibility of fibers to damage during oxygen delignification. Fibers with the smallest content of xylan were found to be more prone to irreversibledeformations accompanied with a lower tensile strength of the pulp. Fibers poor in glucomannan exhibited a lower fiber strength while wet after oxygen delignification as compared to the reference pulp. Pulps with the smallest lignin content on the other hand exhibited improved strength properties as compared to the references.