36 resultados para Exponential smoothing
em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland
Resumo:
Tässä diplomityössä tutkittiin kysynnän ennustamista Vaasan & Vaasan Oy:n tuotteille. Ensin työssä perehdyttiin ennustamiseen ja sen tarjoamiin mahdollisuuksiin yrityksessä. Erityisesti kysynnän ennustamisesta saatavat hyödyt käytiin läpi. Kysynnän ennustamisesta haettiin ratkaisua erityisesti ongelmiin työvuorosuunnittelussa.Työssä perehdyttiin ennustemenetelmiin liittyvään kirjallisuuteen, jonka oppien perusteella tehtiin koe-ennustuksia yrityksen kysynnän historiadatan avulla. Koe-ennustuksia tehtiin kuudelle eri Turun leipomon koe-tuotteelle. Ennustettavana aikavälinä oli kahden viikon päiväkohtainen kysyntä. Tämän aikavälin erityisesti peruskysynnälle etsittiin ennustetarkkuudeltaan parasta kvantitatiivista ennustemenetelmää. Koe-ennustuksia tehtiin liukuvilla keskiarvoilla, klassisella aikasarja-analyysillä, eksponentiaalisen tasoituksen menetelmällä, Holtin lineaarisella eksponenttitasoituksen menetelmällä, Wintersin kausittaisella eksponentiaalisella tasoituksella, autoregressiivisillä malleilla, Box-Jenkinsin menetelmällä ja regressioanalyysillä. Myös neuroverkon opettamista historiadatalla ja käyttämistä ongelman ratkaisun apuna kokeiltiin.Koe-ennustuksien tulosten perusteella ennustemenetelmien toimintaa analysoitiin jatkokehitystä varten. Ennustetarkkuuden lisäksi arvioitiin mallin yksinkertaisuutta, helppokäyttöisyyttä ja sopivuutta yrityksen monien tuotteiden ennustamiseen. Myös kausivaihteluihin, trendeihin ja erikoispäiviin kiinnitettiin huomiota. Ennustetarkkuuden huomattiin parantuvan selvästi peruskysyntää ennustettaessa, jos ensin historiadata esikäsittelemällä puhdistettiin erikoispäivistä ja –viikoista.
Resumo:
Tämän työn tarkoituksena on kehittää lyhyen tähtäimen kysynnän ennakointiprosessia VAASAN Oy:ssä, jossa osa tuotteista valmistetaan kysyntäennakoiden perusteella. Valmistettavien tuotteiden luonteesta johtuva varastointimahdollisuuden puuttuminen, korkea toimitusvarmuustavoite sekä tarvittavien ennakoiden suuri määrä asettavat suuret haasteet kysynnän ennakointiprosessille. Työn teoriaosuudessa käsitellään kysynnän ennustamisen tarvetta, ennusteiden käyttökohteita sekä kysynnän ennustamismenetelmiä. Pelkällä kysynnän ennustamisella ei kuitenkaan päästä toimitusketjun kannalta optimaaliseen lopputulokseen, vaan siihen tarvitaan kokonaisvaltaista kysynnän hallintaa. Se on prosessi, jonka tavoitteena on tasapainottaa toimitusketjun kyvykkyydet ja asiakkaiden vaatimukset keskenään mahdollisimman tehokkaasti. Työssä tutkittiin yrityksessä kolmen kuukauden aikana eksponentiaalisen tasoituksen menetelmällä laadittuja ennakoita sekä ennakoijien tekemiä muutoksia niihin. Tutkimuksen perusteella optimaalinen eksponentiaalisen tasoituksen alfa-kerroin on 0,6. Ennakoijien tilastollisiin ennakoihin tekemät muutokset paransivat ennakoiden tarkkuutta ja ne olivat erityisen tehokkaita toimituspuutteiden minimoimisessa. Lisäksi työn tuloksena ennakoijien käyttöön saatiin monia päivittäisiä rutiineja helpottavia ja automatisoivia työkaluja.
Resumo:
The purpose of this thesis was to study the design of demand forecasting processes and management of demand. In literature review were different processes found and forecasting methods and techniques interviewed. Also role of bullwhip effect in supply chain was identified and how to manage it with information sharing operations. In the empirical part of study is at first described current situation and challenges in case company. After that will new way to handle demand introduced with target budget creation and how information sharing with 5 products and a few customers would bring benefits to company. Also the new S&OP process created within this study and organization for it.
Resumo:
By an exponential sum of the Fourier coefficients of a holomorphic cusp form we mean the sum which is formed by first taking the Fourier series of the said form,then cutting the beginning and the tail away and considering the remaining sum on the real axis. For simplicity’s sake, typically the coefficients are normalized. However, this isn’t so important as the normalization can be done and removed simply by using partial summation. We improve the approximate functional equation for the exponential sums of the Fourier coefficients of the holomorphic cusp forms by giving an explicit upper bound for the error term appearing in the equation. The approximate functional equation is originally due to Jutila [9] and a crucial tool for transforming sums into shorter sums. This transformation changes the point of the real axis on which the sum is to be considered. We also improve known upper bounds for the size estimates of the exponential sums. For very short sums we do not obtain any better estimates than the very easy estimate obtained by multiplying the upper bound estimate for a Fourier coefficient (they are bounded by the divisor function as Deligne [2] showed) by the number of coefficients. This estimate is extremely rough as no possible cancellation is taken into account. However, with small sums, it is unclear whether there happens any remarkable amounts of cancellation.
Resumo:
Viime vuosina Tainionkosken KA5:lla valmistettavan nestepakkauskartongin neliömassa, joka jäykkyystavoitteen saavuttamiseksi tarvitaan, on kasvanut. Diplomityön tavoitteena oli selvittää kartongin jäykkyysindeksin heikentymi-seen vaikuttaneet tekijät ja kehittää korjaavia toimenpiteitä. Työn kirjallisuusosassa tutkittiin nestepakkauskartongin laatuominaisuuksia ja jäykkyyden muodostumista. Lisäksi selvitettiin massanvalmistus- ja koneolosuhteiden vaikutusta kartongin jäykkyyteen. Kirjallisuusosassa tutkittiin myös, miten eri massalaadut ja kartongin rakenne vaikuttavat jäykkyyteen. Työn kokeellisessa osassa kartoitettiin jäykkyysindeksin heikkenemisen syitä ja kehitettiin uusia ajomalleja, joilla olisi jäykkyysindeksiin positiivinen vaikutus. Jäykkyysindeksin heikkenemisen syitä selvitettiin massa- ja prosessianalyysien avulla. Lisäksi tutkittiin 3.puristimen muuttamista tasauspuristimeksi ja CTMP:n käyttöä runkokerroksessa sekä korkea- että matalakappaisen valkaisemattoman sellun kanssa. Massa-analyysissä selvisi, että sellun laatu on heikentynyt ja jäykkyysindeksin heikkeneminen johtuu osaltaan siitä. Prosessianalyysissä paljastui useita jäykkyysindeksiä heikentäviä tekijöitä, kuten esimerkiksi kuivatusosan vetoerot, jotka olivat ajautuneet kauas optimitilasta. 3.puristimen muuttaminen tasauspuristimeksi paransi pinnan sileyttä ja kartongin bulkkia, jolloin jäykkyysindeksi kasvoi. CTMP:n käyttö korkeakappaisen sellun kanssa paransi huomattavasti kartongin bulkkia, mutta heikensi palstautumislujuutta ja lisäsi reunaimeytymää. Matalakappaisen sellun ja CTMP:n yhdistelmällä saatiin aikaan hyvä bulkki ja palstautumis-lujuus niin, että reunaimeytymä ei kasvanut ja tuotantonopeus ei laskenut.
Resumo:
The main objective of this thesis was togenerate better filtration technologies for effective production of pure starchproducts, and thereby the optimisation of filtration sequences using created models, as well as the synthesis of the theories of different filtration stages, which were suitable for starches. At first, the structure and the characteristics of the different starch grades are introduced and each starch grade is shown to have special characteristics. These are taken as the basis of the understanding of the differences in the behaviour of the different native starch grades and their modifications in pressure filtration. Next, the pressure filtration process is divided into stages, which are filtration, cake washing, compression dewatering and displacement dewatering. Each stage is considered individually in their own chapters. The order of the different suitable combinations of the process stages are studied, as well as the proper durations and pressures of the stages. The principles of the theory of each stageare reviewed, the methods for monitoring the progress of each stage are presented, and finally, the modelling of them is introduced. The experimental results obtained from the different stages of starch filtration tests are given and the suitability of the theories and models to the starch filtration are shown. Finally, the theories and the models are gathered together and shown, that the analysis of the whole starch pressure filtration process can be performed with the software developed.
Resumo:
In a centrifugal compressor the flow around the diffuser is collected and led to the pipe system by a spiral-shaped volute. In this study a single-stage centrifugal compressor with three different volutes is investigated. The compressorwas first equipped with the original volute, the cross-section of which was a combination of a rectangle and semi-circle. Next a new volute with a fully circular cross-section was designed and manufactured. Finally, the circular volute wasmodified by rounding the tongue and smoothing the tongue area. The overall performance of the compressor as well as the static pressure distribution after the impeller and on the volute surface were measured. The flow entering the volute was measured using a three-hole Cobra-probe, and flow visualisations were carriedout in the exit cone of the volute. In addition, the radial force acting on theimpeller was measured using magnetic bearings. The complete compressor with thecircular volute (inlet pipe, full impeller, diffuser, volute and outlet pipe) was also modelled using computational fluid dynamics (CFD). A fully 3-D viscous flow was solved using a Navier-Stokes solver, Finflo, developed at Helsinki University of Technology. Chien's k-e model was used to take account of the turbulence. The differences observed in the performance of the different volutes were quite small. The biggest differences were at low speeds and high volume flows,i.e. when the flow entered the volute most radially. In this operating regime the efficiency of the compressor with the modified circular volute was about two percentage points higher than with the other volutes. Also, according to the Cobra-probe measurements and flow visualisations, the modified circular volute performed better than the other volutes in this operating area. The circumferential static pressure distribution in the volute showed increases at low flow, constant distribution at the design flow and decrease at high flow. The non-uniform static pressure distribution of the volute was transmitted backwards across the vaneless diffuser and observed at the impeller exit. At low volume flow a strong two-wave pattern developed into the static pressure distribution at the impeller exit due to the response of the impeller to the non-uniformity of pressure. The radial force of the impeller was the greatest at the choke limit, the smallest atthe design flow, and moderate at low flow. At low flow the force increase was quite mild, whereas the increase at high flow was rapid. Thus, the non-uniformityof pressure and the force related to it are strong especially at high flow. Theforce caused by the modified circular volute was weaker at choke and more symmetric as a function of the volume flow than the force caused by the other volutes.
Resumo:
Tämä työ luo katsauksen ajallisiin ja stokastisiin ohjelmien luotettavuus malleihin sekä tutkii muutamia malleja käytännössä. Työn teoriaosuus sisältää ohjelmien luotettavuuden kuvauksessa ja arvioinnissa käytetyt keskeiset määritelmät ja metriikan sekä varsinaiset mallien kuvaukset. Työssä esitellään kaksi ohjelmien luotettavuusryhmää. Ensimmäinen ryhmä ovat riskiin perustuvat mallit. Toinen ryhmä käsittää virheiden ”kylvöön” ja merkitsevyyteen perustuvat mallit. Työn empiirinen osa sisältää kokeiden kuvaukset ja tulokset. Kokeet suoritettiin käyttämällä kolmea ensimmäiseen ryhmään kuuluvaa mallia: Jelinski-Moranda mallia, ensimmäistä geometrista mallia sekä yksinkertaista eksponenttimallia. Kokeiden tarkoituksena oli tutkia, kuinka syötetyn datan distribuutio vaikuttaa mallien toimivuuteen sekä kuinka herkkiä mallit ovat syötetyn datan määrän muutoksille. Jelinski-Moranda malli osoittautui herkimmäksi distribuutiolle konvergaatio-ongelmien vuoksi, ensimmäinen geometrinen malli herkimmäksi datan määrän muutoksille.
Resumo:
Työssä tutkittiin softkalanteroinnin vaikutus heat set web offset-luettelopaperin laatu- ja painatusominaisuuksiin. Tavoitteena oli löytää luettelopaperin laatuvaatimukset täyttävä ajotapa softkalanterille. Työn kirjallisessa osassa käsitellään softkalanteroinnin teoriaa, softkalanteroinnin vaikutusta sanomalehti-paperin laatuun sekä soft- ja konekalanteroinnin eroja. Lisäksi käsitellään painatusta; densiteettiä ja sen vaikutusta paperin läpipainatukseen. Työn kokeellisessa osassa tutkittiin softkalanterin lämpötilan ja viivapaineen vaikutus luettelopaperin laatuun. Paras laatu sileyden, kiillon sekä painojäljen kannalta saavutetaan käyttämällä korkeaa kalanterin lämpötilaa ja viivapainetta. Massaseoksessa tulisi olla niin paljon hioketta kuin paperin lujuusominaisuudet sallivat. Hioke antaa paperille tasaisen painojäljen. Täyteainetta tulisi käyttää, koska se nostaa opasiteettia ja pienentää läpipainatusta sekä helpottaa kalanteroitumista. Helpommin kalanteroituva paperi pienentää paperin huokostilavuutta, jolla on edullinen vaikutus paperin läpipainatukseen. Luettelopaperin kalanteroiminen yhdellä nipillä on mahdollista, mutta ei suotavaa. Tällöin paperista tulee toispuoleista karheuden suhteen.
Resumo:
Tutkielman ensisijaisena tavoitteena oli määrittää pankkien tuloksenjärjestelymahdollisuuksien muutoksia siirryttäessä kansallisesta FAS GAAP -tilinpäätösnormistosta IFRS-normistoon. Tuloksenjärjestelyn ilmiötä käsiteltiin esittelemällä useita koti- ja ulkomaisia tuloksenjärjestelytutkimuksia. Pankeilla on toimialalleen erityisiä kannustimia tuloksenjärjestelyyn. Pankkitoimialalla tuloksenjärjestely on perinteisesti esiintynyt tuloksentasaamisena tilikausien välillä. Tutkimuksessa saatiin selkeä kuva tuloksenjärjestelymahdollisuuksien muutoksesta. IFRS-normiston sisältämä johdon harkintavalta ilmenee tilinpäätöksen laadintaperiaatteiden valinnaisuutena ja standardien laskelmien sisältäminä johdon arvioina ja oletuksina. Harkintavaltaa käyttämällä johto voi vaikuttaa tilinpäätöksen taseeseen ja tulokseen. IFRS-normistossa tilinpäätöksen laadintaperiaatteisiin liittyvä johdon harkintavalta on vähentynyt verrattuna kansalliseen FAS GAAP-tilinpäätöskäytäntöön, mutta IFRS jättää johdolle edelleen harkintavaltaa muutamien kirjaus- ja raportointikäytäntöjen suhteen. Perinteisten tuloksenjärjestelykeinojen rinnalle IFRS:ssä nousevat useiden standardien laskelmien sisältämät johdon arviot ja oletukset tulevaisuuden muuttujista. Omaisuuserien käypään arvoon arvostamisen myötä tilikauden tuloksista saattaa tulla aikaisempaa volatiilimpia. Käypiin arvoihin arvostamisen seurauksena pankit saattavat siirtyä käyttämään sijoitustensa ostoja ja myyntejä tuloksentasauskeinona. FAS GAAP:ssa pankit ovat käyttäneet tuloksentasaamiseen tiettyjä suoriteperusteisia eriä, esimerkiksi luottotappiovarauksia. IFRS tiukentaa varausten tekemisen periaatteita, mutta tuo tilalle lainakannan arvonalentumistestaukseen sisältyvät johdon arviot.
Resumo:
In this study we used market settlement prices of European call options on stock index futures to extract implied probability distribution function (PDF). The method used produces a PDF of returns of an underlying asset at expiration date from implied volatility smile. With this method, the assumption of lognormal distribution (Black-Scholes model) is tested. The market view of the asset price dynamics can then be used for various purposes (hedging, speculation). We used the so called smoothing approach for implied PDF extraction presented by Shimko (1993). In our analysis we obtained implied volatility smiles from index futures markets (S&P 500 and DAX indices) and standardized them. The method introduced by Breeden and Litzenberger (1978) was then used on PDF extraction. The results show significant deviations from the assumption of lognormal returns for S&P500 options while DAX options mostly fit the lognormal distribution. A deviant subjective view of PDF can be used to form a strategy as discussed in the last section.
Resumo:
Business actions do not take place in isolation. Complementary competencies and capabilities are the most important resources in the exponential knowledge growth. These resources are partially accessed via business partners. A company needs partners and the capability to cooperate, but also the awareness of the competitive tension, when operating in the market with multiple actors. The co-opetition research studies the occurrence and the forms of simultaneous cooperation and competition between companies or their units. Public sector’s governmental and municipal organs have been transformed into companies over the past years. Despite of their non-profit nature, public sector and public companies are adopting business doctrines from private sector towards efficient business operations. This case study aims to show, how co-opetition concept can be observed within public sector companies and in their operations with others, how public companies cooperate but also compete with others and why this happens. This thesis also explicates advantages and disadvantages of the co-opetition phenomenon.
Resumo:
Electricity spot prices have always been a demanding data set for time series analysis, mostly because of the non-storability of electricity. This feature, making electric power unlike the other commodities, causes outstanding price spikes. Moreover, the last several years in financial world seem to show that ’spiky’ behaviour of time series is no longer an exception, but rather a regular phenomenon. The purpose of this paper is to seek patterns and relations within electricity price outliers and verify how they affect the overall statistics of the data. For the study techniques like classical Box-Jenkins approach, series DFT smoothing and GARCH models are used. The results obtained for two geographically different price series show that patterns in outliers’ occurrence are not straightforward. Additionally, there seems to be no rule that would predict the appearance of a spike from volatility, while the reverse effect is quite prominent. It is concluded that spikes cannot be predicted based only on the price series; probably some geographical and meteorological variables need to be included in modeling.
Resumo:
In many industrial applications, accurate and fast surface reconstruction is essential for quality control. Variation in surface finishing parameters, such as surface roughness, can reflect defects in a manufacturing process, non-optimal product operational efficiency, and reduced life expectancy of the product. This thesis considers reconstruction and analysis of high-frequency variation, that is roughness, on planar surfaces. Standard roughness measures in industry are calculated from surface topography. A fast and non-contact method to obtain surface topography is to apply photometric stereo in the estimation of surface gradients and to reconstruct the surface by integrating the gradient fields. Alternatively, visual methods, such as statistical measures, fractal dimension and distance transforms, can be used to characterize surface roughness directly from gray-scale images. In this thesis, the accuracy of distance transforms, statistical measures, and fractal dimension are evaluated in the estimation of surface roughness from gray-scale images and topographies. The results are contrasted to standard industry roughness measures. In distance transforms, the key idea is that distance values calculated along a highly varying surface are greater than distances calculated along a smoother surface. Statistical measures and fractal dimension are common surface roughness measures. In the experiments, skewness and variance of brightness distribution, fractal dimension, and distance transforms exhibited strong linear correlations to standard industry roughness measures. One of the key strengths of photometric stereo method is the acquisition of higher frequency variation of surfaces. In this thesis, the reconstruction of planar high-frequency varying surfaces is studied in the presence of imaging noise and blur. Two Wiener filterbased methods are proposed of which one is optimal in the sense of surface power spectral density given the spectral properties of the imaging noise and blur. Experiments show that the proposed methods preserve the inherent high-frequency variation in the reconstructed surfaces, whereas traditional reconstruction methods typically handle incorrect measurements by smoothing, which dampens the high-frequency variation.
Resumo:
A model to solve heat and mass balances during the offdesign load calculations was created. These equations are complex and nonlinear. The main new ideas used in the created offdesign model of a kraft recovery boiler are the use of heat flows as torn iteration variables instead of the current practice of using the mass flows, vectorizing equation solving, thus speeding up the process, using non dimensional variables for solving the multiple heat transfer surface problem and using a new procedure for calculating pressure losses. Recovery boiler heat and mass balances are reduced to vector form. It is shown that these vectorized equations can be solved virtually without iteration. The iteration speed is enhanced by the use of the derived method of calculating multiple heat transfer surfaces simultaneously. To achieve this quick convergence the heat flows were used as the torn iteration parameters. A new method to handle pressure loss calculations with linearization was presented. This method enabled less time to be spent calculating pressure losses. The derived vector representation of the steam generator was used to calculate offdesign operation parameters for a 3000 tds/d example recovery boiler. The model was used to study recovery boiler part load operation and the effect of the black liquor dry solids increase on recovery boiler dimensioning. Heat flows to surface elements for part load calculations can be closely approximated with a previously defined exponent function. The exponential method can be used for the prediction of fouling in kraft recovery boilers. For similar furnaces the firing of 80 % dry solids liquor produces lower hearth heat release rate than the 65 % dry solids liquor if we fire at constant steam flow. The furnace outlet temperatures show that capacity increase with firing rate increase produces higher loadings than capacity increase with dry solids increase. The economizers, boiler banks and furnaces can be dimensioned smaller if we increase the black liquor dry solids content. The main problem with increased black liquor dry solids content is the decrease in the heat available to superheat. Whenever possible the furnace exit temperature should be increased by decreasing the furnace height. The increase in the furnace exit temperature is usually opposed because of fear of increased corrosion.