960 resultados para Real Electricity Markets Data
Resumo:
A raíz de la evolución del precio de la energía y de las medidas adoptadas a nivel mundial para el llamado “desarrollo sostenible”, la legislación europea ha liderado las correcciones a efectuar en los procesos protagonistas del consumo de recursos y de contaminación del medio ambiente. En la última década el proceso viene acelerándose para cumplir con los objetivos marcados, amparándose en unas ya consolidadas estadísticas sobre las repercusiones prácticas de cada una de las iniciativas proyectadas. Una de las tecnologías a emplear es la cogeneración, es decir, la producción simultánea de calor y electricidad. A diferencia de otras soluciones más ambiciosas, y por tanto con mayor incertidumbre en su aplicación práctica, la cogeneración es una respuesta ya madura y viable, directamente aplicable a industrias y con un claro apoyo institucional. El objetivo principal de este trabajo es demostrar mediante un estudio técnico – económico, la viabilidad de la solución planteada en este tipo de edificios, mediante la aportación de datos reales y contrastados. Así como establecer los parámetros e indicadores de medición que permitan elegir dicha tecnología como la solución óptima para el ahorro y eficiencia económica en su sector de aplicación. Entre las conclusiones más destacadas de este proyecto están los beneficios que aporta tanto al usuario del sistema como al conjunto de la sociedad, siendo este último aspecto fundamental en su financiación y subvención. Por otra parte, son instalaciones desconocidas en ciertos edificios por lo que este trabajo debe contribuir a su desarrollo y adopción por parte de las empresas de servicios energéticos.
Resumo:
PURPOSE: A new magnetic resonance imaging approach for detection of myocardial late enhancement during free-breathing was developed. METHODS AND RESULTS: For suppression of respiratory motion artifacts, a prospective navigator technology including real-time motion correction and a local navigator restore was implemented. Subject specific inversion times were defined from images with incrementally increased inversion times acquired during a single dynamic scout navigator-gated and real-time motion corrected free-breathing scan. Subsequently, MR-imaging of myocardial late enhancement was performed with navigator-gated and real-time motion corrected adjacent short axis and long axis (two, three and four chamber) views. This alternative approach was investigated in 7 patients with history of myocardial infarction 12 min after i. v. administration of 0.2 mmol/kg body weight gadolinium-DTPA. CONCLUSION: With the presented navigator-gated and real-time motion corrected sequence for MR-imaging of myocardial late enhancement data can be completely acquired during free-breathing. Time constraints of a breath-hold technique are abolished and optimized patient specific inversion time is ensured.
Resumo:
Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.
Resumo:
Genotypic frequencies at codominant marker loci in population samples convey information on mating systems. A classical way to extract this information is to measure heterozygote deficiencies (FIS) and obtain the selfing rate s from FIS = s/(2 - s), assuming inbreeding equilibrium. A major drawback is that heterozygote deficiencies are often present without selfing, owing largely to technical artefacts such as null alleles or partial dominance. We show here that, in the absence of gametic disequilibrium, the multilocus structure can be used to derive estimates of s independent of FIS and free of technical biases. Their statistical power and precision are comparable to those of FIS, although they are sensitive to certain types of gametic disequilibria, a bias shared with progeny-array methods but not FIS. We analyse four real data sets spanning a range of mating systems. In two examples, we obtain s = 0 despite positive FIS, strongly suggesting that the latter are artefactual. In the remaining examples, all estimates are consistent. All the computations have been implemented in a open-access and user-friendly software called rmes (robust multilocus estimate of selfing) available at http://ftp.cefe.cnrs.fr, and can be used on any multilocus data. Being able to extract the reliable information from imperfect data, our method opens the way to make use of the ever-growing number of published population genetic studies, in addition to the more demanding progeny-array approaches, to investigate selfing rates.
Resumo:
The objective of this work was to validate, by quantitative PCR in real time (RT-qPCR), genes to be used as reference in studies of gene expression in soybean in drought-stressed trials. Four genes commonly used in soybean were evaluated: Gmβ-actin, GmGAPDH, GmLectin and GmRNAr18S. Total RNA was extracted from six samples: three from roots in a hydroponic system with different drought intensities (0, 25, 50, 75 and 100 minutes of water stress), and three from leaves of plants grown in sand with different soil moistures (15, 5 and 2.5% gravimetric humidity). The raw cycle threshold (Ct) data were analyzed, and the efficiency of each primer was calculated for an overall analysis of the Ct range among the different samples. The GeNorm application was used to evaluate the best reference gene, according to its stability. The GmGAPDH was the least stable gene, with the highest mean values of expression stability (M), and the most stable genes, with the lowest M values, were the Gmβ-actin and GmRNAr18S, when both root and leaves samples were tested. These genes can be used in RT-qPCR as reference gene for expression analysis.
Resumo:
BACKGROUND: In recent years several trials have addressed treatment challenges in Crohn's disease. Clinical trials however, represent a very special situation. AIMS: To perform a cross-sectional survey among gastroenterologists on the current clinical real life therapeutic approach focussing on the use of biologics. METHODS: A survey including six main questions on clinical management of loss of response, diagnostic evaluation prior to major treatment changes, preference for anti-tumour necrosis factor (TNF) agent, (de-)escalation strategies as well as a basic section regarding personal information was sent by mail to all gastroenterologists in Switzerland (n=318). RESULTS: In total, 120 questionnaires were analysed (response rate 37.7%). 90% of gastroenterologists in Switzerland use a thiopurine as the first step-up strategy (anti-TNF alone 7.5%, combination 2.5%). To address loss of response, most physicians prefer shortening the interval of anti-TNF administration followed by dose increase, switching the biologic and adding a thiopurine. In case of prolonged remission on combination therapy, the thiopurine is stopped first (52.6%) after a mean treatment duration of 15.7 months (biologic first in 41.4%). CONCLUSIONS: Everyday clinical practice in Crohn's disease patients appears to be incongruent with clinical data derived from major trials. Studies investigating reasons underlying these discrepancies are of need to optimize and harmonize treatment.
Resumo:
Introduction: THC-COOH has been proposed as a criterion to help to distinguish between occasional from regular cannabis users. However, to date this indicator has not been adequately assessed under experimental and real-life conditions. Methods: We carried out a controlled administration study of smoked cannabis with a placebo. Twenty-three heavy smokers and 25 occasional smokers, between 18 and 30 years of age, participated in this study [Battistella G et al., PloS one. 2013;8(1):e52545]. We collected data from a second real case study performed with 146 traffic offenders' cases in which the whole blood cannabinoid concentrations and the frequency of cannabis use were known. Cannabinoid levels were determined in whole blood using tandem mass spectrometry methods. Results: Significantly high differences in THC-COOH concentrations were found between the two groups when measured during the screening visit, prior to the smoking session, and throughout the day of the experiment. Receiver operating characteristic (ROC) curves were determined and two threshold criteria were proposed in order to distinguish between these groups: a free THC-COOH concentration below 3 μg/L suggested an occasional consumption (≤ 1 joint/week) while a concentration higher than 40 μg/L corresponded to a heavy use (≥ 10 joints/month). These thresholds were successfully tested with the second real case study. The two thresholds were not challenged by the presence of ethanol (40% of cases) and of other therapeutic and illegal drugs (24%). These thresholds were also found to be consistent with previously published experimental data. Conclusion: We propose the following procedure that can be very useful in the Swiss context but also in other countries with similar traffic policies: If the whole blood THC-COOH concentration is higher than 40 μg/L, traffic offenders must be directed first and foremost toward medical assessment of their fitness to drive. This evaluation is not recommended if the THC-COOH concentration is lower than 3 μg/L. A THC-COOH level between these two thresholds can't be reliably interpreted. In such a case, further medical assessment and follow up of the fitness to drive are also suggested, but with lower priority.
Resumo:
Lithium is an efficacious agent for the treatment of bipolar disorder, but it is unclear to what extent its long-term use may result in neuroprotective or toxic consequences. Medline was searched with the combination of the word 'Lithium' plus key words that referred to every possible effect on the central nervous system. The papers were further classified into those supporting a neuroprotective effect, those in favour of a neurotoxic effect and those that were neutral. The papers were classified into research in humans, animal and in-vitro research, case reports, and review/opinion articles. Finally, the Natural Standard evidence-based validated grading rationale was used to validate the data. The Medline search returned 970 papers up to February 2006. Inspection of the abstracts supplied 214 papers for further reviewing. Eighty-nine papers supported the neuroprotective effect (6 human research, 58 animal/in vitro, 0 case reports, 25 review/opinion articles). A total of 116 papers supported the neurotoxic effect (17 human research, 23 animal/in vitro, 60 case reports, 16 review/opinion articles). Nine papers supported no hypothesis (5 human research, 3 animal/in vitro, 0 case reports, 1 review/opinion articles). Overall, the grading suggests that the data concerning the effect of lithium therapy is that of level C, that is 'unclear or conflicting scientific evidence' since there is conflicting evidence from uncontrolled non-randomized studies accompanied by conflicting evidence from animal and basic science studies. Although more papers are in favour of the toxic effect, the great difference in the type of papers that support either hypothesis, along with publication bias and methodological issues make conclusions difficult. Lithium remains the 'gold standard' for the prophylaxis of bipolar illness, however, our review suggests that there is a rare possibility of a neurotoxic effect in real-life clinical practice even in closely monitored patients with 'therapeutic' lithium plasma levels. It is desirable to keep lithium blood levels as low as feasible with prophylaxis.
Resumo:
The paper deals with the development and application of the methodology for automatic mapping of pollution/contamination data. General Regression Neural Network (GRNN) is considered in detail and is proposed as an efficient tool to solve this problem. The automatic tuning of isotropic and an anisotropic GRNN model using cross-validation procedure is presented. Results are compared with k-nearest-neighbours interpolation algorithm using independent validation data set. Quality of mapping is controlled by the analysis of raw data and the residuals using variography. Maps of probabilities of exceeding a given decision level and ?thick? isoline visualization of the uncertainties are presented as examples of decision-oriented mapping. Real case study is based on mapping of radioactively contaminated territories.
Resumo:
Työn tavoitteena oli kehittää automaattinen optimointijärjestelmä energiayhtiön omistamaan pieneen sähkön- ja lämmöntuotantolaitokseen (CHP-laitos). Optimointitarve perustuu energiayhtiön sähkön hankintaan sähköpörssistä, kaasun hankintahintaan, kohteen paikallisiin sähkö- ja lämpökuormituksiin ja muihin laitoksen talouteen vaikuttaviin tekijöihin. Kehitettävällä optimointijärjestelmällä ontarkoitus tulevaisuudessa hallita useita hajautetun energiantuotannon yksiköitäkeskitetysti. Työssä kehitettiin algoritmi, joka optimoi voimalaitoksen taloutta sähkötehoa säätävillä ajomalleilla ja suoralla sähköteho-ohjeella. Työssä kehitetyn algoritmin tuottamia hyötyjä selvitettiin Harjun oppimiskeskuksen CHP-laitoksen mittaushistoriatiedoilla. CHP-laitosten käytön optimointiin luotiin keskitettyyn laskentaan ja hajautettuun ohjaukseen perustuva järjestelmä. Se ohjaa CHP-laitoksia reaaliaikaisesti ja ennustaa historiatietoihin perustuvalla aikasarjamallilla laitoksen tulevaa käyttöä. Optimointijärjestelmän toimivuus ja saatu hyöty selvitettiin Harjun oppimiskeskuksen CHP-laitoksella vertaamalla mittauksista laskettua toteutunutta hyötyä optimointijärjestelmän laskemaan ennustettuun hyötyyn.
Resumo:
Tutkimuksen tavoitteena on selvittää kansainvälisiin tilinpäätösstandardeihin siirtymisen vaikutuksia epäsymmetriseen informaatioon Suomen osake-markkinoilla. Suomalaisten tilinpäätöskäytäntöjen ja kansainvälisten standardien eroja on selvitetty ensin laadullisin menetelmin,jonka jälkeen on tehty asymmetrisen informaation markkinapohjaisiin mittareihinperustuva kvantitatiivinen tutkimus. Yleisiin eroavaisuuksiin liittyvän selvityksen lisäksi on tutkittu erikseen erityisesti standardimuutoksen vaikutusta älylliseen pääomaan liittyvään informaation asymmetriaan. Empiirisessä osiossa älyllisen pääoman epäsuoraksi mitaksi on valittu kehitys- ja tutkimusmenojen suhde taseen loppusummaan. Kuten oletus oli, sekä laadullisen että empiirisen osion tulokset viittaavat siihen, että IFRS:n myötä informaatioympäristö on parantunut. Uudet standardit vaativat laajempaa ja tarkempaa informaation julkaisua liittyen älylliseen pääomaan, mikä ei ole kuitenkaan havaittavissa valituissa mittareissa
Resumo:
This work is devoted to the problem of reconstructing the basis weight structure at paper web with black{box techniques. The data that is analyzed comes from a real paper machine and is collected by an o®-line scanner. The principal mathematical tool used in this work is Autoregressive Moving Average (ARMA) modelling. When coupled with the Discrete Fourier Transform (DFT), it gives a very flexible and interesting tool for analyzing properties of the paper web. Both ARMA and DFT are independently used to represent the given signal in a simplified version of our algorithm, but the final goal is to combine the two together. Ljung-Box Q-statistic lack-of-fit test combined with the Root Mean Squared Error coefficient gives a tool to separate significant signals from noise.
Resumo:
Ympäristöministeriö edellyttää kaikilta vuoden 2000 jälkeen valmistuneilta tai peruskorjatuilta asuinkiinteistöiltä huoltokirjaa. Huoltokirja on kiinteistön ylläpitoon liittyvä asiakirjakokonaisuus, johon kootaan kaikki tarvittavat tiedot kiinteistöstä ja sen hoidosta. Tämän diplomityön tavoitteena oli toteuttaa sähköinen huoltokirjajärjestelmä asuinkiinteistöille. Järjestelmän haluttiin palvelevan isännöitsijöiden ja huoltoyhtiöiden lisäksi myös kiinteistön omistajia, asukkaita, rakennuttajia ja kiinteistön välittäjiä. Tästä syystä järjestelmästä haluttiin Internet-selaimella käytettävä verkkopalvelu. Diplomityöhön kuului järjestelmän suunnittelu, toteutus ja testaus. Työn lopputuloksena syntynyt Pihapiiri.com järjestelmä otettiin käyttöön syksyllä 2002. Projektin aikanahavaittiin, että huoltokirjoja koskevat määrittelyt ja standardit olivat vasta kehitteillä. e-EHYT-hanke (elinkaarihallinnan yhteiset ydintie dot sähköisissä huoltokirjoissa) on merkittävä edistysaskel huoltokirjajärjestelmien sisällön ja tiedonsiirron standardoinnissa. Uusissa tuotekehityshankkeissa ja nykyisten huoltokirjajärjestelmien jatkokehityshankkeissa on olennaista huomioida e-EHYT-määritysten sekä yhteistyöverkoston merkitys. Käyttäjät ovat kritisoineet markkinoilla olevia tuotteita liian tarkoiksi. Liian teknisiä ja raskaita ratkaisuja tulee välttää varsinkin silloin kun tuotetta suunnitellaan asunto-osakeyhtiöille ja pientalo-omistajille.
Resumo:
Tässä työssä tarkastellaan keinoja ja tekniikoita, joilla Ethernet-standardin mukainen tiedonsiirtoliikenne voidaan implementoida teollisuudessa kenttälaitetasolle. Työn on tilannut Suomen johtava sähkötukkuliike SLO Oy, joka on kiinnostunut automaatioalan tilanteesta ja tulevaisuuden näkymistä. Työssä käydään läpi Ethernet-tekniikan perusteet, ja sen soveltaminen teollisuudessa kenttäväylänä, sekä muussa automaatiossa. Lisäksi katsotaan läpi tärkeimmät Ethernet-kenttäväyläprotokollat ja menetelmät, joilla Ethernet-tekniikka saadaan vastaamaan teollisuuden vaatimuksiin reaaliaikaisuuden ja deterministisyyden osalta. Työssä haastatellaan muutamia suunnittelutoimistoja, asennusliikkeitä, sekä kahta teollisuuden loppuasiakasta. Näiden haastattelujen, sekä kansainvälisen markkinatutkimuksen pohjalta tarkastellaan alan markkinatilannetta ja toimintamalleja, sekä laaditaan SLO:lle SWOT-analyysi. Analyysin pohjalta tehdään johtopäätöksiä SLO:n toiminnan mahdollisesta laajentamisesta. Tuloksena on kattava selvitys Ethernet-teollisuusautomaatiosta ja Ethernet-tekniikan hyödyntämisestä teollisuudessa yleensäkin. SLO:n kannalta mielenkiintoisimpia vaihtoehtoja ovat Profinet ja EtherCAT-järjestelmät, jotka voisivat olla sopivia SLO:n tuotevalikoimaan.
Resumo:
Diplomityön tutkimusfunktio käsittelee toimeksiantajan, Stora Enso Timber Oy Ltd Kotkan sahan, sahalinjan optimointikokonaisuuden relevanttia ongelmakenttää. Tutkimuksen alussa profiloivan sahalinjan tukinpyörityksen, pelkan sivuttaissiirron tai sivulautaoptimoinnin toimivuudesta ei ollut varmuutta. Työn painopistealue on sivulautaoptimointi, jonka toimivuus tutkimuksen alussa on hyvin kyseenalaista tuotantoajossa. Työn tavoitteet kiteytyvät paremman raaka-aineen käyttösuhteen saavuttamiselle, jolloin pitkän aikajänteen kannattavuus on realistisempaa saavuttaa. Kotkan sahalinjan optimointijärjestelmässä on kokonaisuudessaan saavutettu tuotantoajoon hyväksyttävä taso. Tukinpyörityksen tarkkuudessa saavutettiin asetettu tavoite, eli 90 % pyöritystuloksista menee virheikkunaan ± 10° , sekä virheen keskiarvon itseisarvo jasen ympärillä olevan hajonnan summa on maksimissaan 10° . Pelkan sivuttaissiirto todettiin tutkimuksessa sekundääriseksi optimointijärjestelmäksi. Ohjaus perustuu tukkimittarin mittaamaan dataan, jolloin tukinpyörityksen hajonta aiheuttaa epätarkkuutta pelkan suuntauksessa. Pelkan sivuttaisiirron käyttäminen vaatii lisämittauksia, jolloin voidaan varmistua pelkan suuntauksen optimoinnin toimivuudesta. Sivulautaoptimoinnin toimivuuden kehittämisessä saavutettiin se taso, missä todellista kehitystyötä voidaan tehdä. Koeajoissa ja optimointiohjelman tarkastamisessa havaittiin periaatteellisia virheitä, jotka korjattiin. Toimivan sivulautaoptimoinnin myötä on mahdollista hallita paremmin tuotannonohjaus, jolloin tuotanto voidaan etenkin sivulautojen osalta kohdentaa paremmin vastaamaan kysyntää sekä asete-erän hyvää käyttösuhdetta. Raaka-aineen käyttösuhde on parantunut. Yksittäisten asetevertailujen sekä esimerkkilaskelmien perusteella tuottopotentiaali tukinpyörityksen ja sivulautaoptimoinnin osalta on 0,6...1,5 MEUR Välillinen tuottopotentiaali on suurempi, koska tuotantoprosessi sahauksen osalta on erittäin joustava markkinoiden tarpeen muutoksille. Sahalinjalla on mahdollista tuottaa helposti laajalla tukkisumalla laajaa tuotematriisia, jossa sivulautaoptimoinnilla on avainrooli. Tuotannonsuunnittelufunktiota tulee kehittää vastaamaan mahdollisuuksiin,joita sivulautaoptimointi tarjoaa. Tuotematriisi ja sitä vastaavat asetteet lankeavalla tukkisumalla tulee rakentaa uudestaan niiltä osin, joihin sivulautaoptimointi antaa variaatiomahdollisuuksia.