58 resultados para Rating tool
Resumo:
Euroopan energiamarkkinat ovat olleet viimeisen kymmenen vuoden aikana suurten muutosten alla. Markkinoiden kehitys on ollut huomattavaa myös Iso-Britanniassa, jossa sähkö- ja kaasumarkkinat ovat olleet avoinna kilpailulle jo muutamia vuosia. Ennen markkinoiden avautumista energiyhtiöt pystyivät siirtämään kaikki riskit suoraan asiakkaan kannettaviksi. Markkinoiden avautumisen myötä lisääntynyt kilpailu on kuitenkin pakottanut energiayhtiöitä ajanmukaistamaan näkemyksiään riskeistä. Riskitekijät, joista ei aiemmin tarvinnut välittää, on nyt pystyttävä tunnistamaan ja hallitsemaan. Tämä työ keskittyy hinta- ja volyymiriskien hallintaan. Rahoitusmarkkinoilla pitkään käytettyjä riskienhallintatyökaluja on otettu käyttöön myös energiamarkkinoilla. Energiamarkkinoiden piirteet poikkeavat kuitenkin rahoitusmarkkinoista, eikä näitä työkaluja voida ottaa käyttöön muutoksitta. Silti, jopa muutosten jälkeen rahoitusmarkkinoiden riskienhallitavälineet aliarvioivat energiamarkkinoiden hinta- ja volyymiriskejä. Tässä yhteydessä työssä esitetään Profit at Risk, PaR. PaR on skenaariopohjainen riskienhallinnan työkalu, joka on kehitetty erityisesti energiamarkkinoille ja täten huomioi niiden erikoispiirteet. Työn rungon muodostavat energiamarkkinoiden käyttäytyminen, hinta- ja volyymiriskitekijät sekä pohdinta miten hinta- ja volyymiriskeiltä voidaan suojautua ja miten niitä voidaan hallita. PaR-metodologiaa verrataan perinteisiin riskienhallintamenetelmiin ja työn tavoitteena on tuoda esiin ne tekijät, joiden ansiosta PaR on sopivampi työkalu energiamarkkinoiden riskienhallintaan kuin perinteiset menetelmät. Käytännön esimerkkinä työssä toimii Fortum Energy plus’n PaR –malli. Koska PaR on kehitetty erityisesti energiamarkkinoille, se huomioi täysin markkinoiden aiheuttamat hinta- ja volyymiriskit. Käytännön esimerkki kuitenkin osoittaa, että PaR menetelmästä ei ole riskienhallinnallista hyötyä ellei työkalun käyttäjällä ole täydellistä tietämystä niin energiamarkkinoista kuin markkinoiden muutoksiin vaikuttavien tekijöiden käyttäytymisestä.
Resumo:
Informaatiotulva ja organisaation monimutkaisuus luoneet tarpeen tietämyksen hallinnalle. Tämän tutkimuksen tavoitteena on tunnistaa muutostarpeet, jotka portaalin käyttöönotto tietämyksenhallintatyökaluna luo. Tutkimuksessa verrataan myös uusia työkaluja olemassa oleviin sekä arvioidaan organisaation kykyä siirtää tietämystä virtuaalisesti. Kirjallisuutta vastaavanlaisista projekteista ei ole ollut saatavilla, sillä käyttöönotettava teknologia on melko uutta. Samaa teknologiaa on käytössä hieman eri alueella, kuin tässä projektissa on tavoitteena. Tutkimus on tapaustutkimus, jonka pääasialliset lähteet ovat erilaisissa kokouksissa tuotettuja dokumentteja. Tutkija on osallistunut aktiivisesti projektityöhön, joten osa taustatiedoista perustuu tutkijan huomioihin sekä vielä keskusteluihin. Teoriaosassa käsitellään tietämyksen jakamista tietämyksen hallinnan ja virtuaalisuuden näkökulmasta. Muutoksen hallintaa on käsitelty lyhyesti tietämyksenhallintatyökalun käyttöönotossa. Tutkimus liittyy Stora Enso Consumer Boardsin tietämyksen hallintaprojektiin.
Resumo:
Nopea teknologian kehitys sekä kansainvälistymisen mukana tuoma kilpailupaine pakottavat yritykset jatkuvaan liiketoimintaprosessien kehittämiseen. Muutoksista organisaation rakenteissa sekä yrityksen prosesseissa on tullut yleisiä toimenpiteitä. Yksi näkyvimmistä toiminnallisista uudistuksesta on ollut toiminnanohjausjärjestelmän käyttöönotto. Toiminnanohjausjärjestelmän rakenne ja kehitys aiheuttaa yleensä suurimmat vaikeudet pyrittäessä rakentamaan liiketoimintaprosessien läpinäkyvyyttä esittävä tietojärjestelmäympäristö. Tässä tutkimuksessa liiketoiminnan sekä toiminnanohjausjärjestelmän prosessien yhdistäminen on tehty ns. toiminnanohjausjärjestelmä muutostyökaluilla. Kyseiset muutostyökalut on järjestetty yrityksissä tietojärjestelmä ympäristöön ja niiden avulla voidaan korjata teknisiä ongelmia sekä muuttaa itse prosesseja. Tutkimuksen empiria osuudessa on käytetty case-tutkimusmenetelmää Kone Oyj:n prosessien kehittämisosastolla. Tutkimuksen tavoitteena oli parantaa toiminnanohjausjärjestelmän muutostyökalujen prosesseja, liiketoimintaprosessien sekä toiminnanohjausjärjestelmän yhdistämiseksi ja harmonisoimiseksi. Tutkimuksen tavoitteiden täyttämiseksi, prosessijohtamisen käsitteitä käytettiin muutostyökaluprosessien parannusehdotusten löytymiseksi. Prosessijohtamisen käsitteet tarkoittavat prosessikartan, prosessin toimintojen, sekä prosessin kustannusten tutkimista ja hyväksikäyttöä. Prosessijohtamisen käsitteeseen kuuluu myös liiketoimintaprosessien jatkuvan parantamisen sekä uudelleenjärjestämisen mallien kuvaus. Toiminnanohjausjärjestelmäympäristön kuvaus teorian toisena osuutena antaa pohjaa muutostyökalujen prosessien käytölle. Tutkimuksen tuloksina voidaan todeta että tutkimusalue on hyvin monimutkainen ja vaikea. Toimintajärjestelmistä ei ole kirjoitettu teoriaa kovinkaan runsaasti, lukuunottamatta yritysten itse tekemiä tutkimuksia. Tutkimuksessa tarkasteltaville prosesseille löytyi kuitenkin parannusehdotuksia sekä ns. optimaalisen prosessimallin ominaisuuksia.
Resumo:
Työssä testataan radikaalien teknologioiden liiketoimintariskien evaluointityökalua. Työn teoreettinen tausta koostuu teknologia- ja innovaatioteorioista hyödyntäen myös resurssipohjaista yritysteoriaa täydennettynä evolutionäärisellä teorialla. Teoreettisessa osuudessa rakennetaan viitekehys, jolla liiketoimintariskejä voidaan arvioida ja muodostaa riskiprofiili. Liiketoimintariskien muuttujina ovat markkina-, teknologia- ja organisaatioriskit. Primäärisenä tietolähteenä käytettiin teema- ja strukturoituja haastatteluita. Ensimmäinen haastattelu käsitti evaluointityökalun käytettävyyttä ja riskienhallintaa yleensä. Loput haastattelut liittyivät teknologian A ja teknologian B liiketoimintariskien arvioimiseen. Tulokset osoittavat molemmat teknologiat sisältävän radikaaleille teknologioille ominaisia epävarmuustekijöitä. Riskiprofiilin hyödyllisyys liittyy liiketoimintariskien samanaikaiseen havaitsemiseen auttaen näin päätöksenteossa. Tärkeää evaluoinnissa on kiinnittää huomiota näkökulmaan, josta riskejä tarkastellaan riskiprofiilin validiteetin parantamiseksi.
Resumo:
Huolimatta korkeasta automaatioasteesta sorvausteollisuudessa, muutama keskeinen ongelma estää sorvauksen täydellisen automatisoinnin. Yksi näistä ongelmista on työkalun kuluminen. Tämä työ keskittyy toteuttamaan automaattisen järjestelmän kulumisen, erityisesti viistekulumisen, mittaukseen konenäön avulla. Kulumisen mittausjärjestelmä poistaa manuaalisen mittauksen tarpeen ja minimoi ajan, joka käytetään työkalun kulumisen mittaukseen. Mittauksen lisäksi tutkitaan kulumisen mallinnusta sekä ennustamista. Automaattinen mittausjärjestelmä sijoitettiin sorvin sisälle ja järjestelmä integroitiin onnistuneesti ulkopuolisten järjestelmien kanssa. Tehdyt kokeet osoittivat, että mittausjärjestelmä kykenee mittaamaan työkalun kulumisen järjestelmän oikeassa ympäristössä. Mittausjärjestelmä pystyy myös kestämään häiriöitä, jotka ovat konenäköjärjestelmille yleisiä. Työkalun kulumista mallinnusta tutkittiin useilla eri menetelmillä. Näihin kuuluivat muiden muassa neuroverkot ja tukivektoriregressio. Kokeet osoittivat, että tutkitut mallit pystyivät ennustamaan työkalun kulumisasteen käytetyn ajan perusteella. Parhaan tuloksen antoivat neuroverkot Bayesiläisellä regularisoinnilla.
Resumo:
COD discharges out of processes have increased in line with elevating brightness demands for mechanical pulp and papers. The share of lignin-like substances in COD discharges is on average 75%. In this thesis, a plant dynamic model was created and validated as a means to predict COD loading and discharges out of a mill. The assays were carried out in one paper mill integrate producing mechanical printing papers. The objective in the modeling of plant dynamics was to predict day averages of COD load and discharges out of mills. This means that online data, like 1) the level of large storage towers of pulp and white water 2) pulp dosages, 3) production rates and 4) internal white water flows and discharges were used to create transients into the balances of solids and white water, referred to as “plant dynamics”. A conversion coefficient was verified between TOC and COD. The conversion coefficient was used for predicting the flows from TOC to COD to the waste water treatment plant. The COD load was modeled with similar uncertainty as in reference TOC sampling. The water balance of waste water treatment was validated by the reference concentration of COD. The difference of COD predictions against references was within the same deviation of TOC-predictions. The modeled yield losses and retention values of TOC in pulping and bleaching processes and the modeled fixing of colloidal TOC to solids between the pulping plant and the aeration basin in the waste water treatment plant were similar to references presented in literature. The valid water balances of the waste water treatment plant and the reduction model of lignin-like substances produced a valid prediction of COD discharges out of the mill. A 30% increase in the release of lignin-like substances in the form of production problems was observed in pulping and bleaching processes. The same increase was observed in COD discharges out of waste water treatment. In the prediction of annual COD discharge, it was noticed that the reduction of lignin has a wide deviation from year to year and from one mill to another. This made it difficult to compare the parameters of COD discharges validated in plant dynamic simulation with another mill producing mechanical printing papers. However, a trend of moving from unbleached towards high-brightness TMP in COD discharges was valid.
Resumo:
An optimization tool has been developed to help companies to optimize their production cycles and thus improve their overall supply chain management processes. The application combines the functionality that traditional APS (Advanced Planning System) and ARP (Automatic Replenishment Program) systems provide into one optimization run. A qualitative study was organized to investigate opportunities to expand the product’s market base. Twelve personal interviews were conducted and the results were collected in industry specific production planning analyses. Five process industries were analyzed to identify the product’s suitability to each industry sector and the most important product development areas. Based on the research the paper and the plastic film industries remain the most potential industry sectors at this point. To be successful in other industry sectors some product enhancements would be required, including capabilities to optimize multiple sequential and parallel production cycles, handle sequencing of complex finishing operations and to include master planning capabilities to support overall supply chain optimization. In product sales and marketing processes the key to success is to find and reach the people who are involved directly with the problems that the optimization tool can help to solve.
Resumo:
The aim of this research was to investigate Tikkurila Oyj's Vantaa factories' current status in procurement and to develop the reporting of purchases and purchase warehouses, and to measure the activities during the implementation of the new purchasing tool. The implemented purchasing tool was based on ABC-analysis. Based on its reports the importance of performance measurements for the operations of the company, and the purpose of getting transparency to the company's supply chain on the part of purchasing were examined. A successful purchase- and material operation calls for accurate knowledge and professional skills. The research proved that with a separate purchasing tool, that analyses the existing information of the company's production management system, it is possible to get added value to whole supply chain's needs. The analyses and reports of the purchasing tool enable a more harmonized purchasing process at the operative level, and create a basis for internal targets and to their follow-up. At the same time the analyses clarify the current status and development trends of procurement fresh to the management. The increase of the possibilities of exploitation of information technology enables a perfect transparency to the case company's purchase department.
Resumo:
The environmental challenges of plastic packaging industry have increased remarkably along with climate change debate. The interest to study carbon footprints of packaging has increased in packaging industry to find out the real climate change impacts of packaging. In this thesis the greenhouse gas discharges of plastic packaging during their life cycle is examined. The carbon footprint is calculated for food packaging manufactured from plastic laminate. The structure of the laminate is low density polyethylene (PE-LD) and oriented polypropylene (OPP), which have been joined together with laminating adhesive. The purpose is to find out the possibilities to create a carbon footprint calculating tool for plastic packaging and its usability in a plastic packaging manufacturing company. As a carbon footprint calculating method PAS 2050 standard has been used. In the calculations direct and indirect greenhouse gas discharges as well as avoided discharges are considered. Avoided discharges are born for example in packaging waste utilization as energy. The results of the calculations have been used to create a simple calculating tool to be used for similar laminate structures. Although the utilization of the calculating tool is limited to one manufacturing plant because the primary activity data is dependent of geographical location and for example the discharges of used energy in the plant. The results give an approximation of the climate change potential caused by the laminate. It is although noticed that calculations do not include all environmental impacts of plastic packaging´s life cycle.
Resumo:
The development of software tools begun as the first computers were built. The current generation of development environments offers a common interface to access multiple software tools and often also provide a possibility to build custom tools as extensions to the existing development environment. Eclipse is an open source development environment that offers good starting point for developing custom extensions. This thesis presents a software tool to aid the development of context-aware applications on Multi-User Publishing Environment (MUPE) platform. The tool is implemented as an Eclipse plug-in. The tool allows developer to include external server side contexts to their MUPE applications. The tool allows additional context sources to be added through the Eclipse's extension point mechanism. The thesis describes how the tool was designed and implemented. The implementation consists of tool core component part and an additional context source extension part. Tool core component is responsible for the actual context addition and also provides the needed user interface elements to the Eclipse workbench. Context source component provides the needed context source related information to the core component. As part of the work an update site feature was also implemented for distributing the tool through Eclipse update mechanism.
Resumo:
The development of correct programs is a core problem in computer science. Although formal verification methods for establishing correctness with mathematical rigor are available, programmers often find these difficult to put into practice. One hurdle is deriving the loop invariants and proving that the code maintains them. So called correct-by-construction methods aim to alleviate this issue by integrating verification into the programming workflow. Invariant-based programming is a practical correct-by-construction method in which the programmer first establishes the invariant structure, and then incrementally extends the program in steps of adding code and proving after each addition that the code is consistent with the invariants. In this way, the program is kept internally consistent throughout its development, and the construction of the correctness arguments (proofs) becomes an integral part of the programming workflow. A characteristic of the approach is that programs are described as invariant diagrams, a graphical notation similar to the state charts familiar to programmers. Invariant-based programming is a new method that has not been evaluated in large scale studies yet. The most important prerequisite for feasibility on a larger scale is a high degree of automation. The goal of the Socos project has been to build tools to assist the construction and verification of programs using the method. This thesis describes the implementation and evaluation of a prototype tool in the context of the Socos project. The tool supports the drawing of the diagrams, automatic derivation and discharging of verification conditions, and interactive proofs. It is used to develop programs that are correct by construction. The tool consists of a diagrammatic environment connected to a verification condition generator and an existing state-of-the-art theorem prover. Its core is a semantics for translating diagrams into verification conditions, which are sent to the underlying theorem prover. We describe a concrete method for 1) deriving sufficient conditions for total correctness of an invariant diagram; 2) sending the conditions to the theorem prover for simplification; and 3) reporting the results of the simplification to the programmer in a way that is consistent with the invariantbased programming workflow and that allows errors in the program specification to be efficiently detected. The tool uses an efficient automatic proof strategy to prove as many conditions as possible automatically and lets the remaining conditions be proved interactively. The tool is based on the verification system PVS and i uses the SMT (Satisfiability Modulo Theories) solver Yices as a catch-all decision procedure. Conditions that were not discharged automatically may be proved interactively using the PVS proof assistant. The programming workflow is very similar to the process by which a mathematical theory is developed inside a computer supported theorem prover environment such as PVS. The programmer reduces a large verification problem with the aid of the tool into a set of smaller problems (lemmas), and he can substantially improve the degree of proof automation by developing specialized background theories and proof strategies to support the specification and verification of a specific class of programs. We demonstrate this workflow by describing in detail the construction of a verified sorting algorithm. Tool-supported verification often has little to no presence in computer science (CS) curricula. Furthermore, program verification is frequently introduced as an advanced and purely theoretical topic that is not connected to the workflow taught in the early and practically oriented programming courses. Our hypothesis is that verification could be introduced early in the CS education, and that verification tools could be used in the classroom to support the teaching of formal methods. A prototype of Socos has been used in a course at Åbo Akademi University targeted at first and second year undergraduate students. We evaluate the use of Socos in the course as part of a case study carried out in 2007.
Resumo:
Tämän tutkimusraportin suomenkielinen versio on osoitteessa: http://urn.fi/URN:ISBN:978-951-29-4509-2