43 resultados para cutting stock problem with setups
Resumo:
The aim of the research was to evaluate the suitability of small-size pine as a raw material for glueboard. A further aim was to investigate claims that dead knots and the twisting of the heartwood cause, quality problems in the but of the small-size pine. The theoretical framework of the study details the whole manufacturing process from raw material to the finished article; the description of the qualities of raw material, the sawing and drying processes as well as the making of the glueboard. The solve the research problem the following figures were calculated: amount of small-size pines, the yield and quality of sawn timber which can be used for making glueboard as well as the variables which affect the various stages of the process. The results show that about half of the timber from the thinning process was suitable material for sawing. The most common problem with the unsuitable timber was form defects of the stem. The average usage ratio of sawing was 2,31 k-m3/m3. 87,97 % of the sawn timber could be used for the production of glueboard. The unsuitability of sawn timber for making glueboard was mainly caused by breakage and the twisting of the heartwood. Dead knots were small and did not effect the quality of the but of the small-size pine. It can therefore be concluded that small-size pine is suitable raw material for glueboard.
Resumo:
A model to solve heat and mass balances during the offdesign load calculations was created. These equations are complex and nonlinear. The main new ideas used in the created offdesign model of a kraft recovery boiler are the use of heat flows as torn iteration variables instead of the current practice of using the mass flows, vectorizing equation solving, thus speeding up the process, using non dimensional variables for solving the multiple heat transfer surface problem and using a new procedure for calculating pressure losses. Recovery boiler heat and mass balances are reduced to vector form. It is shown that these vectorized equations can be solved virtually without iteration. The iteration speed is enhanced by the use of the derived method of calculating multiple heat transfer surfaces simultaneously. To achieve this quick convergence the heat flows were used as the torn iteration parameters. A new method to handle pressure loss calculations with linearization was presented. This method enabled less time to be spent calculating pressure losses. The derived vector representation of the steam generator was used to calculate offdesign operation parameters for a 3000 tds/d example recovery boiler. The model was used to study recovery boiler part load operation and the effect of the black liquor dry solids increase on recovery boiler dimensioning. Heat flows to surface elements for part load calculations can be closely approximated with a previously defined exponent function. The exponential method can be used for the prediction of fouling in kraft recovery boilers. For similar furnaces the firing of 80 % dry solids liquor produces lower hearth heat release rate than the 65 % dry solids liquor if we fire at constant steam flow. The furnace outlet temperatures show that capacity increase with firing rate increase produces higher loadings than capacity increase with dry solids increase. The economizers, boiler banks and furnaces can be dimensioned smaller if we increase the black liquor dry solids content. The main problem with increased black liquor dry solids content is the decrease in the heat available to superheat. Whenever possible the furnace exit temperature should be increased by decreasing the furnace height. The increase in the furnace exit temperature is usually opposed because of fear of increased corrosion.
Resumo:
Genetic diversity is one of the levels of biodiversity that the World Conservation Union (IUCN) has recognized as being important to preserve. This is because genetic diversity is fundamental to the future evolution and to the adaptive flexibility of a species to respond to the inherently dynamic nature of the natural world. Therefore, the key to maintaining biodiversity and healthy ecosystems is to identify, monitor and maintain locally-adapted populations, along with their unique gene pools, upon which future adaptation depends. Thus, conservation genetics deals with the genetic factors that affect extinction risk and the genetic management regimes required to minimize the risk. The conservation of exploited species, such as salmonid fishes, is particularly challenging due to the conflicts between different interest groups. In this thesis, I conduct a series of conservation genetic studies on primarily Finnish populations of two salmonid fish species (European grayling, Thymallus thymallus, and lake-run brown trout, Salmo trutta) which are popular recreational game fishes in Finland. The general aim of these studies was to apply and develop population genetic approaches to assist conservation and sustainable harvest of these populations. The approaches applied included: i) the characterization of population genetic structure at national and local scales; ii) the identification of management units and the prioritization of populations for conservation based on evolutionary forces shaping indigenous gene pools; iii) the detection of population declines and the testing of the assumptions underlying these tests; and iv) the evaluation of the contribution of natural populations to a mixed stock fishery. Based on microsatellite analyses, clear genetic structuring of exploited Finnish grayling and brown trout populations was detected at both national and local scales. Finnish grayling were clustered into three genetically distinct groups, corresponding to northern, Baltic and south-eastern geographic areas of Finland. The genetic differentiation among and within population groups of grayling ranged from moderate to high levels. Such strong genetic structuring combined with low genetic diversity strongly indicates that genetic drift plays a major role in the evolution of grayling populations. Further analyses of European grayling covering the majority of the species’ distribution range indicated a strong global footprint of population decline. Using a coalescent approach the beginning of population reduction was dated back to 1 000-10 000 years ago (ca. 200-2 000 generations). Forward simulations demonstrated that the bottleneck footprints measured using the M ratio can persist within small populations much longer than previously anticipated in the face of low levels of gene flow. In contrast to the M ratio, two alternative methods for genetic bottleneck detection identified recent bottlenecks in six grayling populations that warrant future monitoring. Consistent with the predominant role of random genetic drift, the effective population size (Ne) estimates of all grayling populations were very low with the majority of Ne estimates below 50. Taken together, highly structured local populations, limited gene flow and the small Ne of grayling populations indicates that grayling populations are vulnerable to overexploitation and, hence, monitoring and careful management using the precautionary principles is required not only in Finland but throughout Europe. Population genetic analyses of lake-run brown trout populations in the Inari basin (northernmost Finland) revealed hierarchical population structure where individual populations were clustered into three population groups largely corresponding to different geographic regions of the basin. Similar to my earlier work with European grayling, the genetic differentiation among and within population groups of lake-run brown trout was relatively high. Such strong differentiation indicated that the power to determine the relative contribution of populations in mixed fisheries should be relatively high. Consistent with these expectations, high accuracy and precision in mixed stock analysis (MSA) simulations were observed. Application of MSA to indigenous fish caught in the Inari basin identified altogether twelve populations that contributed significantly to mixed stock fisheries with the Ivalojoki river system being the major contributor (70%) to the total catch. When the contribution of wild trout populations to the fisheries was evaluated regionally, geographically nearby populations were the main contributors to the local catches. MSA also revealed a clear separation between the lower and upper reaches of Ivalojoki river system – in contrast to lower reaches of the Ivalojoki river that contributed considerably to the catch, populations from the upper reaches of the Ivalojoki river system (>140 km from the river mouth) did not contribute significantly to the fishery. This could be related to the available habitat size but also associated with a resident type life history and increased cost of migration. The studies in my thesis highlight the importance of dense sampling and wide population coverage at the scale being studied and also demonstrate the importance of critical evaluation of the underlying assumptions of the population genetic models and methods used. These results have important implications for conservation and sustainable fisheries management of Finnish populations of European grayling and brown trout in the Inari basin.
Resumo:
Suomenlahden lisääntynyt meriliikenne on herättänyt huolta meriliikenteen turvallisuuden tasosta, ja erityisesti Venäjän öljyviennin kasvu on lisännyt öljyonnettomuuden todennäköisyyttä Suomenlahdella. Erilaiset kansainväliset, alueelliset ja kansalliset ohjauskeinot pyrkivät vähentämään merionnettomuuden riskiä ja meriliikenteen muita haittavaikutuksia. Tämä raportti käsittelee meriturvallisuuden yhteiskunnallisia ohjauskeinoja: ohjauskeinoja yleisellä tasolla, meriturvallisuuden keskeisimpiä säätelijöitä, meriturvallisuuden ohjauskeinoja ja meriturvallisuuspolitiikan tulevaisuuden näkymiä, ohjauskeinojen tehokkuutta ja nykyisen meriturvallisuuden ohjausjärjestelmän heikkouksia. Raportti on kirjallisuuskatsaus meriturvallisuuden yhteiskunnalliseen sääntelyn rakenteeseen ja tilaan erityisesti Suomenlahden meriliikenteen näkökulmasta. Raportti on osa tutkimusprojektia ”SAFGOF - Suomenlahden meriliikenteen kasvunäkymät 2007 - 2015 ja kasvun vaikutukset ympäristölle ja kuljetusketjujen toimintaan” ja sen työpakettia 6 ”Keskeisimmät riskit ja yhteiskunnalliset vaikutuskeinot”. Yhteiskunnalliset ohjauskeinot voidaan ryhmitellä hallinnollisiin, taloudellisiin ja tietoohjaukseen perustuviin ohjauskeinoihin. Meriturvallisuuden edistämisessä käytetään kaikkia näitä, mutta hallinnolliset ohjauskeinot ovat tärkeimmässä asemassa. Merenkulun kansainvälisen luonteen vuoksi meriturvallisuuden sääntely tapahtuu pääosin kansainvälisellä tasolla YK:n ja erityisesti Kansainvälisen merenkulkujärjestön (IMO) toimesta. Lisäksi myös Euroopan Unionilla on omaa meriturvallisuuteen liittyvää sääntelyä ja on myös olemassa muita alueellisia meriturvallisuuden edistämiseen liittyviä elimiä kuten HELCOM. Joitakin meriturvallisuuden osa-alueita säädellään myös kansallisella tasolla. Hallinnolliset meriturvallisuuden ohjauskeinot sisältävät aluksen rakenteisiin ja varustukseen, alusten kunnon valvontaan, merimiehiin ja merityön tekemiseen sekä navigointiin liittyviä ohjauskeinoja. Taloudellisiin ohjauskeinoihin kuuluvat esimerkiksi väylä- ja satamamaksut, merivakuutukset, P&I klubit, vastuullisuus- ja korvauskysymykset sekä taloudelliset kannustimet. Taloudellisten ohjauskeinojen käyttö meriturvallisuuden edistämiseen on melko vähäistä verrattuna hallinnollisten ohjauskeinojen käyttöön, mutta niitä voitaisiin varmasti käyttää enemmänkin. Ongelmana taloudellisten ohjauskeinojen käytössä on se, että ne kuuluvat pitkälti kansallisen sääntelyn piiriin, joten alueellisten tai kansainvälisten intressien edistäminen taloudellisilla ohjauskeinoilla voi olla hankalaa. Tieto-ohjaus perustuu toimijoiden vapaaehtoisuuteen ja yleisen tiedotuksen lisäksi tieto-ohjaukseen sisältyy esimerkiksi vapaaehtoinen koulutus, sertifiointi tai meriturvallisuuden edistämiseen tähtäävät palkinnot. Poliittisella tasolla meriliikenteen aiheuttamat turvallisuusriskit Suomenlahdella on otettu vakavasti ja paljon työtä tehdään eri tahoilla riskien minimoimiseksi. Uutta sääntelyä on odotettavissa etenkin liittyen meriliikenteen ympäristövaikutuksiin ja meriliikenteen ohjaukseen kuten meriliikenteen sähköisiin seurantajärjestelmiin. Myös inhimilliseen tekijän merkitykseen meriturvallisuuden kehittämisessä on kiinnitetty lisääntyvissä määrin huomiota, mutta inhimilliseen tekijän osalta tehokkaiden ohjauskeinojen kehittäminen näyttää olevan haasteellista. Yleisimmin lääkkeeksi esitetään koulutuksen kehittämistä. Kirjallisuudessa esitettyjen kriteereiden mukaan tehokkaiden ohjauskeinojen tulisi täyttää seuraavat vaatimukset: 1) tarkoituksenmukaisuus – ohjauskeinojen täytyy olla sopivia asetetun tavoitteen saavuttamiseen, 2) taloudellinen tehokkuus – ohjauskeinon hyödyt vs. kustannukset tulisi olla tasapainossa, 3) hyväksyttävyys – ohjauskeinon täytyy olla hyväksyttävä asianosaisten ja myös laajemman yhteiskunnan näkökulmasta katsottuna, 4) toimeenpano – ohjauskeinon toimeenpanon pitää olla mahdollista ja sen noudattamista täytyy pystyä valvomaan, 5) lateraaliset vaikutukset – hyvällä ohjauskeinolla on positiivisia seurannaisvaikutuksia muutoinkin kuin vain ohjauskeinon ensisijaisten tavoitteiden saavuttaminen, 6) kannustin ja uuden luominen – hyvä ohjauskeino kannustaa kokeilemaan uusia ratkaisuja ja kehittämään toimintaa. Meriturvallisuutta koskevaa sääntelyä on paljon ja yleisesti ottaen merionnettomuuksien lukumäärä on ollut laskeva viime vuosikymmenien aikana. Suuri osa sääntelystä on ollut tehokasta ja parantanut turvallisuuden tasoa maailman merillä. Silti merionnettomuuksia ja muita vaarallisia tapahtumia sattuu edelleen. Nykyistä sääntelyjärjestelmää voidaan kritisoida monen asian suhteen. Kansainvälisen sääntelyn aikaansaaminen ei ole helppoa: prosessi on yleensä hidas ja tuloksena voi olla kompromissien kompromissi. Kansainvälinen sääntely on yleensä reaktiivista eli ongelmakohtiin puututaan vasta kun jokin onnettomuus tapahtuu sen sijaan että se olisi proaktiivista ja pyrkisi puuttumaan ongelmakohtiin jo ennen kuin jotain tapahtuu. IMO:n työskentely perustuu kansallisvaltioiden osallistumiseen ja sääntelyn toimeenpano tapahtuu lippuvaltioiden toimesta. Kansallisvaltiot ajavat IMO:ssa pääasiallisesti omia intressejään ja sääntelyn toimeenpanossa on suuria eroja lippuvaltioiden välillä. IMO:n kyvyttömyys puuttua havaittuihin ongelmiin nopeasti ja ottaa sääntelyssä huomioon paikallisia olosuhteita on johtanut siihen, että esimerkiksi Euroopan Unioni on alkanut itse säädellä meriturvallisuutta ja että on olemassa sellaisia alueellisia erityisjärjestelyjä kuin PSSA (particularly sensitive sea area – erityisen herkkä merialue). Merenkulkualalla toimii monenlaisia yrityksiä: toisaalta yrityksiä, jotka pyrkivät toimimaan turvallisesti ja kehittämään turvallisuutta vielä korkeammalle tasolle, ja toisaalta yrityksiä, jotka toimivat niin halvalla kuin mahdollista, eivät välitä turvallisuusseikoista, ja joilla usein on monimutkaiset ja epämääräiset omistusolosuhteet ja joita vahingon sattuessa on vaikea saada vastuuseen. Ongelma on, että kansainvälisellä merenkulkualalla kaikkien yritysten on toimittava samoilla markkinoilla. Vastuuttomien yritysten toiminnan mahdollistavat laivaajat ja muut alan toimijat, jotka suostuvat tekemään yhteistyötä niiden kanssa. Välinpitämätön suhtautuminen turvallisuuteen johtuu osaksi myös merenkulun vanhoillisesta turvallisuuskulttuurista. Verrattaessa meriturvallisuuden sääntelyjärjestelmää kokonaisuutena tehokkaiden ohjauskeinoihin kriteereihin, voidaan todeta, että monien kriteerien osalta nykyistä järjestelmää voidaan pitää tehokkaana ja onnistuneena. Suurimmat ongelmat lienevät sääntelyn toimeenpanossa ja ohjauskeinojen kustannustehokkuudessa. Lippuvaltioiden toimeenpanoon perustuva järjestelmä ei toimi toivotulla tavalla, josta mukavuuslippujen olemassa olo on selvin merkki. Ohjauskeinojen, sekä yksittäisten ohjauskeinojen että vertailtaessa eri ohjauskeinoja keskenään, kustannustehokkuutta on usein vaikea arvioida, minkä seurauksena ohjauskeinojen kustannustehokkuudesta ei ole saatavissa luotettavaa tietoa ja tuloksena voi olla, että ohjauskeino on käytännössä pienen riskin eliminoimista korkealla kustannuksella. Kansainvälisen tason meriturvallisuus- (ja merenkulku-) politiikan menettelytavoiksi on ehdotettu myös muita vaihtoehtoja kuin nykyinen järjestelmä, esimerkiksi monitasoista tai polysentristä hallintojärjestelmää. Monitasoisella hallintojärjestelmällä tarkoitetaan järjestelmää, jossa keskushallinto on hajautettu sekä vertikaalisesti alueellisille tasoille että horisontaalisesti ei-valtiollisille toimijoille. Polysentrinen hallintojärjestelmä menee vielä askeleen pidemmälle. Polysentrinen hallintojärjestelmä on hallintotapa, jonka puitteissa kaikentyyppiset toimijat, sekä yksityiset että julkiset, voivat osallistua hallintoon, siis esimerkiksi hallitukset, edunvalvontajärjestöt, kaupalliset yritykset jne. Kansainvälinen lainsäädäntö määrittelee yleiset tasot, mutta konkreettiset toimenpiteet voidaan päättää paikallisella tasolla eri toimijoiden välisessä yhteistyössä. Tämän tyyppisissä hallintojärjestelmissä merenkulkualan todellinen, kansainvälinen mutta toisaalta paikallinen, toimintaympäristö tulisi otetuksi paremmin huomioon kuin järjestelmässä, joka perustuu kansallisvaltioiden keskenään yhteistyössä tekemään sääntelyyn. Tällainen muutos meriturvallisuuden hallinnassa vaatisi kuitenkin suurta periaatteellista suunnanmuutosta, jollaisen toteutumista ei voi pitää kovin todennäköisenä ainakaan lyhyellä tähtäimellä.
Resumo:
This work is devoted to the development of numerical method to deal with convection diffusion dominated problem with reaction term, non - stiff chemical reaction and stiff chemical reaction. The technique is based on the unifying Eulerian - Lagrangian schemes (particle transport method) under the framework of operator splitting method. In the computational domain, the particle set is assigned to solve the convection reaction subproblem along the characteristic curves created by convective velocity. At each time step, convection, diffusion and reaction terms are solved separately by assuming that, each phenomenon occurs separately in a sequential fashion. Moreover, adaptivities and projection techniques are used to add particles in the regions of high gradients (steep fronts) and discontinuities and transfer a solution from particle set onto grid point respectively. The numerical results show that, the particle transport method has improved the solutions of CDR problems. Nevertheless, the method is time consumer when compared with other classical technique e.g., method of lines. Apart from this advantage, the particle transport method can be used to simulate problems that involve movingsteep/smooth fronts such as separation of two or more elements in the system.
Resumo:
Tämän tutkimuksen päätavoitteena oli luoda yleisellä tasolla teollisuuden kunnossapitopalveluille kustannusmalli käytännön päätöstilanteiden avuksi. Kustannusmallin tarkoitus oli, että sitä voidaan käyttää kaikissa päätöstilanteissa, joissa pyritään vaikuttamaan kunnossapidon aiheuttamiin kustannuksiin, joko kunnossapitopalveluiden tarjoajan tai asiakkaan tai molempien toimesta. Kustannusmalli eroaa perinteisistä kustannusmalleista näkökulmansa osalta. Aiemmin kehitetyissä teollisuuden kunnossapitopalveluiden kustannusmalleissa on esitetty palveluntarjoajan omat kustannukset tai asiakkaan kustannukset, mutta ei molempia kustannuksia samanaikaisesti. Kustannusmallia testattiin pienessä yritysverkostossa, johon kuului Sellutehdas, Kunnossapitoyhtiö ja Laitetoimittaja. Verkostossa kunnossapitoprosesseja tutkittiin tapaustutkimuksen keinoin. Tutkittuja tapauksia oli yhteensä kolme kappaletta, joista kaikki sijoittuivat sellun valmistusprosessin eri vaiheisiin ja ne olivat luonteeltaan hyvin erilaisia. Työn teoriaosa pohjautuu pääasiassa teollisuuden kunnossapitoa käsitteleviin artikkeleihin, tutkimuksiin ja kirjoihin. Lisäksi käsitellään hinnoittelun ja kustannuslaskennan teoriaa. Työn empiirinen osa perustuu haastatteluihin ja yrityksiltä saatuihin kustannustietoihin. Haastattelujen ja kustannustietojen avulla testattiin kustannusmallia. Testauksen jälkeen analysoitiin saatuja tuloksia ja kustannusmallia. Työn keskeiset tulokset liittyivät siihen, mitä kustannuksia tulee huomioida kustannusmallissa ja millainen on käyttökelpoinen kustannusmalli. Kustannusmallin käyttöön ja kehittämiseen liittyi myös ongelmia, jotka tuodaan työn loppuvaiheessa esille. Keskeinen ongelma mallin käytössä oli, että yritysverkoston osapuolet eivät halunneet avata euromääräisiä kustannustietojaan vielä toisilleen. Tämän vuoksi kustannusmallissa esitetään ainoastaan kustannuserien prosentuaalisia osuuksia yritysten aiheutuneista kunnossapidon kokonaiskustannuksista. Pelkkien prosentuaalisten kustannusten analysoiminen oli haasteellisempaa, koska esimerkiksi kustannusten suuruusluokka näkyy vain euroissa.
Resumo:
The development of correct programs is a core problem in computer science. Although formal verification methods for establishing correctness with mathematical rigor are available, programmers often find these difficult to put into practice. One hurdle is deriving the loop invariants and proving that the code maintains them. So called correct-by-construction methods aim to alleviate this issue by integrating verification into the programming workflow. Invariant-based programming is a practical correct-by-construction method in which the programmer first establishes the invariant structure, and then incrementally extends the program in steps of adding code and proving after each addition that the code is consistent with the invariants. In this way, the program is kept internally consistent throughout its development, and the construction of the correctness arguments (proofs) becomes an integral part of the programming workflow. A characteristic of the approach is that programs are described as invariant diagrams, a graphical notation similar to the state charts familiar to programmers. Invariant-based programming is a new method that has not been evaluated in large scale studies yet. The most important prerequisite for feasibility on a larger scale is a high degree of automation. The goal of the Socos project has been to build tools to assist the construction and verification of programs using the method. This thesis describes the implementation and evaluation of a prototype tool in the context of the Socos project. The tool supports the drawing of the diagrams, automatic derivation and discharging of verification conditions, and interactive proofs. It is used to develop programs that are correct by construction. The tool consists of a diagrammatic environment connected to a verification condition generator and an existing state-of-the-art theorem prover. Its core is a semantics for translating diagrams into verification conditions, which are sent to the underlying theorem prover. We describe a concrete method for 1) deriving sufficient conditions for total correctness of an invariant diagram; 2) sending the conditions to the theorem prover for simplification; and 3) reporting the results of the simplification to the programmer in a way that is consistent with the invariantbased programming workflow and that allows errors in the program specification to be efficiently detected. The tool uses an efficient automatic proof strategy to prove as many conditions as possible automatically and lets the remaining conditions be proved interactively. The tool is based on the verification system PVS and i uses the SMT (Satisfiability Modulo Theories) solver Yices as a catch-all decision procedure. Conditions that were not discharged automatically may be proved interactively using the PVS proof assistant. The programming workflow is very similar to the process by which a mathematical theory is developed inside a computer supported theorem prover environment such as PVS. The programmer reduces a large verification problem with the aid of the tool into a set of smaller problems (lemmas), and he can substantially improve the degree of proof automation by developing specialized background theories and proof strategies to support the specification and verification of a specific class of programs. We demonstrate this workflow by describing in detail the construction of a verified sorting algorithm. Tool-supported verification often has little to no presence in computer science (CS) curricula. Furthermore, program verification is frequently introduced as an advanced and purely theoretical topic that is not connected to the workflow taught in the early and practically oriented programming courses. Our hypothesis is that verification could be introduced early in the CS education, and that verification tools could be used in the classroom to support the teaching of formal methods. A prototype of Socos has been used in a course at Åbo Akademi University targeted at first and second year undergraduate students. We evaluate the use of Socos in the course as part of a case study carried out in 2007.
Resumo:
Tämän tutkielman tarkoituksena on löytää toimivia ratkaisuja päivittäista-varakaupan hävikin hallitsemiseksi ja kannattavuuden parantamiseksi. Kohdeyrityksenä on myymälä, joka etsii keinoja toimintansa tehostami-seen nimenomaan päiväyshävikkiä silmällä pitäen. Päiväyshävikin synty-minen on ongelmallisinta erityisesti tuoretuotteiden osastoilla, joille asettuu paineita asiakkaiden vaatiman tuoreuden ja valikoiman laajuuden kautta. Hävikkiä ei voida ratkaista vähentämällä tilausmääriä, sillä tässä tapauk-sessa hyllyt ovat usein tyhjiä ja kohdataan toinen päivittäistavarakaupalle vaarallinen ongelma. Kannattavan toiminnan avaimina ovat siis tasapai-noilu hävikin aiheuttamien kustannusten ja menetetyn myynnin välillä. Tutkimuksen tulokset osoittavat, että hävikin hallinta on monien tekijöiden summa ja että kannattavuuden parantamiseksi on omaa toimintaa tarkas-teltava kokonaisuutena. Toiminnan kannattavuuden taustalla on aina asiakkaiden tyytyväisyys ja sen edistämiseksi on syytä tehdä töitä.
Resumo:
Työn tavoitteena oli Junttan Oy:n valmistaman lyöntipaalutuskoneeseen kuuluvan tärkeän konstruktion, peruskeilin, laadun ja rakenteen kehittäminen. Työ tehtiin osana Tekesin ja usean yrityksen rahoittamaa HitNet-projektia (Hitsaavan teollisuuden hankintatoimen ja toimitusketjun tehostaminen). Peruskeiliä tutkittiin seuraamalla sen valmistusta Junttan Oy:n omassa tuotannossa sekä alihankintayrityksissä. Ongelmana peruskeilin suunnittelussa ja valmistuksessa olivat hyvin tarkat toleranssirajat sen liukupinnoille. Suurimmat ongelmat syntyivät hitsaamisen tuoman suuren lämmöntuonnin aiheuttamien muodonmuutosten ja särmäyksestä johtuvan takaisinjouston yhteydessä. Näihin ongelmiin pyrittiin kehittämään ratkaisuja peruskeilin rakennetta muuttamalla, Total Welding Management -laatutyökalua hyödyntämällä sekä hitsaustoimintaa ja särmäystä kehittämällä. Peruskeilin suunnittelussa ja valmistuksessa havaittujen ongelmien perusteella kehitettiin useita ratkaisuja, joista yksi otettiin käyttöön ja siitä valmistetaan prototyyppi Junttan Oy:n omassa tuotannossa. Uuden mallin valmistuessa päätetään tuleeko siitä korvaaja edeltäjälleen vai testataanko vielä muita kehitysideoita.
Resumo:
Tämän tutkimuksen tavoitteena oli selvittää miten logistiikka-alan asiantuntijapalvelu voidaan tuotteistaa palvelun tarjoajan ja palvelun ostajan kannalta selkeäksi kokonaisuudeksi. Tutkimus toteutettiin konstruktiivisella tutkimusotteella. Tutkimuksessa rakennettiin alan kirjallisuutta hyödyntäen tuotteistamisprosessi, jonka avulla asiantuntijapalveluita on mahdollista tuotteistaa Mantsinen Groupissa. Tuotteistamisprosessi toteutettiin yhden palvelun osalta. Tuotteistamisprosessi sisälsi muun muassa liiketoimintamallin laadinnan, palvelun paketoimisen, palvelun osien dokumentoinnin, koemarkkinoinnin sekä hinnoittelun. Tuotteistamista varten haastateltiin yhteensä 11 henkilöä. Lisäksi tehtiin yksi laajempi ryhmätyö. Kilpailijakatsauksessa hyödynnettiin julkisia tietolähteitä. Tutkimuksen tuloksena oli tuotteistettu, moduuleihin jaettu asiantuntijapalvelu sekä palveluun liittyvä dokumentointi. Yksityiskohtainen dokumentaatio on vain yrityksen sisäistä käyttöä varten, mutta yleiskuvaus palvelusta on esitetty tässä työssä. Tutkimuksessa todettiin, että tuotteistaminen on hyvä tapa järkeistää asiantuntijapalveluliiketoimintaa. Tutkimuksessa myös havaittiin, että koemarkkinoinnin toteuttaminen asiantuntijaprojektityössä on hankalaa.
Resumo:
Lappeenrannan teknillisen yliopiston Ohjelmoinnin perusteet -kurssin osallistujilla on ollut vaikeuksia aloittelevan ohjelmoijan kannalta laajojen ohjelmien tuottamisessa ja tällaisten ohjelmien jäsentelemisessä aliohjelmiksi. Kurssin harjoitustyö on kuitenkin vaatinut tällaisen laajan ja jäsennellyn ohjelman tuottamista ja osallistujien ongelmat edellä mainittujen asioiden suhteen ovat ilmenneet palautetuista harjoitustöistä. Tässä työssä pyritään tuottamaan ratkaisu edellä kuvattuun ongelmaan konstruktiivisen tutkimuksen keinoin. Työssä tuotettava konstruktio on ohjelmointiesimerkkikokoelma ja sen avulla kurssin osallistujille voidaan esitellä kuinka laajoja ohjelmia voidaan tuottaa vaiheittain ja kuinka tällaisia ohjelmia voidaan jäsennellä aliohjelmiksi.
Resumo:
Professions are a special category of occupations that possesses exclusive rights over its domain of expertise. Professions apply expert knowledge in their work by using professional discretion and judgment to solve their clients’ problems. With control over their expert knowledge base, professions are able to control the supply of practitioners in their field and regulate the practice in their market. Professionalization is the process during which occupations attempt to gain the status of a profession. The benefits of becoming a profession are extensive – professional autonomy, social and financial rewards, prestige, status, and an exclusive community are only a few of the privileges that established professions possess. Many aspiring occupations have tried and failed to gain the status of a profession and one of these groups is the occupation of controllers in Finland. The objective of this study to uncover, why controllers have not professionalized, which properties of the occupation correspond with the elements generally regarded to pertain to professions, and which aspects of the occupational group may hinder the professionalization project. The professionalization project of controllers is analyzed using a multi-actor model of professionalization, in which practitioners, clients, the state, training institutions, and employing organizations are considered to affect the project. The properties of the occupation of controllers are compared to features generally associated with professions. The research methodology for this thesis is qualitative, and the study is conducted as an exploratory research. The data is primarily gathered using semi-structured interviews, which were conducted between March and May 2013 lasting from 40 minutes to an hour. In total, four controllers were interviewed, who worked for different companies operating in different industries, and whose experience of working as a controller varied between a few years to nearly 15 years. The data in this study indicates that although controllers possess qualities that distinguish professions from other occupational groups, the professionalization of controllers may not be plausible. Controllers enjoy considerable autonomy in organizations, and they possess a strong orientation towards serving their clients. The more profound problem with the occupation is its non-exclusive, indistinct knowledge base that does not rely solely on a single knowledge base. Controllers’ expertise is relatively organization-specific and built on several different fields of knowledge and not just management accounting, which could be considered as their primary knowledge base. In addition, controllers have not organized themselves, which is a quintessential, but by no means a sufficient prerequisite for professionalization.
Resumo:
As the rapid development of the society as well as the lifestyle, the generation of commercial waste is getting more complicated to control. The situation of packaging waste and food waste – the main fractions of commercial waste in different countries in Europe and Asia is analyzed in order to evaluate and suggest necessary improvements for the existing waste management system in the city of Hanoi, Vietnam. From all waste generation sources of the city, a total amount of approximately 4000 tons of mixed waste is transported to the composting facility and the disposal site, which emits a huge amount of 1,6Mt of GHG emission to the environment. Recycling activity is taking place spontaneously by the informal pickers, leads to the difficulty in managing the whole system and uncertainty of the overall data. With a relative calculation, resulting in only approximately 0,17Mt CO2 equivalent emission, incinerator is suggested to be the solution of the problem with overloaded landfill and raising energy demand within the inhabitants.
Resumo:
Almost every problem of design, planning and management in the technical and organizational systems has several conflicting goals or interests. Nowadays, multicriteria decision models represent a rapidly developing area of operation research. While solving practical optimization problems, it is necessary to take into account various kinds of uncertainty due to lack of data, inadequacy of mathematical models to real-time processes, calculation errors, etc. In practice, this uncertainty usually leads to undesirable outcomes where the solutions are very sensitive to any changes in the input parameters. An example is the investment managing. Stability analysis of multicriteria discrete optimization problems investigates how the found solutions behave in response to changes in the initial data (input parameters). This thesis is devoted to the stability analysis in the problem of selecting investment project portfolios, which are optimized by considering different types of risk and efficiency of the investment projects. The stability analysis is carried out in two approaches: qualitative and quantitative. The qualitative approach describes the behavior of solutions in conditions with small perturbations in the initial data. The stability of solutions is defined in terms of existence a neighborhood in the initial data space. Any perturbed problem from this neighborhood has stability with respect to the set of efficient solutions of the initial problem. The other approach in the stability analysis studies quantitative measures such as stability radius. This approach gives information about the limits of perturbations in the input parameters, which do not lead to changes in the set of efficient solutions. In present thesis several results were obtained including attainable bounds for the stability radii of Pareto optimal and lexicographically optimal portfolios of the investment problem with Savage's, Wald's criteria and criteria of extreme optimism. In addition, special classes of the problem when the stability radii are expressed by the formulae were indicated. Investigations were completed using different combinations of Chebyshev's, Manhattan and Hölder's metrics, which allowed monitoring input parameters perturbations differently.
Resumo:
Arsenic is a toxic substance. The amount of arsenic in waste water is a raising problem because of increasing mining industry. Arsenic is connected to cancers in areas where arsenic concentration in drinking water is higher than recommendations. The main object in this master’s thesis was to research how ferrous hydroxide waste material is adsorbed arsenic from ammonia containing waste water. In this master’s thesis there is two parts: theoretical and experimental part. In theoretical part harmful effects of arsenic, theory of adsorption, isotherms modeling of adsorption and analysis methods of arsenic are described. In experimental part adsorption capacity of ferrous hydroxide waste material and adsorption time with different concentrations of arsenic were studied. Waste material was modified with two modification methods. Based on experimental results the adsorption capacity of waste material was high. The problem with waste material was that at same time with arsenic adsorption sulfur was dissolving in solution. Waste material was purified from sulfur but purification methods were not efficient enough. Purification methods require more research.