22 resultados para Data quality problems
em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland
Resumo:
In a networked business environment the visibility requirements towards the supply operations and customer interface has become tighter. In order to meet those requirements the master data of case company is seen as an enabler. However the current state of master data and its quality are not seen good enough to meet those requirements. In this thesis the target of research was to develop a process for managing master data quality as a continuous process and find solutions to cleanse the current customer and supplier data to meet the quality requirements defined in that process. Based on the theory of Master Data Management and data cleansing, small amount of master data was analyzed and cleansed using one commercial data cleansing solution available on the market. This was conducted in cooperation with the vendor as a proof of concept. In the proof of concept the cleansing solution’s applicability to improve the quality of current master data was proved. Based on those findings and the theory of data management the recommendations and proposals for improving the quality of data were given. In the results was also discovered that the biggest reasons for poor data quality is the lack of data governance in the company, and the current master data solutions and its restrictions.
Resumo:
One challenge on data assimilation (DA) methods is how the error covariance for the model state is computed. Ensemble methods have been proposed for producing error covariance estimates, as error is propagated in time using the non-linear model. Variational methods, on the other hand, use the concepts of control theory, whereby the state estimate is optimized from both the background and the measurements. Numerical optimization schemes are applied which solve the problem of memory storage and huge matrix inversion needed by classical Kalman filter methods. Variational Ensemble Kalman filter (VEnKF), as a method inspired the Variational Kalman Filter (VKF), enjoys the benefits from both ensemble methods and variational methods. It avoids filter inbreeding problems which emerge when the ensemble spread underestimates the true error covariance. In VEnKF this is tackled by resampling the ensemble every time measurements are available. One advantage of VEnKF over VKF is that it needs neither tangent linear code nor adjoint code. In this thesis, VEnKF has been applied to a two-dimensional shallow water model simulating a dam-break experiment. The model is a public code with water height measurements recorded in seven stations along the 21:2 m long 1:4 m wide flume’s mid-line. Because the data were too sparse to assimilate the 30 171 model state vector, we chose to interpolate the data both in time and in space. The results of the assimilation were compared with that of a pure simulation. We have found that the results revealed by the VEnKF were more realistic, without numerical artifacts present in the pure simulation. Creating a wrapper code for a model and DA scheme might be challenging, especially when the two were designed independently or are poorly documented. In this thesis we have presented a non-intrusive approach of coupling the model and a DA scheme. An external program is used to send and receive information between the model and DA procedure using files. The advantage of this method is that the model code changes needed are minimal, only a few lines which facilitate input and output. Apart from being simple to coupling, the approach can be employed even if the two were written in different programming languages, because the communication is not through code. The non-intrusive approach is made to accommodate parallel computing by just telling the control program to wait until all the processes have ended before the DA procedure is invoked. It is worth mentioning the overhead increase caused by the approach, as at every assimilation cycle both the model and the DA procedure have to be initialized. Nonetheless, the method can be an ideal approach for a benchmark platform in testing DA methods. The non-intrusive VEnKF has been applied to a multi-purpose hydrodynamic model COHERENS to assimilate Total Suspended Matter (TSM) in lake Säkylän Pyhäjärvi. The lake has an area of 154 km2 with an average depth of 5:4 m. Turbidity and chlorophyll-a concentrations from MERIS satellite images for 7 days between May 16 and July 6 2009 were available. The effect of the organic matter has been computationally eliminated to obtain TSM data. Because of computational demands from both COHERENS and VEnKF, we have chosen to use 1 km grid resolution. The results of the VEnKF have been compared with the measurements recorded at an automatic station located at the North-Western part of the lake. However, due to TSM data sparsity in both time and space, it could not be well matched. The use of multiple automatic stations with real time data is important to elude the time sparsity problem. With DA, this will help in better understanding the environmental hazard variables for instance. We have found that using a very high ensemble size does not necessarily improve the results, because there is a limit whereby additional ensemble members add very little to the performance. Successful implementation of the non-intrusive VEnKF and the ensemble size limit for performance leads to an emerging area of Reduced Order Modeling (ROM). To save computational resources, running full-blown model in ROM is avoided. When the ROM is applied with the non-intrusive DA approach, it might result in a cheaper algorithm that will relax computation challenges existing in the field of modelling and DA.
Resumo:
This research is looking to find out what benefits employees expect the organization of data governance gains for an organization and how it benefits implementing automated marketing capabilities. Quality and usability of the data are crucial for organizations to meet various business needs. Organizations have more data and technology available what can be utilized for example in automated marketing. Data governance addresses the organization of decision rights and accountabilities for the management of an organization’s data assets. With automated marketing it is meant sending a right message, to a right person, at a right time, automatically. The research is a single case study conducted in Finnish ICT-company. The case company was starting to organize data governance and implementing automated marketing capabilities at the time of the research. Empirical material is interviews of the employees of the case company. Content analysis is used to interpret the interviews in order to find the answers to the research questions. Theoretical framework of the research is derived from the morphology of data governance. Findings of the research indicate that the employees expect the organization of data governance among others to improve customer experience, to improve sales, to provide abilities to identify individual customer’s life-situation, ensure that the handling of the data is according to the regulations and improve operational efficiency. The organization of data governance is expected to solve problems in customer data quality that are currently hindering implementation of automated marketing capabilities.
Resumo:
Diplomityö tehtiin Partek Oyj Abp:lle antamaan IT-järjestelmistä vastuussa oleville ja niihin tukeutuville johtohenkilöille yleisnäkemys IT-sovellusintegroinnista sekä luomaan ohjeet integrointi projekteihin. Diplomityön alkuosassa esitellään liiketoiminnan prosessien pulmakohtia ja sovellusintegrointien liiketoiminnalle tuomia etuja yleisellä tasolla perustuen kirjallisuuteen. Yleisen tason etuja saadaan mm. nopeampien prosessien, paremman tiedon saatavuuden ja ihmisille tulevien uusien toimintatapojen kautta tulevista eduista. Työn seuraavassa osiossa esitellään mitä sovellusintegraatio tarkoittaa käytännössä, mitä erilaisia vaihtoehtoja integroinneille on ja mitä etuja ja haittoja erilaisista integrointitavoista on. Integrointitavoista viesti-pohjainen integrointitapa on noussut suosituimmaksi sen yksinkertaisuuden, luotettavuuden ja helpon liitettävyyden takia. Integrointisovelluksilla on mahdollista siirtää, muokata, prosessoida ja varastoida viestejä. Näiden ominaisuuksien avulla on mahdollista luoda reaaliaikaisia yhteistyöverkostoja. Tämä osio perustuu kirjallisuuteen , artikkeleihin ja haastatteluihin. Kolmas osio keskittyy integrointi projektin ominaispiirteisiin luoden toimintakartan integrointiprojektin kululle. Osiossa esitellään huomioitavat tekniset asiat, kustannukset ja edut sekä mallipohjia integroinnin dokumentointiin. Osio perustuu omiin kokemuksiin, haastatteluihin sekä kirjallisuuteen. Neljännessä osiossa esitellään Partekissa tehty integrointiprojekti. Integrointityö tehtiin ostajille tarkoitetun toimittajarekisterin (PPM) ja ERP-järjestelmän (Baan) välillä. Integrointiin käytettiin yhtä suosituinta integrointityökalua nimeltään IBM WebSphere MQ.Osio perustuu projektin dokumentointiin, omiin kokemuksiin ja kirjallisuuteen. Diplomityön päättää yhteenveto. Kolme pääetua voidaan saavuttaa integroinneilla ja toimintakartalla; tiedon luotettavuus paranee, toimintakartalla saadaan integroinneille malli ja luodaan riippumattomuutta tiettyihin avain henkilöihin tarkalla dokumentoinnilla ja toimintatapojen standardoinnilla.
Resumo:
Työn tavoittena oli selvittää, miten tietovarastointi voi tukea yrityksessä tapahtuvaa päätöksentekoa. Tietovarastokomponenttien ja –prosessien kuvauksen jälkeen on käsitelty tietovarastoprojektin eri vaiheita. Esitettyä teoriaa sovellettiin käytäntöön globaalissa metalliteollisuusyrityksessä, jossa tietovarastointikonseptia testattiin. Testauksen perusteella arvioitiin olemassa olevan tiedon tilaa sekä kahden käytetyn ohjelmiston toimivuutta tietovarastoinnissa. Yrityksen operatiivisten järjestelmien tiedon laadun todettiin olevan tutkituilta osin epäyhtenäistä ja puutteellista. Siksi tiedon suora yrityslaajuinen hyödyntäminen luotettavien ja hyvälaatuisten raporttien luonnissa on vaikeaa. Lisäksi eri yksiköiden välillä havaittiin epäyhtenäisyyttä käytettyjen liiketoiminnan käsitteiden sekä järjestelmien käyttötapojen suhteen. Testauksessa käytetyt ohjelmistot suoriutuivat perustietovarastoinnista hyvin, vaikkakin joitain rajoituksia ja erikoisuuksia ilmenikin. Työtä voidaan pitää ennen varsinaista tietovarastoprojektia tehtävänä esitutkimuksena. Jatkotoimenpiteinä ehdotetaan testauksen jatkamista nykyisillä työkaluilla kohdistaen tavoitteet konkreettisiin tuloksiin. Tiedon laadun tärkeyttä tulee korostaa koko organisaatiossa ja olemassa olevan tiedon laatua pitää parantaa tulevaisuudessa.
Resumo:
For any international companies who wish to enter the Chinese market, quality is base on the fundamental. The companies are coming to realize the importance of quality gradually, thus companies have been put the quality problems on the agenda. The competitiveness of companies comes from quality. Quality is the key to success, and it can decide that the companies can be accepted or eliminated by the market. Due to the obvious benefits, the demand of the method of how to achieve high quality of product keeps growing. During achieving the high quality process, the main troubles come from the impact between Eastern and Western culture. Chinese culture which is different with Western one have lasted as long as five thousand years. Such a culture deeply rooted in the hearts of Chinese people, and effected generation after generation of Chinese people's working style and ways of thinking. This thesis determines how to find a good fit point between Eastern and Western culture. Doing right thing by the right way. The nature of improving quality is improving management level in fact. "How to manage, who should be managed", the thesis explains the basic and best option to achieve those. It describes three-dimension-style management to monitoring the working process. This kind of management style can inspect production process from horizontal and vertical direction. In this management way, it defines effective evaluation system to every subcontractor, and makes the companies to achieve the ultimate goal - satisfy quality. Because of the importance of human factor, the thesis determines the range of training of the inspector and welder due to the current situation of China. The results show that in order to reach reliable training effective evaluation, not only the quality of the human but also the ultimate goal of product quality.
Resumo:
Tutkimus käsittelee tuotekustannuslaskennan kehittämistä VAASAN Oy:ssä, joka on yksi johtavista leipomoyrityksistä Suomessa ja Baltiassa. Työn tavoitteena on kehittää tuotekustannuslaskentaa paremmin päätöksentekoa tukevaksi. Kehitystyössä otettiin huomioon laskentamallin joustavuuden säilyminen. Kehitystarpeet selvitettiin tuotekustannuslaskennan nykytilaanalyysillä sekä käyttäjäryhmien tietotarvekartoituksella. Kehityksen ohjaamiseen sovellettiin kustannustiedon laadukkuuden teorioita sekä riskienhallinnan työkalua. Lähtökohtana oli varsin hajautetusti toteutettu tuotekustannuslaskenta, minkä luotettavuuden ongelma tiedostettiin. Työn päätteeksi tuotekustannuslaskenta keskitetään. Keskittämisen tuoma tilaisuus halutaan käyttää mahdollisimman tehokkaasti hyödyksi kustannuslaskennan kehittämisessä. Ennen keskittämistä tulee tuotekustannuslaskenta johdonmukaistaa eri leipomoiden välillä. Tässä työssä kartoitettiin kehityskohteet sekä esitetään toimintamalli tai –ehdotus tärkeimpien kehityskohteiden ratkaisemiseksi. Tärkeimmät kehityskohteet löydettiin jäsentämällä ja priorisoimalla kehityskohteet. Tuotekustannuslaskentaa kehitettiin paremmin päätöksentekoa tukevaksi, johdonmukaisemmaksi, luotettavammaksi sekä sen käytettävyyttä kehitettiin.
Resumo:
Statistical analyses of measurements that can be described by statistical models are of essence in astronomy and in scientific inquiry in general. The sensitivity of such analyses, modelling approaches, and the consequent predictions, is sometimes highly dependent on the exact techniques applied, and improvements therein can result in significantly better understanding of the observed system of interest. Particularly, optimising the sensitivity of statistical techniques in detecting the faint signatures of low-mass planets orbiting the nearby stars is, together with improvements in instrumentation, essential in estimating the properties of the population of such planets, and in the race to detect Earth-analogs, i.e. planets that could support liquid water and, perhaps, life on their surfaces. We review the developments in Bayesian statistical techniques applicable to detections planets orbiting nearby stars and astronomical data analysis problems in general. We also discuss these techniques and demonstrate their usefulness by using various examples and detailed descriptions of the respective mathematics involved. We demonstrate the practical aspects of Bayesian statistical techniques by describing several algorithms and numerical techniques, as well as theoretical constructions, in the estimation of model parameters and in hypothesis testing. We also apply these algorithms to Doppler measurements of nearby stars to show how they can be used in practice to obtain as much information from the noisy data as possible. Bayesian statistical techniques are powerful tools in analysing and interpreting noisy data and should be preferred in practice whenever computational limitations are not too restrictive.
Resumo:
Diplomityön tavoitteena on tutkia tuotetiedon laadun vaikutuksia autojen varaosia myyvien liikkeiden toimintaan. Tutkimusta varten haastatellaan myymälähenkilökuntaa kahdessa varaosamyymäläketjussa. Haastatteluissa hyödynnetään tarinankerronnallista lähestymistapaa. Haastatteluissa esille nousevien kertomusten perusteella tunnistetaan henkilökunnan kokemia ongelmia ja niihin liittyviä tuotetiedon puutteita. Löytyneet ongelmat luokitellaan teoriaosassa esiteltävän tiedon laadun luokittelun perusteella ja selvitetään aiheeseen liittyvät keskeiset käsitteet. Työssä kuvataan tutkittavien myymälöiden tietojärjestelmissä olevaa tuotetiedon rakennetta. Lisäksi esitetään parannusehdotuksia tietojärjestelmien tietosisältöön ja tiedonhallintaprosessiin tiedon laadun parantamiseksi.
Resumo:
Tutkimuksen tavoitteena oli selvittää harvennusmännynsoveltuvuutta liimalevyn raaka-aineeksi. Lähtökohtana olivat myös väittämät, joiden mukaan mustat oksat ja sydänpuun kiemurtelu aiheuttavat laatuongelmia harvennusmännyn tyviosassa. Tutkimuksen teoreettisessa viitekehyksessä kuvattiin puun koko jalostusketju raaka-aineesta lopputuotteeksi sisältäen kuvaukset harvennuspuun raaka-aineominaisuuksista, sahauksesta ja kuivauksesta sekä liimalevyn valmistuksesta. Tutkimusongelman selvittämiseksi laskettiin leimikosta lankeavan harvennuspuun kokonaiskertymä ja liimalevyn valmistukseen soveltuvan sahatavaran saanto ja laatu sekä niihin vaikuttavat tekijät tuotannon eri vaiheissa. Tutkimustulosten mukaan harvennushakkuun kokonaiskertymästä sahaukseen kelpaavaa raaka-ainetta oli noin puolet. Sahaukseen kelpaamattomien runkojen yleisimmät vikaisuudet olivat muotoviat. Sahauksen keskimääräinen käyttösuhde oli 2,31 k-m3/m3 . Liimalevyn valmistukseen kelpaavaa sahatavaraasaatiin 81,97 %. Liimalevyn valmistukseen kelpaamattomien sahatavarakappaleidensuurimmat vikaisuudet olivat halkeamat ja sydänjuovan kiemurtelu. Mustat oksat olivat pieniä eivätkä ne aiheuttaneet laadun alenemisia harvennuspuun tyviosassa. Tutkimuksen perusteella voidaan tehdä johtopäätös, jonka mukaan harvennusmäntysoveltuu hyvin+ liimalevyn raaka-aineeksi.
Resumo:
Työn tavoitteena oli luoda yritykseen soveltuva, toimiva laatujärjestelmän kirjallinen kuvaus sekä parantaa laadun hallintaa. Laatutoimintojen kehittämisessä perustana käytettiin laatujärjestelmästandardia SFS-EN ISO 9001. Työn lähtökohtana oli perusteellinen nykytilan selvitys. Saatujen tulosten perusteella voitiin kohdistaa toimenpiteet oikein, jolloin laadun parannus oli merkittävää ja mitattavissa. Lähtötilanteessa havaittiin suuria laatuongelmia niin asiakkaiden keskuudessa kuin yrityksen sisäisissä toiminnoissa, verrattaessa ISO 9001 standardiin. Prosessit pyrittiin kirjaamaan sekä aloitustilanteessaettä havaittujen puutteiden korjaamisen jälkeen. Tästä dokumentaatiosta muodostettiin pohja yrityksen laatujärjestelmän kuvaukselle - laatukäsikirjalle. Dokumentoitua työ- tai toiminto-ohjetta kehitettiin edelleen vastaamaan parasta havaittua toimintatapaa.Työ osoitti laadun hallinnan parantuneen merkittävästi, kun prosessi on onnistuttu kuvaamaan käytännönläheisesti ja yksinkertaisesti. Ratkaisevan tärkeää on prosessin suorittamiseen osallistuvan henkilöstön panos kuvattaessa ja kehitettäessä toimintoa. Ilman henkilöstön sitouttamista kuvaukset ja ohjeet jäävät vain hyödyttömiksi papereiksi, joita ei noudateta eikä päivitetä. Laadun, kuten minkään muunkaan parametrin, kehitystä on mahdoton seurata ilman selkeitä ja yksiselitteisiä mittareita. Työssä luotiin tärkeimpiinprosesseihin kehitystä ilmaisevat laatumittarit. Parhaimmillaan havaittiin maalaamossa suoritettujen toimenpiteiden seurauksena virheellisten kappaleiden osuuden pudonneen kertaluokkaa pienemmäksi. Laatujärjestelmän kehitystyö osoittautui tämänkin kokoisessa yrityksessä erittäin työlääksi ja aikaa vieväksi. Kuitenkin on selvää, että laadunhallinnan parantuessa ja todistusaineiston karttuessa onnistumisten kautta, lisääntyy koko yrityksen usko laadun parantamisen tärkeyteen ja näin nopeuttaa joskus kipeidenkin uudistusten läpivientiä.
Resumo:
Työn tavoitteena oli saavuttaa päällystysasemilla sama tuotantotehokkuus kuin vuonna 1999, jolloin ne hankittiin. Tällöin myös määritettiin takuuarvot aseman toiminnallisista ominaisuuksista. Työtä aloitettaessa profiilien ja päällystemäärien asettuminen kesti kuitenkin huomattavasti kauemmin kuin takuuarvoissa oli määritelty. Keinoina jolla takuuarvoihin voitaisiin taas päästä, kuuluivat pastan konekiertojen kunnon tarkastus, päällystysasemien mekaanisten vikojen korjaaminen, laatusäätöjärjestelmän uudelleen virittäminen ja parhaiden työtapojen yhtenäistäminen eri vuorojen keskuudessa. Toisena tavoitteena oli luoda pituushylyn mittaus- ja raportointijärjestelmä koko tuotantolinjalle. Paperikoneelle rakennettiin automaattinen järjestelmä jolla pystyttiin seuraamaan asemien katkon jälkeistä toimintaa ja laatu virheistä syntyvää pituushylyn määrää. Jälkikäsittelyn raportointiin tehtiin sovellus johon käyttäjät pystyivät syöttämään hylättyjä paperi metrejä ja syitä niihin.
Resumo:
The aim of the research was to evaluate the suitability of small-size pine as a raw material for glueboard. A further aim was to investigate claims that dead knots and the twisting of the heartwood cause, quality problems in the but of the small-size pine. The theoretical framework of the study details the whole manufacturing process from raw material to the finished article; the description of the qualities of raw material, the sawing and drying processes as well as the making of the glueboard. The solve the research problem the following figures were calculated: amount of small-size pines, the yield and quality of sawn timber which can be used for making glueboard as well as the variables which affect the various stages of the process. The results show that about half of the timber from the thinning process was suitable material for sawing. The most common problem with the unsuitable timber was form defects of the stem. The average usage ratio of sawing was 2,31 k-m3/m3. 87,97 % of the sawn timber could be used for the production of glueboard. The unsuitability of sawn timber for making glueboard was mainly caused by breakage and the twisting of the heartwood. Dead knots were small and did not effect the quality of the but of the small-size pine. It can therefore be concluded that small-size pine is suitable raw material for glueboard.
Resumo:
Producing high quality products and services is one of the key concerns in order to keep up with the competition in the global markets. Companies are putting a great effort on preventing customers having faulty products and services by any means. However, the total elimination of mistakes in manufacturing processes has always been a great challenge for quality management. In this thesis the applicability of poka-yoke methodology in reducing the number of quality failures in the case company has been studied. Poka-yoke stands for the mistake-proofing and is mainly developed for the purpose of eliminating human errors in manufacturing processes. Inspection techniques; judgment, informative and source inspection are in the core of this methodology. Mass customization and large configurability of products leads to situation where the root causes of quality problems may vary a lot. To study the effects of these factors extensive analysis of quality failures was conducted. Recommendations and proposals for further actions regarding problem solving processes and utilization of mistake-proofing methods were provided on the basis of the analysis.