978 resultados para product data management


Relevância:

90.00% 90.00%

Publicador:

Resumo:

The research described in this thesis has been developed as a part of the Reliability and Field Data Management for Multi-Component Products (REFIDAM) Project. This project was funded under the Applied Research Grants Scheme administered by Enterprise Ireland. The project was a partnership between Galway-Mayo Institute of Technology and an industrial company, Thermo King Europe. The project aimed to develop a system to manage the information required for maintenance costing, cost of ownership, reliability assessment and improvement of multi-component products, by establishing information flows between the customer network and across the Thermo King organisation.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

BACKGROUND: DNA sequence integrity, mRNA concentrations and protein-DNA interactions have been subject to genome-wide analyses based on microarrays with ever increasing efficiency and reliability over the past fifteen years. However, very recently novel technologies for Ultra High-Throughput DNA Sequencing (UHTS) have been harnessed to study these phenomena with unprecedented precision. As a consequence, the extensive bioinformatics environment available for array data management, analysis, interpretation and publication must be extended to include these novel sequencing data types. DESCRIPTION: MIMAS was originally conceived as a simple, convenient and local Microarray Information Management and Annotation System focused on GeneChips for expression profiling studies. MIMAS 3.0 enables users to manage data from high-density oligonucleotide SNP Chips, expression arrays (both 3'UTR and tiling) and promoter arrays, BeadArrays as well as UHTS data using MIAME-compliant standardized vocabulary. Importantly, researchers can export data in MAGE-TAB format and upload them to the EBI's ArrayExpress certified data repository using a one-step procedure. CONCLUSION: We have vastly extended the capability of the system such that it processes the data output of six types of GeneChips (Affymetrix), two different BeadArrays for mRNA and miRNA (Illumina) and the Genome Analyzer (a popular Ultra-High Throughput DNA Sequencer, Illumina), without compromising on its flexibility and user-friendliness. MIMAS, appropriately renamed into Multiomics Information Management and Annotation System, is currently used by scientists working in approximately 50 academic laboratories and genomics platforms in Switzerland and France. MIMAS 3.0 is freely available via http://multiomics.sourceforge.net/.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The emergence of powerful new technologies, the existence of large quantities of data, and increasing demands for the extraction of added value from these technologies and data have created a number of significant challenges for those charged with both corporate and information technology management. The possibilities are great, the expectations high, and the risks significant. Organisations seeking to employ cloud technologies and exploit the value of the data to which they have access, be this in the form of "Big Data" available from different external sources or data held within the organisation, in structured or unstructured formats, need to understand the risks involved in such activities. Data owners have responsibilities towards the subjects of the data and must also, frequently, demonstrate that they are in compliance with current standards, laws and regulations. This thesis sets out to explore the nature of the technologies that organisations might utilise, identify the most pertinent constraints and risks, and propose a framework for the management of data from discovery to external hosting that will allow the most significant risks to be managed through the definition, implementation, and performance of appropriate internal control activities.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The constant scientific production in the universities and in the research centers makes these organizations produce and acquire a great amount of data in a short period of time. Due to the big quantity of data, the research organizations become potentially vulnerable to the impacts on information booms that may cause a chaos as far as information management is concerned. In this context, the development of data catalogues comes up as one possible solution to the problems such as (I) the organization and (II) the data management. In the scientific scope, the data catalogues are implemented with the standard for digital and geospatial metadata and are broadly utilized in the process of producing a catalogue of scientific information. The aim of this work is to present the characteristics of access and storage of metadata in databank systems in order to improve the description and dissemination of scientific data. Relevant aspects will be considered and they should be analyzed during the stage of planning, once they can determine the success of implementation. The use of data catalogues by research organizations may be a way to promote and facilitate the dissemination of scientific data, avoid the repetition of efforts while being executed, as well as incentivate the use of collected, processed an also stored.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Työn tavoitteena oli tarkentaa uuden tuotteen liiketoimintasuunnitelman laadintaprosessia. Yrityksen käyttämän liiketoimintasuunnitelman formaatin suhteen oli kehittämistarpeita ja liiketoimintasuunnitelman tiedonhallintaprosessi tuli kuvata. Työn teoriaosassa käsiteltiin tuotekehitysprosessia ja tuotteen liiketoimintasuunnitelmaa yleisesti. Käytännön osassa perehdyttiin yrityksen tuotekehitysprosessiin, kuvattiin tuotteen liiketoimintasuunnitelman laatimisprosessi uudistettujen ohjeiden mukaisesti sekä laadittiin uudelle tuotteelle liiketoimintasuunnitelma. Työn tuloksena liiketoimintasuunnitelman laatimista tarkennettiin sekä tunnistettiin tärkeimmät laatimisessa tarvittavat tietolähteet ja vastuut. Uudelle tuotteelle laaditun liiketoimintasuunnitelman avulla saatiin selvitettyä tuotteen hyödyt, kustannukset, myyntivolyymi sekä kannattavuus. Prosessin käyttöönotto on alkamassa.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Nowadays the used fuel variety in power boilers is widening and new boiler constructions and running models have to be developed. This research and development is done in small pilot plants where more faster analyse about the boiler mass and heat balance is needed to be able to find and do the right decisions already during the test run. The barrier on determining boiler balance during test runs is the long process of chemical analyses of collected input and outputmatter samples. The present work is concentrating on finding a way to determinethe boiler balance without chemical analyses and optimise the test rig to get the best possible accuracy for heat and mass balance of the boiler. The purpose of this work was to create an automatic boiler balance calculation method for 4 MW CFB/BFB pilot boiler of Kvaerner Pulping Oy located in Messukylä in Tampere. The calculation was created in the data management computer of pilot plants automation system. The calculation is made in Microsoft Excel environment, which gives a good base and functions for handling large databases and calculations without any delicate programming. The automation system in pilot plant was reconstructed und updated by Metso Automation Oy during year 2001 and the new system MetsoDNA has good data management properties, which is necessary for big calculations as boiler balance calculation. Two possible methods for calculating boiler balance during test run were found. Either the fuel flow is determined, which is usedto calculate the boiler's mass balance, or the unburned carbon loss is estimated and the mass balance of the boiler is calculated on the basis of boiler's heat balance. Both of the methods have their own weaknesses, so they were constructed parallel in the calculation and the decision of the used method was left to user. User also needs to define the used fuels and some solid mass flowsthat aren't measured automatically by the automation system. With sensitivity analysis was found that the most essential values for accurate boiler balance determination are flue gas oxygen content, the boiler's measured heat output and lower heating value of the fuel. The theoretical part of this work concentrates in the error management of these measurements and analyses and on measurement accuracy and boiler balance calculation in theory. The empirical part of this work concentrates on the creation of the balance calculation for the boiler in issue and on describing the work environment.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Työn päätavoitteena on arvioida hissien automaattiovien usein toistuvien asiakaskohtaisesti räätälöityjen tuoteominaisuuksien vakioimisen kannattavuutta KONEen Hyvinkään tehtaalla. Työssä arvioidaan myös massaräätälöinnin periaatteiden soveltuvuutta erikoisovien toimitusprosessiin sekä toimintoperusteisen kustannustiedon tarpeellisuutta tuoteominaisuuksia koskevien päätösten teossa. Asiakaskohtaisesti räätälöity ovituotanto jaettiin kategorioihin, joiden volyymeja ja tuotemuutosten tekoon käytettyjä suunnittelutuntimääriä analysoimalla selvitettiin, muodostaako jokin räätälöitävä tuoteominaisuus riittävän suuren kappalemääräisen kysynnän tai suunnittelutuntien kulutuskohteen, jotta ominaisuuden vakiointi olisi kannattavaa. Ovien kustannusrakenne-esimerkkien avulla selvitettiin myös suunnittelun osuus kokonaiskustannuksista. Analyysien perusteella todettiin asiakaskohtaisten muutosten olevan hajanaisia ja vain muutaman ominaisuuden osalta muodostuvan tarpeeksi suuri ja yhtenäinen kokonaisuus, joka olisi taloudellisesti kannattavaavakioida. Monimutkaisen tuoterakenteen vuoksi massaräätälöinnin opit eivät ole suoraan kopioitavissa hissien erikoisovien toimitusprosessiin, mutta sisältävät hyödyllisiä toimintamalleja prosessin kehittämiseen.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Työn tavoitteena on tehdä pohjatutkimus tarjoustoiminnan kehittämiseksi Larox Oyj:ssä. Työssä hahmotetaan haastatteluiden avulla tämänhetkiset ongelma-alueet tarjoustoiminnassa ja tiedonhallinnassa. Nykyisin suurimpina kehityshaasteina ovat rutiinityön manuaalinen hallinta, tiedon hankala saatavuus ja selkeiden yhteisten pelisääntöjen puuttuminen tarjoustoiminnassa. Näihin haasteisiin pyritään löytämään ratkaisuvaihtoehtoja. Työ sisältää teoriaosan, jossa käydään läpi projektin ominaispiirteitä, tarjoustoiminnan osuutta projektiliiketoiminnassa, elinkaarenaikaisen tiedonhallinnan keinoja sekä massaräätälöinnin toimintaperiaatteita. Tarjoustoimintaa pyritään kehittämään käsitellyn teorian, benchmark-vierailuilta saatujen ideoiden sekä haastatteluissa tulleiden toiveiden pohjalta. Tuloksena saadaan kehitysideat pitkäjänteiseen kehitystyöhön sekä nopeasti toteutettaviin toimenpiteisiin. Keskeinen kehitysidea on tarjouskonfiguraattorin kehitystyön aloittaminen. Sen avulla pyritään vähentämään tarjousinsinöörien työtaakkaa. Silloin tarjousinsinööreille jää aikaa toteuttaa osaamistaan haastavampien ja suurempien tarjouksien tekemisessä. Tuloksena on saatu neliportainen kehityspolku, jota kulkemalla päästään kohti hahmotettua tavoitetilaa. Työn tuloksia käytetään hyväksi aloitettaessa konfiguraattorin kehitys Laroxilla sekä kehitettäessä koko tarjoustoimintaa ja elinkaarenaikaista tiedonhallintaa yrityksessä.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Tällä hetkellä kolmannen sukupolven matkapuhelinjärjestelmät ovat siirtyneet kaupalliseen vaiheeseen. Universal Mobile Telecommunication System (UMTS) on eräs kolmannen sukupolven matkapuhelinjärjestelmä, jota tullaan käyttämään Euroopassa. Diplomityön päämääränä on tutkia, kuinka pakettivälitteistä tiedonsiirtoa hallitaan UMTS - verkoissa. Diplomityö antaa yleiskuvan toisen sukupolven matkapuhelinjärjestelmien datapalveluiden kehityksestä kolmannen sukupolven nopeisiin matkapuhelinjärjestelmiin. Pakettivälitteisen verkon verkkoarkkitehtuuri on esitetty sekä sen, diplomityön kannalta, tärkeimpien osien toiminnallisuus on selvitetty. Myös pakettipohjaisten datayhteyksien eli istuntojen muodostaminen ja vapauttaminen sekä aktiivisen yhteyden ominaisuuksien muokkaaminen on esitetty tässä diplomityössä. Yhteydenhallintaprotokolla, Session Management (SM), on yksi protokolla, joka osallistuu pakettidatayhteyden hallintaan. SM -protokolla on käsitelty työssä yksityiskohtaisesti. SM -protokollan SDL toteutus on esitetty diplomityön käytännönosassa

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Especially in global enterprises, key data is fragmented in multiple Enterprise Resource Planning (ERP) systems. Thus the data is inconsistent, fragmented and redundant across the various systems. Master Data Management (MDM) is a concept, which creates cross-references between customers, suppliers and business units, and enables corporate hierarchies and structures. The overall goal for MDM is the ability to create an enterprise-wide consistent data model, which enables analyzing and reporting customer and supplier data. The goal of the study was defining the properties and success factors of a master data system. The theoretical background was based on literature and the case consisted of enterprise specific needs and demands. The theoretical part presents the concept, background, and principles of MDM and then the phases of system planning and implementation project. Case consists of background, definition of as is situation, definition of project, evaluation criterions and concludes the key results of the thesis. In the end chapter Conclusions combines common principles with the results of the case. The case part ended up dividing important factors of the system in success factors, technical requirements and business benefits. To clarify the project and find funding for the project, business benefits have to be defined and the realization has to be monitored. The thesis found out six success factors for the MDM system: Well defined business case, data management and monitoring, data models and structures defined and maintained, customer and supplier data governance, delivery and quality, commitment, and continuous communication with business. Technical requirements emerged several times during the thesis and therefore those can’t be ignored in the project. Conclusions chapter goes through these factors on a general level. The success factors and technical requirements are related to the essentials of MDM: Governance, Action and Quality. This chapter could be used as guidance in a master data management project.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Tässä työssä selvitettiin tuotelopetustoiminnan nykytilaa ja tuotteen elinkaaren hallinnan prosessimallin hyödyntämistä suuressa teleoperaattoriyrityksessä. Työn tavoitteena oli tutkia, mitkä tekijät hidastavat lopetuksia ja miten hitaus vaikuttaa alasajojen kustannuksiin. Toisaalta haluttiin selvittää, miten tuotteen elinkaaren prosessimallia käytetään case-yrityksessä erityisesti tuotelopetustoiminnan osalta, ja miten prosessimallin käytöstä voidaan hyötyä. Näiden kysymysten selvittämiseksi haastateltiin kymmentä tuotelopetuksiin osallistunutta tuotevastaavaa yritysasiakas- ja tuotantoyksiköissä, hankittiin tuotetietoa yrityksen useilta asiantuntijoilta ja teoriatietoa muun muassa referenssimalleista ja tuotelopetusstrategioista kirjallisuudesta. Syitä hitaisiin tuotelopetuksiin listattiin. Todettiin, että moniin ongelmiin ratkaisun tarjoaisivat tehokkaampi tuote- ja asiakastiedonhallinta ja lopetettavien tuotteiden tunnistaminen, kypsien tuotteiden tarkempi seuranta sekä myyjien lisäkoulutukset. Joidenkin tuotteiden lopetuksen keston pidentyminen voi lisätä lopetukseen liittyviä kustannuksia, mutta näin ei ole kaikkien tuotteiden kohdalla. Lisäksi todettiin, että osa vanhoista tuotteista ei ole korvattavissa täysin uusilla tuotteilla uusiin tuotteisiin liittyvien riskien vuoksi. Tuloksena selvisi myös, että prosessimallia ei käytetä kaikissa tuotelopetustapauksissa. Syitä tähän on selvitettävä vielä lisätutkimuksin, jotta mallin parantaminen onnistuisi.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Palvelukeskeistä arkkitehtuuria (SOA) sovelletaan nykyään varsinkin suurten yritysten tietojärjestelmien suunnittelussa ja toteutuksessa. Siinä toiminnot suunnitellaan palveluina, mikä lisää erityisesti palveluiden uudelleen-käytettävyyttä ja mahdollisuutta hyödyntää jo tehtyjä järjestelmäinvestointeja. Tuotteen elinkaarenaikaisen tiedonhallinnan (PLM) pyrkimyksenä on saada elinkaarelle hajaantunut tieto käyttöön oikeassa paikassa oikeaan aikaan sekä parantaa tuotetiedon luotettavuutta ja ajantasaisuutta. Tämä on yksi tärkeimmistä tekijöistä tavoiteltaessa kilpailuetuja verkottuneessa liiketoiminnassa. Tämän diplomityön tavoitteena oli selvittää, kuinka tuotteen elinkaarenaikainen tiedonhallinta voidaan toteuttaa palvelukeskeisen arkkitehtuurin avulla sekä, mitä haasteita ja hyötyjä tästä seuraa organisaatiolle. Tutkimus tehtiin kirjallisuustutkimuksena. Työ tarjoaa tietoa PLM:n ja SOA:n integroinnista sekä integroinnin haasteista ja hyödyistä. Tutkimuksen tulokset osoittavat palvelukeskeisen PLM:n tuovan oikein suunniteltuna ja toteutettuna merkittäviä hyötyjä verkostoituneessa ympäristössä toimiville yrityksille. Lisäksi työ antaa käsityksen siitä, kuinka laaja projekti palvelukeskeisen PLM:n implementointi on.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Diplomityö on tehty osana Sinfonet-tutkimusprojektia, ja sen tavoitteena on laatia uusi toimintamalli asiakaslähtöisen tuotekehitystoiminnan tehostamiseksi. Toimintamallin vaatimuksena oli asiakastarvetiedon kerääminen koko tuotteen elinkaaren käyttövaiheen ajalta, ja rinnakkainen prosessi asiakastarpeiden analysointiin sekä hyödyntämiseen. Työssä yhdistetään asiakastarpeiden kartoittamiseen, analysointiin ja hyödyntämiseen käytettävät menetelmät yhdeksi systemaattiseksi kokonaisuudeksi, jota Laroxin henkilöstö voi tehokkaasti käyttää työssään. Menetelmä laatittiin teoriaosuudessa havaittujen viitekehysten ja Laroxin avainhenkilöiden kanssa suoritettujen haastattelujen pohjalta. On ehdottoman tärkeätä, että toimintamallin käyttö ja siitä saavutettavat hyödyt saadaan perusteltua yrityksen henkilöstölle. Toimintamallissa asiakastarpeiden kartoitusmenetelmiksi valittiin AVAIN-ryhmähaastattelu sekä puolistrukturoitu haastattelu, ja analysointimenetelmiksi tulkintataulukko sekä QFD (Quality Function Deployment). Tarpeiden dokumentointiin valittiin tietokannaksi Laroxin käytössä jo valmiiksi oleva wiki-pohjainen Live-järjestelmä. Uusi toimintamalli ja siinä mukana olevat prosessit kuvataan diplomityössä yksityiskohtaisesti tietovirtakaaviona.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Tutkimus on tehty Tekesin DTP-ohjelman Sinfonet-tutkimusprojektin puitteissa aikavälillä 2009-2011. Työssä on laadittu kokonaisvaltainen tuote- ja elinkaaritiedon hallinnan (eng. Product Lifecycle Management, PLM) tiekartta ja kehityssuunnitelma pienelle engineering-yritykselle. Työ käsittelee asiakkaan erikoisvaatimusten mukaan räätälöitävän tuotteen tuote- ja elinkaaritiedon hallinnan systematisointia pk-yrityksessä. Vaikka PLM-tiekartta on laadittu yksittäiselle yritykselle, sitä voidaan tietyin edellytyksin soveltaa myös toisten pk-yritysten tai engineeringyritysten PLM:n kehittämiseen. Teoriassa tarkastellaan ensinnäkin kohdeyritykseen liittyviä erityispiirteitä, pyritään ymmärtämään engineering–yrityksen ja pk-yrityksen erikoispiirteitä sekä niiden vaikutusta PLM:n kehittämiseen. Toiseksi esitellään PLM:n viittä keskeistä osaaluetta, yksi- ja viisiulotteisten PLM-kypsyysmallien käyttöä yrityksen nykytilan arvioimiseksi sekä rakennetaan engineering-yrityksen kokonaisvaltainen PLM-malli ja kahdeksan askeleen PLM-kehityspolku. PLM-malli jäsentää tiedonhallintaa prosessien kautta ja se koostuu viidestä osaalueesta: strategia identifioi asiakastarpeet sekä määrittelee kuinka tuotteiden ja prosessien avulla asiakastarpeet tyydytetään; prosessit ovat yrityksen toiminnan ydin, joissa tuotemallit ja tuote- ja tietorakenteet kehitetään sekä tuoteyksilöt toimitetaan asiakkaalle; rakenteet pohjautuvat strategiassa valittuun tuote- ja tiedonhallinnan strategiaan ja niiden tehtävänä on tukea ja tehostaa toimintaprosesseja; kulttuuri ja ihmiset muodostavat aineettoman pääoman, jonka vaikutuksesta prosessit toimivat ja tuotteet pystytään toimittamaan asiakkaalle; informaatioteknologia on työkalu, jota käytetään prosesseissa ja tietorakenteiden ylläpidossa, pääosin dokumentoidun tiedon luomiseen, hankitaan, varastoimiseen, jakamiseen ja soveltamiseen. Tapaustutkimuksessa kuvataan kohdeyrityksen nykytilaa PLM:n viidellä keskeisellä osa-alueella, tehdään PLM kypsyysarvio kahdella menetelmällä, määritellään yrityksen tavoitetila ja laaditaan yritykselle ensin alustava PLM roadmap ja lopulta kokonaisvaltaiseen PLM-malliin perustuva PLM roadmap ja PLM:n jatkokehityssuunnitelma.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This dissertation considers the impact of technology foresight in innovation within the context of a technology driven development. The main hypothesis made was that by using different methods of foresight in the industry level significant value could be created. The question was approached through a case study in portable fuel cell technology. The theoretical background of the study draws from Innovation, Product Development, Management of Technology, and Technology Foresight. The connection within the topics is made by analyzing foresight, not in a policy view as often done in Europe, but in a micro-level. Focusing mostly on how a technology driven development scenario could be analyzed. The study is based on a bibliometric, extrapolation and patent analysis within the context of a case study. In addition, a large two-year Delphi study was conducted. The study was finalized with a scenario work on the future possibilities of the case study technology. Original publications also consider several methodological issues. In the context of the case study, the study questions the practicality of establishing a portable fuel cell technology in Finland showing several impractical assumptions has been made. In a more conceptual level, the study makes notions on two underlying factors: policy-push technologies and growth of data. Policy-push questions in which level a policy effort towards a single technology is practical. The European foresight effort is more directed towards policy decisions in contrast to US foresight, which is to some extent corporate driven. Although the policy-based foresight has produced significant results in the European context, policy led efforts towards a single technology are challenging. Growth of data argues on the challenges produced by the large-scale application of quantitative measures of foresight. Bibliometric studies and trend extrapolations have been taken advantage of the increasing number of databases made available, and used these as the basis for forecasts. However, the relationship with actual development and quantitative evidence is still unproven.