928 resultados para modeling and visualization
Resumo:
Based on experimental tests, it was obtained the equations for drying, equilibrium moisture content, latent heat of vaporization of water contained in the product and the equation of specific heat of cassava starch pellets, essential parameters for realizing modeling and mathematical simulation of mechanical drying of cassava starch for a new technique proposed, consisting of preformed by pelleting and subsequent artificial drying of starch pellets. Drying tests were conducted in an experimental chamber by varying the air temperature, relative humidity, air velocity and product load. The specific heat of starch was determined by differential scanning calorimetry. The generated equations were validated through regression analysis, finding an appropriate correlation of the data, which indicates that by using these equations, can accurately model and simulate the drying process of cassava starch pellets.
Resumo:
Liiketoiminnot käyttävät useita erillisiä tietojärjestelmiä. Toimintaprosessit sisältävät useiden eri liiketoimintojen suorittamia tehtäviä. Tehtävien tarvitsemien ja tuottamien tietojen sujuvan virtauksen toteutuminen vaatii tietojen ja tietojärjestelmien integraatiota, jota on toteutettu perinteisesti järjestelmien välisillä suorilla yhteyksillä. Tästä seuraa IT-arkkitehtuurin joustamattomuutta. Palvelulähtöisellä arkkitehtuurilla (Service Oriented Architecture, SOA) luvataan IT-arkkitehtuurille parempaa joustavuutta ja toisaalta kustannussäästöjä. Työssä selvitettiin palveluarkkitehtuurin teoreettinen tausta sekä palvelulähtöisen prosessikuvauskielen BPMN ideaa. Empiirisessä osuudessa haettiin teemahaastattelujen avulla kohdeyrityksen ja sen käyttämien järjestelmätoimittajien näkemyksiä palveluarkkitehtuurista ja siihen vaikuttavista tekijöistä. Lisäksi työssä selvitettiin palveluarkkitehtuurista saatavia vastauksia kohdeyrityksen IT-strategiassa esitettyihin tavoitteisiin. Työn tuloksena analysoitiin palvelupohjaista mallinnusmenetelmää noudattaen prosessi- ja palvelukuvaus sekä tunnistettiin niitä tukevat SOA-palvelut. Menetelmän lopputuloksia hyödyntäen työssä esitettiin implementointiratkaisu palveluväylän avulla toteutettuna. Lisäksi luonnosteltiin ehdotusta siitä, miten kohdeyritys voisi lähteä liikkeelle palveluarkkitehtuurin soveltamisessa.
Resumo:
Tässä diplomityössä määritellään biopolttoainetta käyttävän voimalaitoksen käytönaikainen tuotannon optimointimenetelmä. Määrittelytyö liittyy MW Powerin MultiPower CHP –voimalaitoskonseptin jatkokehitysprojektiin. Erilaisten olemassa olevien optimointitapojen joukosta valitaan tarkoitukseen sopiva, laitosmalliin ja kustannusfunktioon perustuva menetelmä, jonka tulokset viedään automaatiojärjestelmään PID-säätimien asetusarvojen muodossa. Prosessin mittaustulosten avulla lasketaan laitoksen energia- ja massataseet, joiden tuloksia käytetään seuraavan optimointihetken lähtötietoina. Optimoinnin kohdefunktio on kustannusfunktio, jonka termit ovat voimalaitoksen käytöstä aiheutuvia tuottoja ja kustannuksia. Prosessia optimoidaan säätimille annetut raja-arvot huomioiden niin, että kokonaiskate maksimoituu. Kun laitokselle kertyy käyttöikää ja historiadataa, voidaan prosessin optimointia nopeuttaa hakemalla tilastollisesti historiadatasta nykytilanteen olosuhteita vastaava hetki. Kyseisen historian hetken katetta verrataan kustannusfunktion optimoinnista saatuun katteeseen. Paremman katteen antavan menetelmän laskemat asetusarvot otetaan käyttöön prosessin ohjausta varten. Mikäli kustannusfunktion laskenta eikä historiadatan perusteella tehty haku anna paranevaa katetta, niiden laskemia asetusarvoja ei oteta käyttöön. Sen sijaan optimia aletaan hakea deterministisellä optimointialgoritmilla, joka hakee nykyhetken ympäristöstä paremman katteen antavia säätimien asetusarvoja. Säätöjärjestelmä on mahdollista toteuttaa myös tulevaisuutta ennustavana. Työn käytännön osuudessa voimalaitosmalli luodaan kahden eri mallinnusohjelman avulla, joista toisella kuvataan kattilan ja toisella voimalaitosprosessin toimintaa. Mallinnuksen tuloksena saatuja prosessiarvoja hyödynnetään lähtötietoina käyttökatteen laskennassa. Kate lasketaan kustannusfunktion perusteella. Tuotoista suurimmat liittyvät sähkön ja lämmön myyntiin sekä tuotantotukeen, ja suurimmat kustannukset liittyvät investoinnin takaisinmaksuun ja polttoaineen ostoon. Kustannusfunktiolle tehdään herkkyystarkastelu, jossa seurataan katteen muutosta prosessin teknisiä arvoja muutettaessa. Tuloksia vertaillaan referenssivoimalaitoksella suoritettujen verifiointimittausten tuloksiin, ja havaitaan, että tulokset eivät ole täysin yhteneviä. Erot johtuvat sekä mallinnuksen puutteista että mittausten lyhyehköistä tarkasteluajoista. Automatisoidun optimointijärjestelmän käytännön toteutusta alustetaan määrittelemällä käyttöön otettava optimointitapa, siihen liittyvät säätöpiirit ja tarvittavat lähtötiedot. Projektia tullaan jatkamaan järjestelmän ohjelmoinnilla, testauksella ja virityksellä todellisessa voimalaitosympäristössä ja myöhemmin ennustavan säädön toteuttamisella.
Resumo:
Memristive computing refers to the utilization of the memristor, the fourth fundamental passive circuit element, in computational tasks. The existence of the memristor was theoretically predicted in 1971 by Leon O. Chua, but experimentally validated only in 2008 by HP Labs. A memristor is essentially a nonvolatile nanoscale programmable resistor — indeed, memory resistor — whose resistance, or memristance to be precise, is changed by applying a voltage across, or current through, the device. Memristive computing is a new area of research, and many of its fundamental questions still remain open. For example, it is yet unclear which applications would benefit the most from the inherent nonlinear dynamics of memristors. In any case, these dynamics should be exploited to allow memristors to perform computation in a natural way instead of attempting to emulate existing technologies such as CMOS logic. Examples of such methods of computation presented in this thesis are memristive stateful logic operations, memristive multiplication based on the translinear principle, and the exploitation of nonlinear dynamics to construct chaotic memristive circuits. This thesis considers memristive computing at various levels of abstraction. The first part of the thesis analyses the physical properties and the current-voltage behaviour of a single device. The middle part presents memristor programming methods, and describes microcircuits for logic and analog operations. The final chapters discuss memristive computing in largescale applications. In particular, cellular neural networks, and associative memory architectures are proposed as applications that significantly benefit from memristive implementation. The work presents several new results on memristor modeling and programming, memristive logic, analog arithmetic operations on memristors, and applications of memristors. The main conclusion of this thesis is that memristive computing will be advantageous in large-scale, highly parallel mixed-mode processing architectures. This can be justified by the following two arguments. First, since processing can be performed directly within memristive memory architectures, the required circuitry, processing time, and possibly also power consumption can be reduced compared to a conventional CMOS implementation. Second, intrachip communication can be naturally implemented by a memristive crossbar structure.
Resumo:
IT service catalog is an increasingly important issue as many IT organizations have been realizing it as a central communication and visualization tool to bridge the gap between IT and the business. This study reviews relevant literature on IT service catalog and related issues on IT services delivery. Furthermore, the study shows how IT service catalog can enhance IT effectiveness as well as provide more benefits when integrating with Configuration Management Database. In order to analyze whether IT service catalog is needed to be implemented in a Pan-Nordic Insurance Company, this study also investigates the current IT services delivery of a case study. The findings of the study show the problems in the current situation of IT services delivery in the case. The characteristics of IT service catalog are recommended in order to help with the mentioned flaws.
Resumo:
Tässä työssä tutkittiin eri mitoitusmenetelmien soveltuvuutta hitsattujen rakenteiden vä-symislaskennassa. Käytetyt menetelmät olivat rakenteellinen jännityksen menetelmä, te-hollisen lovijännityksen menetelmä ja murtumismekaniikka. Lisäksi rakenteellisen jänni-tyksen määrittämiseksi käytettiin kolmea eri menetelmää. Menetelmät olivat pintaa pitkin ekstrapolointi, paksuuden yli linearisointi ja Dongin menetelmä. Väsymiskestävyys määritettiin kahdelle hitsiliitoksen yksityiskohdalle. Laskenta tehtiin käyttäen elementtimenetelmää rakenteen 3D-mallille. Tutkittavasta aggregaattirungosta oli olemassa FE-malli mutta alimallinnustekniikkaa hyödyntämällä pystyttiin yksityiskohtai-semmin tutkimaan vain pientä osaa koko rungon mallista. Rakenteellisen jännityksen menetelmä perustuu nimellisiin jännityksiin. Kyseinen mene-telmä ei vaadi geometrian muokkausta. Yleensä rakenteellisen jännityksen menetelmää käytetään hitsin rajaviivan väsymislaskennassa, mutta joissain tapauksissa sitä on käytetty juuren puolen laskennassa. Tässä työssä rakenteellisen jännityksen menetelmää käytettiin myös juuren puolen tutkimisessa. Tehollista lovijännitystä tutkitaan mallintamalla 1 mm fiktiiviset pyöristykset sekä rajaviivalle että juuren puolelle. Murtumismekaniikan so-veltuvuutta tutkittiin käyttämällä Franc2D särön kasvun simulointiohjelmaa. Väsymislaskennan tulokset eivät merkittävästi poikkea eri laskentamenetelmien välillä. Ainoastaan rakenteellisen jännityksen Dongin menetelmällä saadaan poikkeavia tuloksia. Tämä johtuu pääasiassa siitä, että menetelmän laskentaetäisyydestä ei ole tietoa. Raken-teellisen jännityksen menetelmällä, tehollisen lovijännityksen menetelmällä ja murtumis-mekaniikalla saadaan samansuuntaiset tulokset. Suurin ero menetelmien välillä on mal-linnuksen ja laskennan vaatima työmäärä.
Resumo:
Diplomityön tavoitteena on soveltaa perinteisesti teollisesta tuotannosta lähtöisin olevia prosessijohtamisen menetelmiä sosiaali- ja terveydenhuollon vastaanottotoiminnan kehittämiseen. Tarkoituksena on asiantuntijapalveluprosessien mallintamisen avulla kartoittaa prosessien nykytilaa tunnistamalla ongelma- ja kehittämiskohteita, joiden ratkaisemiseksi annettavien kehittämistoimenpide-ehdotusten muodostamisessa sovelletaan prosessijohtamisen menetelmien periaatteita. Tutkimuksen teoreettisen viitekehyksen mukaisesti tarkastellaan mm. prosessien mallintamista, eli kuvaamista ja analysointia, sekä sosiaali- ja terveydenhuoltoa palvelutuotantona. Tutkimuksessa hyödynnetään sekä kvalitatiivisia että kvantitatiivisia menetelmiä, ja tutkimusaineistoa kerätään haastattelujen, havainnoinnin ja tilastojen avulla. Asiantuntijoiden palveluprosesseista laaditaan aineiston perusteella kuvaukset, ja tunnistetaan prosesseihin tai laajemminkin sosiaali- ja terveydenhuolto-organisaatioon liittyviä ongelma- ja kehittämiskohteita. Kehittämistoimenpiteissä korostuvat asiakaslähtöisyys ja tuottavuus, ja niissä huomioidaan niin asiakkaan, henkilöstön, prosessien kuin asiakasohjauksen näkökulma. Työn keskeisimmät tulokset ovat prosessikuvaukset, tunnistetut ongelma- ja kehittämiskohteet sekä prosessien uudelleenmäärittämiseksi muodostetut kehittämistoimenpide-ehdotukset, joiden hyötyjä ja vaikutuksia mm. suorituskykyyn arvioidaan. Tulosten perusteella voidaan päätellä, että prosessijohtamisen menetelmät soveltuvat sosiaali- ja terveydenhuollon toiminnan kehittämiseen, kunhan huomioidaan toimintaympäristön erityispiirteet ja haasteet.
Resumo:
Technological capabilities are built to support different types of collaboration, and this gives the justification to widely observe, how activity environments are influenced by technology. Technology as an enabler can be addressed from different perspectives, other than merely technological. Dynamic, evolving environment is at the same time interesting but also challenging. As a multinational collaboration environment, the maritime surveillance is an good example of time critical and evolving environment, where technological solutions enable new ways of collaboration. Justification for the inspiration to use maritime environment as the baseline for understanding the challenges in creating and maintaining adequate level of situational awareness, derives from the complexity of the collaboration and information sharing environment elements, needed to be taken into account, when analyzing criticalities related to decision making. Situational awareness is an important element supporting decision making, and challenges related to it can also be observed in the maritime environment. This dissertation describes the structures and factors involved in this complex setting, found from the case studies that should be taken into account when trying to understand, how these elements affect the activities. This dissertation focuses on the gray area that is between a life threatening situation and normal everyday activities. From the multinational experimentation series case studies, MNE5 and MNE6 it was possible to observe situations that were not life threatening for the participants themselves, but not also basic every day activities. These case studies provided a unique possibility to see situations, where gaining of situational awareness and decision making are challenged with time critical crisis situations. Unfortunately organizations do not normally take the benefit from the everyday work to prepare themselves for possible emerging crisis situations. This dissertation focuses on creating a conceptual model and a concept that supports organizations – also outside the maritime community – to improve their ability to support gaining of situational awareness from the individual training level, all the way to changes in organizational structures in aiming for better support for decision making from the individual level to the highest decision making level. Quick changes and unpredictability are reality in organizations and organizations do not have the possibility to control all the factors that affect their functioning. Since we cannot be prepared for everything, and predict every crisis, individual activities inside teams and as a part of organizations, need to be supported with guidance, tools and training in order to support acting in challenging situations. In fact the ideology of the conceptual model created, lies especially in the aim of not controlling everything in beforehand, but supporting organizations with concrete procedures to help individuals to react in different, unpredictable situations, instead of focusing on traditional risk prevention and management. Technological capabilities are not automatically solutions for functional challenges; this is why it is justified to broaden the problem area observation from the technological perspective. This dissertation demonstrates that it is possible to support collaboration in a multinational environment with technological solutions, but it requires the recognition of technological limitations and accepting the possible restrictions related to technological innovations. Technology should not be considered value per se, the value of technology should be defined according to the support of activities, including strategic and operational environment evaluation, identification of organizational elements, and taking into account also the social factors and their challenges. Then we are one step closer to providing technological solutions that support the actual activities by taking into account the variables of the activity environment in question. The multidisciplinary view to approach the information sharing and collaboration framework, is derived especially from the complexity of decision making and building of situational awareness, since they are not build or created in vacuity, but in the organizational framework by the people doing it with the technological capabilities, enabled by the organizational structures. Introduced case studies were related to maritime environment, but according to the research results, it is valid to argue, that based on the lessons learned it is possible to create and further develop conceptual model and to create a general concept to support a wider range of organizations in their attempt to gain better level of situational awareness (SA) and to support decision making. To proof the versatile usage of the developed concept, I have introduced the case study findings to the health care environment and reflected the identified elements from the trauma center to the created concept. The main contribution to complete this adventure is the presented situational awareness concept created in the respect to NATO concept structure. This has been done to tackle the challenge of collaboration by focusing on situational awareness in the information sharing context by providing a theoretical ground and understanding, of how these issues should be approached, and how these elements can be generalized and used to support activities in other environments as well. This dissertation research has been a several year evolving process reflecting and affecting presented case studies and this learning experience from the case studies has also affected the goals and research questions of this dissertation. This venture has been written from a retro perspective according to ideology of process modeling and design rationale to present to the reader how this entire journey took place and what where the critical milestones that affected the end result, conceptual model. Support in a challenging information sharing framework can be provided with the right type of combination of tools, procedures and individual effort. This dissertation will provide insights to those with a new approach to war technology for the organizations to gain a better level of awareness and to improve the capabilities in decision making. This dissertation will present, from the war technology starting point, a new approach and possibility for the organizations to create a better level of awareness and support for decision making with the right combination of tools, procedures and individual effort.
Resumo:
Tämän diplomityön tärkeimpänä tavoitteena on kuvata kohdekonsernin ydinprosessi asiakasrajapinnasta takuutarkastukseen sekä sitä tukevat prosessit riittävällä tarkkuudella. Lisäksi tavoitteena on laatia kuvaamisen pohjalta yksinkertainen työkalu yksittäisten hankkeiden johtamisen sekä sisäisen koulutuksen tarpeisiin. Tavoitteena on työn kautta edistää konsernin strategisten tavoitteiden saavuttamista. Työ jakautuu teoria- ja empiriaosaan. Teoriaosassa luodaan viitekehys työn empiriaosalle. Se pitää sisällään prosessiajattelun ja prosessijohtamisen käsittelyä sekä prosessien kuvaamisen ja niiden suorituskyvyn mittaamisen teoreettista taustaa. Työn empiria- eli käytännön osassa kuvataan konsernin strategian mukainen ydinprosessi ja määritetään siihen porttimallin mukaiset portit sekä niissä tarkastettavat minimivaatimukset. Lisäksi esitellään ydinprosessia tukevia prosesseja ja laaditaan suorituskykymittaristo sekä käsitellään jatkuvaa parantamista konsernissa käytännössä. Käytännön osan lopussa esitellään kuvauksen pohjalta laadittu työkalu sekä sen tuomat mahdollisuudet. Teoriaosa on luonteeltaan kirjallisuustutkimus, joka muodostuu kirjojen ja artikkelien pohjalta. Empiriaosassa on sekä tapaustutkimuksen että konstruktiivisen tutkimuksen piirteitä ja menetelminä siinä on käytetty haastatteluja, palavereita ja havainnointia. Empiriaosassa on hyödynnetty myös konsernin omaa aineistoa. Keskeisimpiä tuloksia ovat ydinprosessin kuvaus sekä sen pohjalta laadittu konsernin tarpeisiin vastaava konkreettinen työkalu. Lisäksi tuloksena voidaan pitää havaittua prosessiajattelun edistymistä konsernissa. Kohdekonsernin ydinprosessi koostuu kuudesta vaiheesta: 1) asiakastarpeiden selvitys/myynti, 2) tarjous- ja sopimusvaihe, 3) suunnittelu, 4) työmaavaihe, 5) ennakkotarkastus- ja luovutusvaihe ja 6) loppuselvitys- ja takuuvaihe. Ydinprosessin vaiheet muodostuvat määriteltyjen porttien kautta ja ne muodostavat konsernin prosessikartan rungon.
Resumo:
In this Master’s thesis agent-based modeling has been used to analyze maintenance strategy related phenomena. The main research question that has been answered was: what does the agent-based model made for this study tell us about how different maintenance strategy decisions affect profitability of equipment owners and maintenance service providers? Thus, the main outcome of this study is an analysis of how profitability can be increased in industrial maintenance context. To answer that question, first, a literature review of maintenance strategy, agent-based modeling and maintenance modeling and optimization was conducted. This review provided the basis for making the agent-based model. Making the model followed a standard simulation modeling procedure. With the simulation results from the agent-based model the research question was answered. Specifically, the results of the modeling and this study are: (1) optimizing the point in which a machine is maintained increases profitability for the owner of the machine and also the maintainer with certain conditions; (2) time-based pricing of maintenance services leads to a zero-sum game between the parties; (3) value-based pricing of maintenance services leads to a win-win game between the parties, if the owners of the machines share a substantial amount of their value to the maintainers; and (4) error in machine condition measurement is a critical parameter to optimizing maintenance strategy, and there is real systemic value in having more accurate machine condition measurement systems.
Resumo:
This paper describes an electronic transducer for multiphase flow measurement. Its high sensitivity, good signal to noise ratio and accuracy are achieved through an electrical impedance sensor with a special guard technique. The transducer consists of a wide bandwidth and high slew rate differentiator where the lead inductance and stray capacitance effects are compensated. The sensor edge effect is eliminated by using a guard electrode based on the virtual ground potential of the operational amplifier. A theoretical modeling and a calibration method are also presented. The results obtained seem to confirm the validity of the proposed technique.
Improving the competitiveness of electrolytic Zinc process by chemical reaction engineering approach
Resumo:
This doctoral thesis describes the development work performed on the leachand purification sections in the electrolytic zinc plant in Kokkola to increase the efficiency in these two stages, and thus the competitiveness of the plant. Since metallic zinc is a typical bulk product, the improvement of the competitiveness of a plant was mostly an issue of decreasing unit costs. The problems in the leaching were low recovery of valuable metals from raw materials, and that the available technology offered complicated and expensive processes to overcome this problem. In the purification, the main problem was consumption of zinc powder - up to four to six times the stoichiometric demand. This reduced the capacity of the plant as this zinc is re-circulated through the electrolysis, which is the absolute bottleneck in a zinc plant. Low selectivity gave low-grade and low-value precipitates for further processing to metallic copper, cadmium, cobalt and nickel. Knowledge of the underlying chemistry was poor and process interruptions causing losses of zinc production were frequent. Studies on leaching comprised the kinetics of ferrite leaching and jarosite precipitation, as well as the stability of jarosite in acidic plant solutions. A breakthrough came with the finding that jarosite could precipitate under conditions where ferrite would leach satisfactorily. Based on this discovery, a one-step process for the treatment of ferrite was developed. In the plant, the new process almost doubled the recovery of zinc from ferrite in the same equipment as the two-step jarosite process was operated in at that time. In a later expansion of the plant, investment savings were substantial compared to other technologies available. In the solution purification, the key finding was that Co, Ni, and Cu formed specific arsenides in the “hot arsenic zinc dust” step. This was utilized for the development of a three-step purification stage based on fluidized bed technology in all three steps, i.e. removal of Cu, Co and Cd. Both precipitation rates and selectivity increased, which strongly decreased the zinc powder consumption through a substantially suppressed hydrogen gas evolution. Better selectivity improved the value of the precipitates: cadmium, which caused environmental problems in the copper smelter, was reduced from 1-3% reported normally down to 0.05 %, and a cobalt cake with 15 % Co was easily produced in laboratory experiments in the cobalt removal. The zinc powder consumption in the plant for a solution containing Cu, Co, Ni and Cd (1000, 25, 30 and 350 mg/l, respectively), was around 1.8 g/l; i.e. only 1.4 times the stoichiometric demand – or, about 60% saving in powder consumption. Two processes for direct leaching of the concentrate under atmospheric conditions were developed, one of which was implemented in the Kokkola zinc plant. Compared to the existing pressure leach technology, savings were obtained mostly in investment. The scientific basis for the most important processes and process improvements is given in the doctoral thesis. This includes mathematical modeling and thermodynamic evaluation of experimental results and hypotheses developed. Five of the processes developed in this research and development program were implemented in the plant and are still operated. Even though these processes were developed with the focus on the plant in Kokkola, they can also be implemented at low cost in most of the zinc plants globally, and have thus a great significance in the development of the electrolytic zinc process in general.
Resumo:
Advancements in IC processing technology has led to the innovation and growth happening in the consumer electronics sector and the evolution of the IT infrastructure supporting this exponential growth. One of the most difficult obstacles to this growth is the removal of large amount of heatgenerated by the processing and communicating nodes on the system. The scaling down of technology and the increase in power density is posing a direct and consequential effect on the rise in temperature. This has resulted in the increase in cooling budgets, and affects both the life-time reliability and performance of the system. Hence, reducing on-chip temperatures has become a major design concern for modern microprocessors. This dissertation addresses the thermal challenges at different levels for both 2D planer and 3D stacked systems. It proposes a self-timed thermal monitoring strategy based on the liberal use of on-chip thermal sensors. This makes use of noise variation tolerant and leakage current based thermal sensing for monitoring purposes. In order to study thermal management issues from early design stages, accurate thermal modeling and analysis at design time is essential. In this regard, spatial temperature profile of the global Cu nanowire for on-chip interconnects has been analyzed. It presents a 3D thermal model of a multicore system in order to investigate the effects of hotspots and the placement of silicon die layers, on the thermal performance of a modern ip-chip package. For a 3D stacked system, the primary design goal is to maximise the performance within the given power and thermal envelopes. Hence, a thermally efficient routing strategy for 3D NoC-Bus hybrid architectures has been proposed to mitigate on-chip temperatures by herding most of the switching activity to the die which is closer to heat sink. Finally, an exploration of various thermal-aware placement approaches for both the 2D and 3D stacked systems has been presented. Various thermal models have been developed and thermal control metrics have been extracted. An efficient thermal-aware application mapping algorithm for a 2D NoC has been presented. It has been shown that the proposed mapping algorithm reduces the effective area reeling under high temperatures when compared to the state of the art.
Resumo:
Data management consists of collecting, storing, and processing the data into the format which provides value-adding information for decision-making process. The development of data management has enabled of designing increasingly effective database management systems to support business needs. Therefore as well as advanced systems are designed for reporting purposes, also operational systems allow reporting and data analyzing. The used research method in the theory part is qualitative research and the research type in the empirical part is case study. Objective of this paper is to examine database management system requirements from reporting managements and data managements perspectives. In the theory part these requirements are identified and the appropriateness of the relational data model is evaluated. In addition key performance indicators applied to the operational monitoring of production are studied. The study has revealed that the appropriate operational key performance indicators of production takes into account time, quality, flexibility and cost aspects. Especially manufacturing efficiency has been highlighted. In this paper, reporting management is defined as a continuous monitoring of given performance measures. According to the literature review, the data management tool should cover performance, usability, reliability, scalability, and data privacy aspects in order to fulfill reporting managements demands. A framework is created for the system development phase based on requirements, and is used in the empirical part of the thesis where such a system is designed and created for reporting management purposes for a company which operates in the manufacturing industry. Relational data modeling and database architectures are utilized when the system is built for relational database platform.
Resumo:
Tämän työn tavoitteena oli luoda koulutusmateriaalia PF-suodattimien hydraulijärjestelmien koulutusta varten sekä selvittää Automation Studio-ohjelmiston soveltuvuutta PF-suodattimien analysointiin ja vianmääritykseen. Työssä tutkittiin myös aktivoivien koulutusmenetelmien vaikutusta oppimisprosessiin. Työn tärkeimpinä tuloksina saatiin opetusvideot PF-suodattimien hydraulijärjestelmissä käytettävistä peruskomponenteista sekä järjestelmien toimintaa kuvaavat opetusvideot. Työssä käytettyä mallinnus- ja simulointiohjelmistoa ei voida nykyisellä ohjelmaversiolla täysin soveltaa PF-suodattimien vianmääritykseen tai analysointiin. Työssä selvennettiin menestyksekkään vianmäärityksen ja analysoinnin kannalta tarvittavat laajennustarpeet ohjelmistoon. Koulutuksesta kerätyn palautteen perusteella opetusvideot yhdistettynä aktivoiviin koulutusmenetelmiin helpottavat PF-suodattimien hydraulijärjestelmien koulutusta sekä edistävät oppimisprosessia. Aktivoivia koulutusmenetelmiä voidaan pitää erityisesti soveltuvina aikuiskoulutukseen.