706 resultados para ainestopohjainen menetelmä
Resumo:
Tietotekniikan käyttö on tärkeää mikroyrityksen kasvun kannalta. Tutkielmassa pyrittiin toimintatutkimuksen keinoin löytämään kosmetiikan suoramyyntiä harjoittavan toiminimen KaunisSinä taustalla olevan osa-aikaisen yrittäjän asettamien tavoitteiden ja rajoitteiden mukaan paras ohjelmisto tukemaan asiakkuuden hallintaa. Ohjelmiston valintaa varten tutkittiin ohjelmistohankinnan menetelmiä kaupallisten valmisohjelmistojen, avoimen lähdekoodin ohjelmistojen ja räätälöityjen ohjelmistojen osalta. Yrittäjän toimintatapojen kartoituksen perusteella muodostettiin kriteerit ohjelmistojen vertailua ja valintaa varten. Vertailussa käytettiin painotetun keskiarvon menetelmää. Markkinoilla on saatavilla ominaisuuksiltaan sopivia avoimen lähdekoodin asiakkuuden hallintaohjelmistoja. Valinta on kompromissi ohjelmiston tarjoaman toiminnallisuuden sekä ominaisuuksien ja yritykselle muodostuneiden toimintatapojen välillä. Yrityksen on siis osittain mukautettava toimintatapojaan ohjelmiston mukaiseksi.
Resumo:
Tässä diplomityössä käsitellään palvelukeskeistä arkkitehtuuria ja sen pohjalta vanhaan järjestelmään rakennetun palvelurajapinnan laajentamista avustavan teknologian avulla. Avustavalla teknologialla automatisoidaan vanhan järjestelmän graafisen ohjelman käyttöliittymän toimintoja verkkopalveluksi. Alussa esitellään palvelukeskeisen arkkitehtuurin määritelmä ja sen mukaisia suunnitteluperiaatteita. Sen jälkeen käydään läpi teoriaa, toteutuksia ja lähestymistapoja vanhojen järjestelmien integroimiseksi osaksi palvelukeskeistä arkkitehtuuria. Microsoft Windows-ympäristön tarjoama tuki avustavalle teknologialle käydään läpi. Palvelurajapinnan laajentamisessa käytettiin mustan laatikon menetelmää, jolla vanhan järjestelmän graafinen ohjelma automatisoidaan avustavan teknologian avulla. Menetelmä osoittautui toimivaksi ja sitä voidaan käyttää vanhojen järjestelmien integroimiseksi osaksi palvelukeskeistä arkkitehtuuria
Resumo:
Early Detection of Alzheimer's Disease Beta-amyloid Pathology -Applicability of Positron Emission Tomography with the Amyloid Radioligand 11C-PIB Accumulation of beta amyloid (Abeta) in the brain is characteristic for Alzheimer’s disease (AD). Carbon-11 labeled 2-(4’-methylaminophenyl)-6-hydroxybenzothiazole (11C-PIB) is a novel positron emission tomography (PET) amyloid imaging agent that appears to be applicable for in vivo Abeta plaque detection and quantitation. The biodistribution and radiation dosimetry of 11C-PIB were investigated in 16 healthy subjects. The reproducibility of a simplified 11C-PIB quantitation method was evaluated with a test-retest study on 6 AD patients and 4 healthy control subjects. Brain 11C-PIB uptake and its possible association with brain atrophy rates were studied over a two-year follow-up in 14 AD patients and 13 healthy controls. Nine monozygotic and 8 dizygotic twin pairs discordant for cognitive impairment and 9 unrelated controls were examined to determine whether brain Abeta accumulation could be detected with 11C-PIB PET in cognitively intact persons who are at increased genetic risk for AD. The highest absorbed radiation dose was received by the gallbladder wall (41.5 mjuGy/MBq). About 20 % of the injected radioactivity was excreted into urine, and the effective whole-body radiation dose was 4.7 mjuSv/MBq. Such a dose allows repeated scans of individual subjects. The reproducibility of the simplified 11C-PIB quantitation was good or excellent both at the regional level (VAR 0.9-5.5 %) and at the voxel level (VAR 4.2-6.4 %). 11C-PIB uptake did not increase during 24 months’ follow-up of subjects with mild or moderate AD, even though brain atrophy and cognitive decline progressed. Baseline neocortical 11C-PIB uptake predicted subsequent volumetric brain changes in healthy control subjects (r = 0.725, p = 0.005). Cognitively intact monozygotic co-twins – but not dizygotic co-twins – of memory-impaired subjects exhibited increased 11C-PIB uptake (117-121 % of control mean) in their temporal and parietal cortices and the posterior cingulate (p<0.05), when compared with unrelated controls. This increased uptake may be representative of an early AD process, and genetic factors seem to play an important role in the development of AD-like Abeta plaque pathology. 11C-PIB PET may be a useful method for patient selection and follow-up for early-phase intervention trials of novel therapeutic agents. AD might be detectable in high-risk individuals in its presymptomatic stage with 11C-PIB PET, which would have important consequences both for future diagnostics and for research on disease-modifying treatments.
Resumo:
This study presents an automatic, computer-aided analytical method called Comparison Structure Analysis (CSA), which can be applied to different dimensions of music. The aim of CSA is first and foremost practical: to produce dynamic and understandable representations of musical properties by evaluating the prevalence of a chosen musical data structure through a musical piece. Such a comparison structure may refer to a mathematical vector, a set, a matrix or another type of data structure and even a combination of data structures. CSA depends on an abstract systematic segmentation that allows for a statistical or mathematical survey of the data. To choose a comparison structure is to tune the apparatus to be sensitive to an exclusive set of musical properties. CSA settles somewhere between traditional music analysis and computer aided music information retrieval (MIR). Theoretically defined musical entities, such as pitch-class sets, set-classes and particular rhythm patterns are detected in compositions using pattern extraction and pattern comparison algorithms that are typical within the field of MIR. In principle, the idea of comparison structure analysis can be applied to any time-series type data and, in the music analytical context, to polyphonic as well as homophonic music. Tonal trends, set-class similarities, invertible counterpoints, voice-leading similarities, short-term modulations, rhythmic similarities and multiparametric changes in musical texture were studied. Since CSA allows for a highly accurate classification of compositions, its methods may be applicable to symbolic music information retrieval as well. The strength of CSA relies especially on the possibility to make comparisons between the observations concerning different musical parameters and to combine it with statistical and perhaps other music analytical methods. The results of CSA are dependent on the competence of the similarity measure. New similarity measures for tonal stability, rhythmic and set-class similarity measurements were proposed. The most advanced results were attained by employing the automated function generation – comparable with the so-called genetic programming – to search for an optimal model for set-class similarity measurements. However, the results of CSA seem to agree strongly, independent of the type of similarity function employed in the analysis.
Resumo:
Research focus of this thesis is to explore options for building systems for business critical web applications. Business criticality here includes requirements for data protection and system availability. The focus is on open source software. Goals are to identify robust technologies and engineering practices to implement such systems. Research methods include experiments made with sample systems built around chosen software packages that represent certain technologies. The main research focused on finding a good method for database data replication, a key functionality for high-availability, database-driven web applications. Research included also finding engineering best practices from books written by administrators of high traffic web applications. Experiment with database replication showed, that block level synchronous replication offered by DRBD replication software offered considerably more robust data protection and high-availability functionality compared to leading open source database product MySQL, and its built-in asynchronous replication. For master-master database setups, block level replication is more recommended way to build high-availability into the system. Based on thesis research, building high-availability web applications is possible using a combination of open source software and engineering best practices for data protection, availability planning and scaling.
Resumo:
During the past decades testing has matured from ad-hoc activity into being an integral part of the development process. The benefits of testing are obvious for modern communication systems, which operate in heterogeneous environments amongst devices from various manufacturers. The increased demand for testing also creates demand for tools and technologies that support and automate testing activities. This thesis discusses applicability of visualization techniques in the result analysis part of the testing process. Particularly, the primary focus of this work is visualization of test execution logs produced by a TTCN-3 test system. TTCN-3 is an internationally standardized test specification and implementation language. The TTCN-3 standard suite includes specification of a test logging interface and a graphical presentation format, but no immediate relationship between them. This thesis presents a technique for mapping the log events to the graphical presentation format along with a concrete implementation, which is integrated with the Eclipse Platform and the OpenTTCN Tester toolchain. Results of this work indicate that for majority of the log events, a visual representation may be derived from the TTCN-3 standard suite. The remaining events were analysed and three categories relevant in either log analysis or implementation of the visualization tool were identified: events indicating insertion of something into the incoming queue of a port, events indicating a mismatch and events describing the control flow during the execution. Applicability of the results is limited into the domain of TTCN-3, but the developed mapping and the implementation may be utilized with any TTCN-3 tool that is able to produce the execution log in the standardized XML format.
Resumo:
Tämä diplomityö toteutettiin Sammet Dampers Oy:ltä saatuna toimeksiantona. Yritys haluaa yhä parempia tuloksia tuoteryhmien kehitysprojekteista, jolloin se asettaa vaatimuksia kehitysprojekteissa käytettävälle kehitysprosessille. Yrityksen täytyy optimoida ja systematisoida käytettävää menetelmää, jotta näihin parempiin tuloksiin voidaan päästä. Työn ensimmäisenä tavoitteena on optimoida yrityksen käytössä oleva tuoteryhmien kehitysprojekteissa käytettävä prosessimalli. Tavoitteen mukaisesti työssä luodaan uusi optimoitu tuoteryhmien kehitysprosessimalli, joka vastaa yrityksen tarpeisiin. Tämä uusi malli kirjataan osaksi yrityksen toiminnanohjausjärjestelmää. Työn toisena tavoitteena on käyttää uutta optimoitua prosessimallia kellopeltien tuoteryhmän kehitysprojektissa. Tätä kehitysprojektia käytetään samalla uuden prosessimallin sisäänajamiseen osaksi yrityksen toimintoja.Tämän diplomityön puitteissa kellopeltien kehitysprojektista käydään läpi kehitysprojektin ensimmäinen osio eli vaatimustenmäärittelyprosessi ja esitellään sen tuloksena syntynyt toteutussuunnitelma. Työn tuloksena syntyneen uuden tuoteryhmien kehitysprojektin prosessimallin avulla voidaan saavuttaa merkittäviä parannuksia tarkasteltaessa kehitysprojektin tuloksia ajankäytön, laadun ja kustannusten suhteen.
Resumo:
Maailmantalouden jyrkkä lasku vuonna 2008 ajoi yritykset säästökuurille. Säästöjä pyritään saamaan esimerkiksi automatisoimalla toimintoja. Yksi tapa luoda kustannussäästöjä on käyttää RFIDteknologiaa varastoinnin toimien tehostukseen. Tämän tutkimuksen pääasiallisena tavoitteena on ollut rakentaa yksinkertainen laskentamalli RFID- ja toiminnanohjausjärjestelmien integrointiprojektin kustannusten ja kannattavuuden laskemiseen. Toisena tavoitteena on ollut selvittää, mitkä tekijät vaikuttavat investoinnin kannattavuuteen. Tutkimus rajattiin tarkastelemaan varaston saapuvan tavaran vastaanoton prosessia ja sen toimintojen automatisointia RFID-järjestelmän avulla. Laskentamalli muodostuu kolmesta osasta: investoinnin kokonaiskustannusten arvioinnista, investoinnista saatavien kustannussäästöjen arvioinnista ja kannattavuuslaskelmista. Investointien kokonaiskustannusten arviointia varten rakennettiin luettelo yleisimmistä kustannuslajeista. Investoinnista saatavien kustannussäästöjen arviointi tehtiin analysoimalla nykyprosesseja ja etsimällä niistä toimintoja, jotka tehostuvat RFID-järjestelmän avulla. Varsinaisina kannattavuuslaskentamenetelminä käytettiin investoinnin takaisinmaksuajan menetelmää sekä pääoman tuottoasteen menetelmää. Tutkimuksen tuloksena todettiin rakennetun laskentamallin soveltuvan hyvin investoinnin kustannusten ja kannattavuuden arviointiin. Samalla havaittiin yrityksen toimialan, saapuvien lähetysten määrän ja lähetysten rivimäärän vaikuttavan merkittävästi RFID- jatoiminnanohjausjärjestelmän integrointiprojektin kannattavuuteen.
Resumo:
Tutkimuksen aiheena on toimittaja-arvioinnin kehittäminen. Tutkimuksen tavoitteena oli kehittää Nokian Renkaat Oyj:n käyttöön tarkoituksenmukainen menetelmä toimittaja-arviointiin. Tutkimuksessa käsitellään toimittaja-arvioinnin roolia hankintatoimessa, keskeisiä arviointikriteerejä, arviointimenetelmiä sekä arvioinnin kehittämisessä huomioitavia tekijöitä. Empiirisessä osiossa määritetään kohdeyrityksen toimittajien arviointikriteerit, luokitellaan toimittajat sekä kehitetään menetelmä toimittaja-arviointiin. Tutkimuksen lopputuloksena kehitettiin työkalu toimittaja-arviointiin kohdeyrityksen käyttöön. Työkalu koostuu kahdesta erillisestä osasta, jotka ovat toteutuneen suorituskyvyn arviointi sekä toimittaja-auditointi. Auditointia varten laadittiin kysymyskaavake. Molemmat arvioinnin osa-alueet sisältävät painotetun pisteytyksen.
Resumo:
The purpose of this thesis was to create design a guideline for an LCL-filter. This thesis reviews briefly the relevant harmonics standards, old filter designs and problems faced with the previous filters. This thesis proposes a modified design method based on the “Liserre’s method” presented in the literature. This modified method will take into account network parameters better. As input parameters, the method uses the nominal power, allowed ripple current in converter and network side and desired resonant frequency of the filter. Essential component selection issues for LCL-filter, such as heating, voltage strength, current rating etc. are also discussed. Furthermore, a simulation model used to verify the operation of the designed filter in nominal power use and in transient situations is included in this thesis.
Resumo:
In this thesis, the purpose was to find the cost distribution of the screen dryer and the largest cost factors. The hot section of the screen dryer was revealed as the biggest cost factor, so composing new cost efficient solutions were directed to it. DFMA (Design for Manufacture and Assembly) was chosen to help the design process. DFMA is a product design strategy developed for taking manufacturing and assembly costs into account at the early stages of the design process. In the theory part of the thesis, other methods of economical design and tools needed for estimating manufacturing costs are introduced. In the empirical part, the hot section of the screen dryer was divided into sub-assemblies and their manufacturing costs were estimated. The design propositions were directed to the self-manufactured assemblies and parts. The new manufacturing costs were calculated for the developed propositions. Lastly, the most cost efficient solutions were summarized. The savings on the self-manufactured assemblies were about 40 %, which was about 13 % of the combined total costs of the hot section.
Resumo:
The topic of this thesis is the simulation of a combination of several control and data assimilation methods, meant to be used for controlling the quality of paper in a paper machine. Paper making is a very complex process and the information obtained from the web is sparse. A paper web scanner can only measure a zig zag path on the web. An assimilation method is needed to process estimates for Machine Direction (MD) and Cross Direction (CD) profiles of the web. Quality control is based on these measurements. There is an increasing need for intelligent methods to assist in data assimilation. The target of this thesis is to study how such intelligent assimilation methods are affecting paper web quality. This work is based on a paper web simulator, which has been developed in the TEKES funded MASI NoTes project. The simulator is a valuable tool in comparing different assimilation methods. The thesis contains the comparison of four different assimilation methods. These data assimilation methods are a first order Bayesian model estimator, an ARMA model based on a higher order Bayesian estimator, a Fourier transform based Kalman filter estimator and a simple block estimator. The last one can be considered to be close to current operational methods. From these methods Bayesian, ARMA and Kalman all seem to have advantages over the commercial one. The Kalman and ARMA estimators seems to be best in overall performance.
Resumo:
Pumppukäytöt vastaavat noin neljännestä Euroopan alueen sähkömoottoreissa kuluvasta energiasta. Energian hinnan nousun vuoksi energian säästäminen ja energiatehokkuus ovat nousseet tärkeään asemaan paljon energiaa kuluttavassa teollisuudessa. Pumppukäyttöjen hyötysuhteen parantaminen on noussut olennaiseen osaan paperi- ja kartonkiteollisuuden energiatehokkuustarkasteluissa. Tässä työssä tarkastellaan kartonkikoneen pumppukäyttöjen toiminnan energiatehokkuutta moottorin virtamittausten perusteella. Analyysi perustuu moottorin akselitehon määrittämiseen ja sen perusteella tehtävään pumpun toimintapisteen laskentaan. Työssä esitellään käytetyt estimointimenetelmät ja niillä saadut tulokset kartonkikoneen pumppukäytöille. Lisäksi työssä arvioidaan kolmen yksittäisen pumppukäytön energiankulutuksen säästöpotentiaalia. Työssä käytettyä menetelmää voidaan käyttää sekä vakio- että vaihtonopeuspumppukäyttöjen toiminnan ja hyötysuhteen analysointiin.
Resumo:
Diplomityössä kehitetään ABB Oy Drives:lle menetelmää, jolla voidaan ennustaa ohutlevyosien ja niistä koostuvien kokoonpanojen hintaa ilman tarkkaa valmistuksellista geometriatietoa. Työ on osa Tekesin rahoittamaa Piirre 2.0 -projektia. Työn teoriaosa määrittelee lyhyesti ohutlevytuotteet ja niiden valmistusmenetelmät. Laajemmassa teoriatarkastelussa ovat erilaiset ohutlevytuotteiden valmistuskustannusten ennustamismenetelmät regressioanalyysin käyttöön painottuen. Käytännön osiossa määritetään Finn-Power LP6 -levytyökeskuksen suorituskyky ja muodostetaan työaikalaskuri kerättyyn tietoon perustuen. Lisäksi muodostetaan regressioanalyysit kahden eri alihankkijan valmistamien ohutlevytuotteiden pohjalta. Regressiotekniikoiden avulla etsitään kustannuksiin voimakkaasti vaikuttavat parametrit ja muodostetaan laskukaava valmistuskustannusten ennustamiseen. Lopuksi vertaillaan teorian ja käytännön osien yhteensopivuutta ja etsitään syitä havaittuihin eroihin. Tutkimustulosten hyödyntämismahdollisuuksien ohella esitetään myös eräitä jatkokehitysehdotuksia.
Resumo:
Kokeellinen moodianalyysi on kokeellinen menetelmä, jolla voidaan selvittää rakenteille ominaista värähtelyä. Työssä oli kolme tavoitetta, jotka pyrittiin saavuttamaan. Ensimmäinen tavoite oli ohjeistuksen luominen rakenteiden ominaismuotojen visuaaliseksi tarkastelemiseksi Lappeenrannan teknillisellä yliopistolla käytettävissä olevilla laitteistoilla ja ohjelmilla. Ohjeistuksen perustana on ajatus siitä, että kokeellinen moodianalyysi saataisiin tehokkaampaan käyttöön koneensuunnittelun opetuksessa. Ohjeistus tehtiin pääasiassa kuvien ja kuvia tukevien selitysten avulla. Työn toisena tavoitteena oli verrata rakenteen ominaisvärähtelyä, kun se oli tuettu vapaasti ja kun se oli tuettu kiinteästi sen luonnolliseen ympäristöön. Taajuuksia verrattaessa huomattiin, että eri tavoin tuetut rakenteet käyttäytyvät eri tavalla, mikä on otettava huomioon, kun tutkitaan kriittisiä värähtelyjä. Ominaisvärähtelyjä voidaan selvittää myös matemaattisesti esimerkiksi äärellisten elementtien menetelmällä. Työn kolmantena tavoitteena oli verrata elementtimenetelmällä ja kokeellisesti saatuja ominaisvärähtelyn arvoja. Elementtimallia pyrittiin tarkentamaan eri parametrejä muuttamalla niin, että ominaistaajuuksien arvot vastaavat mahdollisimman hyvin toisiaan. Tavoite saavutettiin.