874 resultados para development methods
Resumo:
Vaatimusmäärittely on tärkeä vaihe ohjelmistotuotannossa, koska virheelliset ja puutteelliset asiakasvaatimukset vaikuttavat huomattavasti asiakkaan tyytymättömyyteen ohjelmistotuotteessa. Ohjelmistoinsinöörit käyttävät useita erilaisia menetelmiä ja tekniikoita asiakasvaatimusten kartoittamiseen. Erilaisia tekniikoita asiakasvaatimusten keräämiseen on olemassa valtava määrä.Diplomityön tavoitteena oli parantaa asiakasvaatimusten keräämisprosessia ohjelmistoprojekteissa. Asiakasvaatimusten kartoittamiseen käytettävien tekniikoiden arvioinnin perusteella kehitettiin parannettu asiakasvaatimusten keräämisprosessi. Kehitetyn prosessin testaamiseksi ja parantamiseksi järjestettiin ryhmätyöistuntoja liittyen todellisiin ohjelmistokehitysprojekteihin. Tuloksena vaatimusten kerääminen eri sidosryhmiltä nopeutui ja tehostui. Prosessi auttoi muodostamaan yleisen kuvan kehitettävästä ohjelmistosta, prosessin avulla löydettiin paljon ideoita ja prosessi tehosti ideoiden analysointia ja priorisointia. Prosessin suurin kehityskohde oli fasilitaattorin ja osallistujien valmistautumisessa ryhmätyöistuntoihin etukäteen.
Resumo:
Tele- ja dataviestinnän yhdistyminen digitaaliseen sisältöön luo uusia palveluideoita sekä mobiili- että internetverkkoihin. Nämä palvelut kehitetään usein erikseen, jolloin saman sisällön käyttäminen eri pääsymenetelmin ei ole mahdollista. Sisältömuunnos on mahdollista sisällön ja muotoilun eriyttämisellä, joka puolestaan vaatii informaatioyksiköiden merkkauksen sisältöä kuvaavilla lisätiedoilla. Tässä diplomityössä tutkitaan Extensible Markup Languagen (XML) käyttöä yhdistyneiden palvelujen sisältömuunnoksessa. Nykyisiä ja tulevia palveluita ja verkkoja tarkastellaan sekä sisällön että liiketoiminnan kannalta. Lisäksi esitellään lyhyesti omia ajatuksia ja käsityksiä yhdistyneistä palveluista ja informaation täsmällisyydestä. Työn käytännön osuudessa kuvataan itse suunniteltu palvelualusta sekä esitellään sen avulla rakennettuja sovelluksia
Resumo:
Several methods and approaches for measuring parameters to determine fecal sources of pollution in water have been developed in recent years. No single microbial or chemical parameter has proved sufficient to determine the source of fecal pollution. Combinations of parameters involving at least one discriminating indicator and one universal fecal indicator offer the most promising solutions for qualitative and quantitative analyses. The universal (nondiscriminating) fecal indicator provides quantitative information regarding the fecal load. The discriminating indicator contributes to the identification of a specific source. The relative values of the parameters derived from both kinds of indicators could provide information regarding the contribution to the total fecal load from each origin. It is also essential that both parameters characteristically persist in the environment for similar periods. Numerical analysis, such as inductive learning methods, could be used to select the most suitable and the lowest number of parameters to develop predictive models. These combinations of parameters provide information on factors affecting the models, such as dilution, specific types of animal source, persistence of microbial tracers, and complex mixtures from different sources. The combined use of the enumeration of somatic coliphages and the enumeration of Bacteroides-phages using different host specific strains (one from humans and another from pigs), both selected using the suggested approach, provides a feasible model for quantitative and qualitative analyses of fecal source identification.
Resumo:
Diplomityössä tutkitaan, kuinka Symbian-sovelluskehitystä voitaisiin tehostaa. Työssä esitellään Symbian-käyttöjärjestelmä, sekä pohditaan haasteita ja rajoitteita joita Symbian sovelluskehityksessä kohdataan. Myöskin jo olemassa olevia kehitystapoja pohditaan työn tavoitteen kannalta. Symbian-sovelluskehityksessä tehdään toistuvasti samoja asioita. Koska Symbian on avoin käyttöjärjestelmä, sovelluskehittäjiä on paljon. Tehokkaamman kehitystavan löytäminen säästäisi paljon resursseja. Tällä hetkellä perinteiset ohjelmointitavat näyttävät olevan suosituin tapa kehittää sovelluksia. Kuitenkin on jo olemassa useita ratkaisuja, jotka pyrkivät tehostamaan sovelluskehitystä, mikä todistaa tarpeen kehittää tehokkuutta. Työssä toteutettu systeemi ajaa Symbian sovelluksia XML-määrityksen pohjalta. Kun käytetään XML-määritystä C++-koodin sijasta, sovelluskehitys muuttuu. Näiden muutosten täytyy kuitenkin olla myönteisiä, eivätkä ne saa haitata ohjelmiston laatua tai käytettävyyttä.
Resumo:
Diplomityön tarkoituksena oli luoda ja kehittää kaksi asiakastyytyväisyysmallia asiakastyytyväisyyden mittaamisen aloittamiseksi ja toteuttamiseksi kohdeyrityksessä. Työ pohjautuu nykyisten tyytyväisyysprosessien analysointiin sekä työn teoriaosaan, joka käsittelee yksityiskohtaisesti niitä asioita, joita asiakastyytyväisyyden mittaamisessa ja prosessissa tulisi huomioida. Työssä tehdyn mallien tarkoituksen on auttaa kohdeyritystä hyödyntämään asiakastyytyväisyysmittauksen tuloksia paremmin liiketoiminnassa, sekä asiakkaiden keskuudessa. Työn yhtenä tavoitteena oli myös sopivan mittaustyökalun löytäminen ja suositteleminen kohdeyritykselle.Teorian ja analysoinnin pohjalta luotiin molemmat asiakastyytyväisyysmallit vastamaan kohdeyksiköiden tarpeita. Kun ulkoiset seikat, kuten mittaustavat, mittausinstrumentit, kyselylomakkeet ja vastaajaryhmät oli määritelty, keskityttiin tulosten analysointiin ja hyödyntämiseen, mikä korostui asiakassuuntautuneessa organisaatiossa. Työssä pohdittiin myös yhtenäisen asiakastyytyväisyysprosessin merkitystä ja etuja kohdeyrityksessä.
Resumo:
Diplomityö tehtiin kansainväliseen, mekaanisen puunjalostusteollisuuden koneita, tuotantojärjestelmiä ja tehtaita toimittavaan yritykseen. Diplomityön tarkoituksena oli kartoittaa syitä viilusorvin teräpenkin asemoinnissa esiintyneisiin värähtelyongelmiin ja tutkia ratkaisuja niiden voittamiseksi, sekä sorvausvoimien määrittäminen. Diplomityön teoreettisessa osassa tutustuttiin viilusorvin, erityisesti sen hydraulisten servojärjestelmien rakenteeseen ja toimintaan sekä viilunsorvaukseen. Teräpenkin syötön servojärjestelmää tutkittiin teoreettisesti johtamalla suljetun piirin siirtofunktiot “asema/käsky” ja “virhe/voima” ja tulostamalla niiden taajuusvaste-kuvaajat, joista tutkittiin parametrien vaikutuksia järjestelmän toimintaan. Tulokset vahvistettiin simuloimalla. Todettiin nykyisen järjestelmän värähtelyongelmien johtuvan pääasiassa hydrauliöljyn joustosta sylinterissä. Parannuksina ehdotettiin suurempaa sylinterin halkaisijaa ja viskoosikitkakertoimen suurentamista. Diplomityön kokeellisessa osassa mitattiin viilusorvin servojärjestelmien toimilaitteissa esiintyviä voimia ja niiden perusteella laskettiin varsinaiset sorvausvoimat. Lisäksi tutkittiin teräpenkin syötön ja muiden servojärjestelmien asemointitarkkuutta sorvauksen aikana. Mittauksia varten diplomityössä suunniteltiin ja hankittiin kannettava mittausjärjestelmä.
Resumo:
Tämän diplomityön päätavoitteena oli parantaa kehitetyn kustannusperusteisen siirtohinnoittelutyökalun ominaisuuksia osastokohtaisen kustannusarviointiprosessin käyttöön. Työ on vaikeutunut lähimenneisyyden heikosta hintakyselyiden vastauskyvystä. Työn pääongelmana oli kerätä luotettavaa tuotannonohjausjärjestelmän kustannusaineistoa osittain vanhentuneista vakioventtiilien koneistus- ja materiaalitiedosta. Tutkimuksessa käytetyt tärkeimmät tutkimusmenetelmät voidaan jakaa siirtohinnoittelu- ja kustannusarvioprosessien kirjallisuustutkimukseen, kenttäanalyysiin ja nykyisen Microsoft Excel –siirtohinnoittelutyökalun kehittämiseen eri osastojen rajapinnassa. Siirtohinnoittelumenetelmät ovat yleisesti jaettu kustannus-, markkina- ja neuvotteluperusteisiin malleihin, jotka harvoin sellaisenaan kohtaavat siirtohinnoittelulle asetetut tavoitteet. Tämä ratkaisutapa voi johtaa tilanteisiin, jossa kaksi erillistä menetelmää sulautuvat yhteen. Lisäksi varsinaiseen siirtohinnoittelujärjestelmään yleensä vaikuttavat useat sisäiset ja ulkoiset tekijät. Lopullinen siirtohinnoittelumenetelmä tulisi ehdottomasti tukea myös yrityksen visiota ja muita liiketoiminnalle asetettuja strategioita. Työn tuloksena saatiin laajennettu Microsoft Excel –sovellus, joka vaatii sekä vuosittaista että kuukausittaista erikoisventtiilimateriaalien hinta- ja toimitusaikatietojen päivittämistä. Tämä ratkaisutapa ehdottomasti parantaa kustannusarviointiprosessia, koska myös alihankkijatietoja joudutaan tutkimaan systemaattisesti. Tämän jälkeen koko siirtohinnoitteluprosessia voidaan kehittää muuntamalla kokoonpano- ja testaustyövaiheiden kustannusrakennetta toimintoperustaisen kustannuslaskentamallin mukaiseksi.
Resumo:
Tämän työn tarkoituksena oli löytää keinoja erään leijukerroskattilan typenoksidipäästöjen vähentämiseksi. Koska päästöt olivat jo alunperin alhaiset leijukerrostekniikan ja hybridin SNCR/SCR –typenpoistolaitteiston ansiosta, päätettiin päästöjä lähteä vähentämään parantamalla ammoniakkiruiskutuksen säätöä. Alkuperäinen ammoniakkiruiskutuksen säätö oli liian hidas, jotta satunnaisten häiriöiden aiheuttamat typenoksidipiikit olisi pystytty poistamaan. Ammoniakkiruiskutusta parannettiin lisäämällä jokaiseen ammoniakkilinjaan mäntäpumput, joiden avulla ammoniakkia voidaan syöttää sinne, missä sitä eniten tarvitaan. Ammoniakkiruiskutuksen säätöön kehitettiin uusi sumeaan logiikkaan perustuva säätäjä. Myös muita kehittyneitä säätömenetelmiä kuten neuroverkkoa hyödynnettiin säätäjän kehityksessä. Ammoniakkiruiskutuksen säätäjää testattiin menestyksekkäästi Ruotsissa Brista Kraftin Märstassa sijaitsevalla voimalaitoksella
Resumo:
Tässä luomistyössä on esitetty tutkimus informaation suojaamisen menetelmien osalta paikallisissa ja ryhmäkuntaisissa verkoissa. Tutkimukseen kuuluu nykyaikaisten kryptagraafisten järjestelmien, Internetin/Intranetin ohjelmointikeinojen ja pääsyoikeuksien jakelumenetelmien analyysi. Tutkimusten perusteella on laadittu ohjelmiston prototyyppi HTML-tiedostojen suojaamista varten. Ohjelmiston laatimisprosessi on sisältänyt vaatimusten, järjestelmän ja suojelukomponenttien suunnittelun ja protytyypin testauksen. Ohjelmiston realisoinnin jälkeen kirjoitettiin käyttöohjeet. Ohjelmiston prototyyppi suojaa informaatiota HTML-tiedoston koko käytön aikana ja eri yrityksissä voidaan käyttää sitä pienien laajennuksien jälkeen.
Resumo:
Suihku/viira-nopeussuhde on perälaatikon huulisuihkun ja viiran välinen nopeusero. Se vaikuttaa suuresti paperin ja kartongin loppuominaisuuksiin, kuten formaatioon sekä kuituorientaatioon ja näin ollen paperin lujuusominaisuuksiin. Tämän johdosta on erityisen tärkeää tietää todellinen suihku/viira-nopeussuhde paperin- ja kartonginvalmistuksessa. Perinteinen suihku/viira-nopeussuhteen määritysmenetelmä perustuu perälaatikon kokonaispaineeseen. Tällä menetelmällä kuitenkin todellinen huulisuihkun nopeus saattaa usein jäädä tietämättä johtuen mahdollisesta virheellisestä painemittarin kalibroinnista sekä laskuyhtälön epätarkkuuksista. Tämän johdosta on kehitetty useita reaaliaikaisia huulisuihkun mittausmenetelmiä. Perälaatikon parametrien optimaaliset asetukset ovat mahdollista määrittää ja ylläpitää huulisuihkun nopeuden “on-line” määrityksellä. Perälaatikon parametrejä ovat mm. huulisuihku, huuliaukon korkeusprofiili, reunavirtaukset ja syöttövirtauksen tasaisuus. Huulisuihkun nopeuden on-line mittauksella paljastuu myös muita perälaatikon ongelmakohtia, kuten mekaaniset viat, joita on perinteisesti tutkittu aikaa vievillä paperin ja kartongin lopputuoteanalyyseillä.
Resumo:
Atherosclerosis is a chronic cardiovascular disease that involves the thicken¬ing of the artery walls as well as the formation of plaques (lesions) causing the narrowing of the lumens, in vessels such as the aorta, the coronary and the carotid arteries. Magnetic resonance imaging (MRI) is a promising modality for the assessment of atherosclerosis, as it is a non-invasive and patient-friendly procedure that does not use ionizing radiation. MRI offers high soft tissue con¬trast already without the need of intravenous contrast media; while modifica¬tion of the MR pulse sequences allows for further adjustment of the contrast for specific diagnostic needs. As such, MRI can create angiographic images of the vessel lumens to assess stenoses at the late stage of the disease, as well as blood flow-suppressed images for the early investigation of the vessel wall and the characterization of the atherosclerotic plaques. However, despite the great technical progress that occurred over the past two decades, MRI is intrinsically a low sensitive technique and some limitations still exist in terms of accuracy and performance. A major challenge for coronary artery imaging is respiratory motion. State- of-the-art diaphragmatic navigators rely on an indirect measure of motion, per¬form a ID correction, and have long and unpredictable scan time. In response, self-navigation (SM) strategies have recently been introduced that offer 100% scan efficiency and increased ease of use. SN detects respiratory motion di¬rectly from the image data obtained at the level of the heart, and retrospectively corrects the same data before final image reconstruction. Thus, SN holds po-tential for multi-dimensional motion compensation. To this regard, this thesis presents novel SN methods that estimate 2D and 3D motion parameters from aliased sub-images that are obtained from the same raw data composing the final image. Combination of all corrected sub-images produces a final image with reduced motion artifacts for the visualization of the coronaries. The first study (section 2.2, 2D Self-Navigation with Compressed Sensing) consists of a method for 2D translational motion compensation. Here, the use of com- pressed sensing (CS) reconstruction is proposed and investigated to support motion detection by reducing aliasing artifacts. In healthy human subjects, CS demonstrated an improvement in motion detection accuracy with simula¬tions on in vivo data, while improved coronary artery visualization was demon¬strated on in vivo free-breathing acquisitions. However, the motion of the heart induced by respiration has been shown to occur in three dimensions and to be more complex than a simple translation. Therefore, the second study (section 2.3,3D Self-Navigation) consists of a method for 3D affine motion correction rather than 2D only. Here, different techniques were adopted to reduce background signal contribution in respiratory motion tracking, as this can be adversely affected by the static tissue that surrounds the heart. The proposed method demonstrated to improve conspicuity and vi¬sualization of coronary arteries in healthy and cardiovascular disease patient cohorts in comparison to a conventional ID SN method. In the third study (section 2.4, 3D Self-Navigation with Compressed Sensing), the same tracking methods were used to obtain sub-images sorted according to the respiratory position. Then, instead of motion correction, a compressed sensing reconstruction was performed on all sorted sub-image data. This process ex¬ploits the consistency of the sorted data to reduce aliasing artifacts such that the sub-image corresponding to the end-expiratory phase can directly be used to visualize the coronaries. In a healthy volunteer cohort, this strategy improved conspicuity and visualization of the coronary arteries when compared to a con¬ventional ID SN method. For the visualization of the vessel wall and atherosclerotic plaques, the state- of-the-art dual inversion recovery (DIR) technique is able to suppress the signal coming from flowing blood and provide positive wall-lumen contrast. How¬ever, optimal contrast may be difficult to obtain and is subject to RR variability. Furthermore, DIR imaging is time-inefficient and multislice acquisitions may lead to prolonged scanning times. In response and as a fourth study of this thesis (chapter 3, Vessel Wall MRI of the Carotid Arteries), a phase-sensitive DIR method has been implemented and tested in the carotid arteries of a healthy volunteer cohort. By exploiting the phase information of images acquired after DIR, the proposed phase-sensitive method enhances wall-lumen contrast while widens the window of opportunity for image acquisition. As a result, a 3-fold increase in volumetric coverage is obtained at no extra cost in scanning time, while image quality is improved. In conclusion, this thesis presented novel methods to address some of the main challenges for MRI of atherosclerosis: the suppression of motion and flow artifacts for improved visualization of vessel lumens, walls and plaques. Such methods showed to significantly improve image quality in human healthy sub¬jects, as well as scan efficiency and ease-of-use of MRI. Extensive validation is now warranted in patient populations to ascertain their diagnostic perfor¬mance. Eventually, these methods may bring the use of atherosclerosis MRI closer to the clinical practice. Résumé L'athérosclérose est une maladie cardiovasculaire chronique qui implique le épaississement de la paroi des artères, ainsi que la formation de plaques (lé¬sions) provoquant le rétrécissement des lumières, dans des vaisseaux tels que l'aorte, les coronaires et les artères carotides. L'imagerie par résonance magné¬tique (IRM) est une modalité prometteuse pour l'évaluation de l'athérosclérose, car il s'agit d'une procédure non-invasive et conviviale pour les patients, qui n'utilise pas des rayonnements ionisants. L'IRM offre un contraste des tissus mous très élevé sans avoir besoin de médias de contraste intraveineux, tan¬dis que la modification des séquences d'impulsions de RM permet en outre le réglage du contraste pour des besoins diagnostiques spécifiques. À ce titre, l'IRM peut créer des images angiographiques des lumières des vaisseaux pour évaluer les sténoses à la fin du stade de la maladie, ainsi que des images avec suppression du flux sanguin pour une première enquête des parois des vais¬seaux et une caractérisation des plaques d'athérosclérose. Cependant, malgré les grands progrès techniques qui ont eu lieu au cours des deux dernières dé¬cennies, l'IRM est une technique peu sensible et certaines limitations existent encore en termes de précision et de performance. Un des principaux défis pour l'imagerie de l'artère coronaire est le mou¬vement respiratoire. Les navigateurs diaphragmatiques de pointe comptent sur une mesure indirecte de mouvement, effectuent une correction 1D, et ont un temps d'acquisition long et imprévisible. En réponse, les stratégies d'auto- navigation (self-navigation: SN) ont été introduites récemment et offrent 100% d'efficacité d'acquisition et une meilleure facilité d'utilisation. Les SN détectent le mouvement respiratoire directement à partir des données brutes de l'image obtenue au niveau du coeur, et rétrospectivement corrigent ces mêmes données avant la reconstruction finale de l'image. Ainsi, les SN détiennent un poten¬tiel pour une compensation multidimensionnelle du mouvement. A cet égard, cette thèse présente de nouvelles méthodes SN qui estiment les paramètres de mouvement 2D et 3D à partir de sous-images qui sont obtenues à partir des mêmes données brutes qui composent l'image finale. La combinaison de toutes les sous-images corrigées produit une image finale pour la visualisation des coronaires ou les artefacts du mouvement sont réduits. La première étude (section 2.2,2D Self-Navigation with Compressed Sensing) traite d'une méthode pour une compensation 2D de mouvement de translation. Ici, on étudie l'utilisation de la reconstruction d'acquisition comprimée (compressed sensing: CS) pour soutenir la détection de mouvement en réduisant les artefacts de sous-échantillonnage. Chez des sujets humains sains, CS a démontré une amélioration de la précision de la détection de mouvement avec des simula¬tions sur des données in vivo, tandis que la visualisation de l'artère coronaire sur des acquisitions de respiration libre in vivo a aussi été améliorée. Pourtant, le mouvement du coeur induite par la respiration se produit en trois dimensions et il est plus complexe qu'un simple déplacement. Par conséquent, la deuxième étude (section 2.3, 3D Self-Navigation) traite d'une méthode de cor¬rection du mouvement 3D plutôt que 2D uniquement. Ici, différentes tech¬niques ont été adoptées pour réduire la contribution du signal du fond dans le suivi de mouvement respiratoire, qui peut être influencé négativement par le tissu statique qui entoure le coeur. La méthode proposée a démontré une amélioration, par rapport à la procédure classique SN de correction 1D, de la visualisation des artères coronaires dans le groupe de sujets sains et des pa¬tients avec maladies cardio-vasculaires. Dans la troisième étude (section 2.4,3D Self-Navigation with Compressed Sensing), les mêmes méthodes de suivi ont été utilisées pour obtenir des sous-images triées selon la position respiratoire. Au lieu de la correction du mouvement, une reconstruction de CS a été réalisée sur toutes les sous-images triées. Cette procédure exploite la cohérence des données pour réduire les artefacts de sous- échantillonnage de telle sorte que la sous-image correspondant à la phase de fin d'expiration peut directement être utilisée pour visualiser les coronaires. Dans un échantillon de volontaires en bonne santé, cette stratégie a amélioré la netteté et la visualisation des artères coronaires par rapport à une méthode classique SN ID. Pour la visualisation des parois des vaisseaux et de plaques d'athérosclérose, la technique de pointe avec double récupération d'inversion (DIR) est capa¬ble de supprimer le signal provenant du sang et de fournir un contraste posi¬tif entre la paroi et la lumière. Pourtant, il est difficile d'obtenir un contraste optimal car cela est soumis à la variabilité du rythme cardiaque. Par ailleurs, l'imagerie DIR est inefficace du point de vue du temps et les acquisitions "mul- tislice" peuvent conduire à des temps de scan prolongés. En réponse à ce prob¬lème et comme quatrième étude de cette thèse (chapitre 3, Vessel Wall MRI of the Carotid Arteries), une méthode de DIR phase-sensitive a été implémenté et testé
Resumo:
Tutkimusongelmana oli kuinka tiedon johtamisella voidaan edesauttaa tuotekehitysprosessia. Mitkä ovat ne avaintekijät tietoympäristössä kuin myös itse tiedossa, joilla on merkitystä erityisesti tuotekehitysprosessin arvon muodostumiseen ja prosessien kehittämiseen? Tutkimus on laadullinen Case-tutkimus. Tutkimusongelmat on ensin selvitetty kirjallisuuden avulla, jonka jälkeen teoreettinen viitekehys on rakennettu tutkimaan rajattua ongelma-aluetta case-yrityksestä. Empiirisen tutkimuksen materiaali koostuu pääasiallisesti henkilökohtaisten teemahaastattelujen aineistosta. Tulokset merkittävimmistä tiedon hyväksikäytön haittatekijöistä, kuten myös parannusehdotukset on lajiteltu teoreettisessa viitekehyksessä esitettyjen oletustekijöiden mukaan. Haastatteluissa saadut vastaukset tukevat kirjallisuudesta ja alan ammattilaiselta saatua käsitystä tärkeimmistä vaikuttavista tekijöistä. Tärkeimmät toimenpiteet ja aloitteet joilla parannettaisiin tiedon muodostumista, koskivat ennnen kaikkea työnteon ulkoisia olosuhteita, eikä niinkään tiedon muodostumisen prosessia itseään. Merkittävimpiä haittatekijöitä olivat kultturiin, fyysiseen ja henkiseen tilaan ja henkilöstöresursseihin liittyvät ongelmat. Ratkaisuja ongelmiin odotettiin saatavan lähinnä tietotekniikan, henkilöstöresurssien ja itse tiedon muokkaamisen avulla. Tuotekehitysprosessin ydin tietovirtojen ja –pääomien luokittelu ja tulkitseminen tiedon muodostusta kuvaavan Learning Spiralin avulla antoi lähinnä teoreettisia viitteitä siitä millaisia keinoja on olemassa tiedon lisäämiseen ja jakamiseen eri tietotyypeittäin. Tulosten perusteella caseyrityksessä pitäisi kiinnittää erityistä huomiota tiedon dokumentointiin ja jakamiseen erityisesti sen tiedon osalta, joka on organisaatiossa vain harvalla ja/tai luonteeltaan hyvin tacitia.
Resumo:
The objective of the examination was to create development suggestions to intensify the credit management in the subject enterprise. The target of the theory part was to add understanding concerning the credit management and to define the process of credit management. The target of the empirical part was to get to know the present conditions of the credit management in the subject enterprise as well as to establish the problems in the process. The research methodology is constructive, but there are also characteristics of action research.The target of constructive methodology is to create a solutionmodel for the relevant research problem. The methods used in the empirical part were participating observation, literary material and interviews. Within the results of the research a number of development suggestions for the credit management were presented. It is possible to achieve considerable returns while shortening the chain of cash payments. In the suggestions the importance of cooperation between different functions as well as training were emphasized.
Resumo:
This thesis studies evaluation of software development practices through an error analysis. The work presents software development process, software testing, software errors, error classification and software process improvement methods. The practical part of the work presents results from the error analysis of one software process. It also gives improvement ideas for the project. It was noticed that the classification of the error data was inadequate in the project. Because of this it was impossible to use the error data effectively. With the error analysis we were able to show that there were deficiencies in design and analyzing phases, implementation phase and in testing phase. The work gives ideas for improving error classification and for software development practices.
Resumo:
This work presents new, efficient Markov chain Monte Carlo (MCMC) simulation methods for statistical analysis in various modelling applications. When using MCMC methods, the model is simulated repeatedly to explore the probability distribution describing the uncertainties in model parameters and predictions. In adaptive MCMC methods based on the Metropolis-Hastings algorithm, the proposal distribution needed by the algorithm learns from the target distribution as the simulation proceeds. Adaptive MCMC methods have been subject of intensive research lately, as they open a way for essentially easier use of the methodology. The lack of user-friendly computer programs has been a main obstacle for wider acceptance of the methods. This work provides two new adaptive MCMC methods: DRAM and AARJ. The DRAM method has been built especially to work in high dimensional and non-linear problems. The AARJ method is an extension to DRAM for model selection problems, where the mathematical formulation of the model is uncertain and we want simultaneously to fit several different models to the same observations. The methods were developed while keeping in mind the needs of modelling applications typical in environmental sciences. The development work has been pursued while working with several application projects. The applications presented in this work are: a winter time oxygen concentration model for Lake Tuusulanjärvi and adaptive control of the aerator; a nutrition model for Lake Pyhäjärvi and lake management planning; validation of the algorithms of the GOMOS ozone remote sensing instrument on board the Envisat satellite of European Space Agency and the study of the effects of aerosol model selection on the GOMOS algorithm.