52 resultados para Relevant features

em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Due to the large number of characteristics, there is a need to extract the most relevant characteristicsfrom the input data, so that the amount of information lost in this way is minimal, and the classification realized with the projected data set is relevant with respect to the original data. In order to achieve this feature extraction, different statistical techniques, as well as the principal components analysis (PCA) may be used. This thesis describes an extension of principal components analysis (PCA) allowing the extraction ofa finite number of relevant features from high-dimensional fuzzy data and noisy data. PCA finds linear combinations of the original measurement variables that describe the significant variation in the data. The comparisonof the two proposed methods was produced by using postoperative patient data. Experiment results demonstrate the ability of using the proposed two methods in complex data. Fuzzy PCA was used in the classificationproblem. The classification was applied by using the similarity classifier algorithm where total similarity measures weights are optimized with differential evolution algorithm. This thesis presents the comparison of the classification results based on the obtained data from the fuzzy PCA.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Työssä tarkastellaan blogin hyödyntämistä yrityksen ulkoisessa viestinnässä. Tutkimuksen empiiriseen osaan on valittu viisi yritystä, joiden blogeja tarkastellaan lähemmin. Työlle asetettiin kolme tutkimuskysymystä: 1) Mitä hyötyä blogista voi olla yritykselle? 2) Mitkä ovat onnistuneen yritysblogin tunnuskriteerit? 3) Kuinka hyvin tarkasteltavat yritysblogit täyttävät onnistuneen yritysblogin tunnuskriteerit ja blogille asetetut viestinnälliset tavoitteet? Työ toteutettiin keräämällä kirjallisuudesta blogilta vaadittavia ominaisuuksia, ja näistä kriteereistä rakennettiin yritysblogien arviointikehys, jonka avulla voidaan tarkastella ja vertailla niiden sisältöä. Onnistuneen blogin tunnuskriteerit jaettiin blogin löydettävyyttä mittaaviin kriteereihin sekä blogilla saavutettavan hyödyn toteutumista määrittäviin tekijöihin. Tutkimuksen keskeiset tulokset osoittavat, että yritysblogilla voidaan saavuttaa kolme merkittävää hyötyä: 1) blogi soveltuu niin yrityksen brändin tunnettuuden kasvattamiseen, 2) asiakassuhteiden luomiseen, ylläpitämiseen ja kehittämiseen kuin myös 3) yrityksen imagon hallintaan. Kaikki tutkimuksessa mukana olleet yritysblogit täyttivät hyvin arviointikehyksen kriteerit ja lisäksi neljä viidestä tutkitusta blogista täytti niille asetetut viestinnälliset tavoitteet.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Identification of low-dimensional structures and main sources of variation from multivariate data are fundamental tasks in data analysis. Many methods aimed at these tasks involve solution of an optimization problem. Thus, the objective of this thesis is to develop computationally efficient and theoretically justified methods for solving such problems. Most of the thesis is based on a statistical model, where ridges of the density estimated from the data are considered as relevant features. Finding ridges, that are generalized maxima, necessitates development of advanced optimization methods. An efficient and convergent trust region Newton method for projecting a point onto a ridge of the underlying density is developed for this purpose. The method is utilized in a differential equation-based approach for tracing ridges and computing projection coordinates along them. The density estimation is done nonparametrically by using Gaussian kernels. This allows application of ridge-based methods with only mild assumptions on the underlying structure of the data. The statistical model and the ridge finding methods are adapted to two different applications. The first one is extraction of curvilinear structures from noisy data mixed with background clutter. The second one is a novel nonlinear generalization of principal component analysis (PCA) and its extension to time series data. The methods have a wide range of potential applications, where most of the earlier approaches are inadequate. Examples include identification of faults from seismic data and identification of filaments from cosmological data. Applicability of the nonlinear PCA to climate analysis and reconstruction of periodic patterns from noisy time series data are also demonstrated. Other contributions of the thesis include development of an efficient semidefinite optimization method for embedding graphs into the Euclidean space. The method produces structure-preserving embeddings that maximize interpoint distances. It is primarily developed for dimensionality reduction, but has also potential applications in graph theory and various areas of physics, chemistry and engineering. Asymptotic behaviour of ridges and maxima of Gaussian kernel densities is also investigated when the kernel bandwidth approaches infinity. The results are applied to the nonlinear PCA and to finding significant maxima of such densities, which is a typical problem in visual object tracking.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Mobile malwares are increasing with the growing number of Mobile users. Mobile malwares can perform several operations which lead to cybersecurity threats such as, stealing financial or personal information, installing malicious applications, sending premium SMS, creating backdoors, keylogging and crypto-ransomware attacks. Knowing the fact that there are many illegitimate Applications available on the App stores, most of the mobile users remain careless about the security of their Mobile devices and become the potential victim of these threats. Previous studies have shown that not every antivirus is capable of detecting all the threats; due to the fact that Mobile malwares use advance techniques to avoid detection. A Network-based IDS at the operator side will bring an extra layer of security to the subscribers and can detect many advanced threats by analyzing their traffic patterns. Machine Learning(ML) will provide the ability to these systems to detect unknown threats for which signatures are not yet known. This research is focused on the evaluation of Machine Learning classifiers in Network-based Intrusion detection systems for Mobile Networks. In this study, different techniques of Network-based intrusion detection with their advantages, disadvantages and state of the art in Hybrid solutions are discussed. Finally, a ML based NIDS is proposed which will work as a subsystem, to Network-based IDS deployed by Mobile Operators, that can help in detecting unknown threats and reducing false positives. In this research, several ML classifiers were implemented and evaluated. This study is focused on Android-based malwares, as Android is the most popular OS among users, hence most targeted by cyber criminals. Supervised ML algorithms based classifiers were built using the dataset which contained the labeled instances of relevant features. These features were extracted from the traffic generated by samples of several malware families and benign applications. These classifiers were able to detect malicious traffic patterns with the TPR upto 99.6% during Cross-validation test. Also, several experiments were conducted to detect unknown malware traffic and to detect false positives. These classifiers were able to detect unknown threats with the Accuracy of 97.5%. These classifiers could be integrated with current NIDS', which use signatures, statistical or knowledge-based techniques to detect malicious traffic. Technique to integrate the output from ML classifier with traditional NIDS is discussed and proposed for future work.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The production of biodiesel through transesterification has created a surplus of glycerol on the international market. In few years, glycerol has become an inexpensive and abundant raw material, subject to numerous plausible valorisation strategies. Glycerol hydrochlorination stands out as an economically attractive alternative to the production of biobased epichlorohydrin, an important raw material for the manufacturing of epoxy resins and plasticizers. Glycerol hydrochlorination using gaseous hydrogen chloride (HCl) was studied from a reaction engineering viewpoint. Firstly, a more general and rigorous kinetic model was derived based on a consistent reaction mechanism proposed in the literature. The model was validated with experimental data reported in the literature as well as with new data of our own. Semi-batch experiments were conducted in which the influence of the stirring speed, HCl partial pressure, catalyst concentration and temperature were thoroughly analysed and discussed. Acetic acid was used as a homogeneous catalyst for the experiments. For the first time, it was demonstrated that the liquid-phase volume undergoes a significant increase due to the accumulation of HCl in the liquid phase. Novel and relevant features concerning hydrochlorination kinetics, HCl solubility and mass transfer were investigated. An extended reaction mechanism was proposed and a new kinetic model was derived. The model was tested with the experimental data by means of regression analysis, in which kinetic and mass transfer parameters were successfully estimated. A dimensionless number, called Catalyst Modulus, was proposed as a tool for corroborating the kinetic model. Reactive flash distillation experiments were conducted to check the commonly accepted hypothesis that removal of water should enhance the glycerol hydrochlorination kinetics. The performance of the reactive flash distillation experiments were compared to the semi-batch data previously obtained. An unforeseen effect was observed once the water was let to be stripped out from the liquid phase, exposing a strong correlation between the HCl liquid uptake and the presence of water in the system. Water has revealed to play an important role also in the HCl dissociation: as water was removed, the dissociation of HCl was diminished, which had a retarding effect on the reaction kinetics. In order to obtain a further insight on the influence of water on the hydrochlorination reaction, extra semi-batch experiments were conducted in which initial amounts of water and the desired product were added. This study revealed the possibility to use the desired product as an ideal “solvent” for the glycerol hydrochlorination process. A co-current bubble column was used to investigate the glycerol hydrochlorination process under continuous operation. The influence of liquid flow rate, gas flow rate, temperature and catalyst concentration on the glycerol conversion and product distribution was studied. The fluid dynamics of the system showed a remarkable behaviour, which was carefully investigated and described. Highspeed camera images and residence time distribution experiments were conducted to collect relevant information about the flow conditions inside the tube. A model based on the axial dispersion concept was proposed and confronted with the experimental data. The kinetic and solubility parameters estimated from the semi-batch experiments were successfully used in the description of mass transfer and fluid dynamics of the bubble column reactor. In light of the results brought by the present work, the glycerol hydrochlorination reaction mechanism has been finally clarified. It has been demonstrated that the reactive distillation technology may cause drawbacks to the glycerol hydrochlorination reaction rate under certain conditions. Furthermore, continuous reactor technology showed a high selectivity towards monochlorohydrins, whilst semibatch technology was demonstrated to be more efficient towards the production of dichlorohydrins. Based on the novel and revealing discoveries brought by the present work, many insightful suggestions are made towards the improvement of the production of αγ-dichlorohydrin on an industrial scale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Testaus on tänä päivänä olennainen osa tuotekehitysprosessia koko tuotteen elinkaaren ajan, myös tietoliikennetekniikassa. Tietoverkoille asetetut tiukat vaatimukset ympärivuorokautisen toimivuuden suhteen nostavatmyös niiden testauksen tason ja laadun merkitystä. Erityisesti verkkojen uudet toiminnallisuudet, joilla ei ole vielä vuosia kestäneen käytön ja kehityksen tuomaa varmuus- ja laatutasoa, tuovat haasteita testauksen toteutukselle. Televisiokuvan välityksen Internetin yli mahdollistavat ominaisuudet ovat esimerkki tällaisista toiminnallisuuksista. Tässä diplomityössä käsitellään Tellabs Oy:n tuotekehitysosastolla vuosina 2005 ja 2006 toteutetun, erään operaattorin laajakaistaliityntäverkon päivitysprojektin testausosuutta. Kattavamman tarkastelun kohteena ovat erityisesti verkkoon lisättyjen laajakaistatelevisio- eli IPTV-toiminnallisuuksien integraatio- ja systeemitestausmenetelmät.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Työn päätavoitteena on arvioida hissien automaattiovien usein toistuvien asiakaskohtaisesti räätälöityjen tuoteominaisuuksien vakioimisen kannattavuutta KONEen Hyvinkään tehtaalla. Työssä arvioidaan myös massaräätälöinnin periaatteiden soveltuvuutta erikoisovien toimitusprosessiin sekä toimintoperusteisen kustannustiedon tarpeellisuutta tuoteominaisuuksia koskevien päätösten teossa. Asiakaskohtaisesti räätälöity ovituotanto jaettiin kategorioihin, joiden volyymeja ja tuotemuutosten tekoon käytettyjä suunnittelutuntimääriä analysoimalla selvitettiin, muodostaako jokin räätälöitävä tuoteominaisuus riittävän suuren kappalemääräisen kysynnän tai suunnittelutuntien kulutuskohteen, jotta ominaisuuden vakiointi olisi kannattavaa. Ovien kustannusrakenne-esimerkkien avulla selvitettiin myös suunnittelun osuus kokonaiskustannuksista. Analyysien perusteella todettiin asiakaskohtaisten muutosten olevan hajanaisia ja vain muutaman ominaisuuden osalta muodostuvan tarpeeksi suuri ja yhtenäinen kokonaisuus, joka olisi taloudellisesti kannattavaavakioida. Monimutkaisen tuoterakenteen vuoksi massaräätälöinnin opit eivät ole suoraan kopioitavissa hissien erikoisovien toimitusprosessiin, mutta sisältävät hyödyllisiä toimintamalleja prosessin kehittämiseen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Static process simulation has traditionally been used to model complex processes for various purposes. However, the use of static processsimulators for the preparation of holistic examinations aiming at improving profit-making capability requires a lot of work because the production of results requires the assessment of the applicability of detailed data which may be irrelevant to the objective. The relevant data for the total assessment gets buried byirrelevant data. Furthermore, the models do not include an examination of the maintenance or risk management, and economic examination is often an extra property added to them which can be performed with a spreadsheet program. A process model applicable to holistic economic examinations has been developed in this work. The model is based on the life cycle profit philosophy developed by Hagberg and Henriksson in 1996. The construction of the model has utilized life cycle assessment and life cycle costing methodologies with a view to developing, above all, a model which would be applicable to the economic examinations of complete wholes and which would require the need for information focusing on aspects essential to the objectives. Life cycle assessment and costing differ from each other in terms of the modeling principles, but the features of bothmethodologies can be used in the development of economic process modeling. Methods applicable to the modeling of complex processes can be examined from the viewpoint of life cycle methodologies, because they involve the collection and management of large corpuses of information and the production of information for the needs of decision-makers as well. The results of the study shows that on the basis of the principles of life cycle modeling, a process model can be created which may be used to produce holistic efficiency examinations on the profit-making capability of the production line, with fewer resources thanwith traditional methods. The calculations of the model are based to the maximum extent on the information system of the factory, which means that the accuracyof the results can be improved by developing information systems so that they can provide the best information for this kind of examinations.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The objective of the thesis is to structure and model the factors that contribute to and can be used in evaluating project success. The purpose of this thesis is to enhance the understanding of three research topics. The goal setting process, success evaluation and decision-making process are studied in the context of a project, business unitand its business environment. To achieve the objective three research questionsare posed. These are 1) how to set measurable project goals, 2) how to evaluateproject success and 3) how to affect project success with managerial decisions.The main theoretical contribution comes from deriving a synthesis of these research topics which have mostly been discussed apart from each other in prior research. The research strategy of the study has features from at least the constructive, nomothetical, and decision-oriented research approaches. This strategy guides the theoretical and empirical part of the study. Relevant concepts and a framework are composed on the basis of the prior research contributions within the problem area. A literature review is used to derive constructs of factors withinthe framework. They are related to project goal setting, success evaluation, and decision making. On the basis of this, the case study method is applied to complement the framework. The empirical data includes one product development program, three construction projects, as well as one organization development, hardware/software, and marketing project in their contexts. In two of the case studiesthe analytic hierarchy process is used to formulate a hierarchical model that returns a numerical evaluation of the degree of project success. It has its origin in the solution idea which in turn has its foundation in the notion of projectsuccess. The achieved results are condensed in the form of a process model thatintegrates project goal setting, success evaluation and decision making. The process of project goal setting is analysed as a part of an open system that includes a project, the business unit and its competitive environment. Four main constructs of factors are suggested. First, the project characteristics and requirements are clarified. The second and the third construct comprise the components of client/market segment attractiveness and sources of competitive advantage. Together they determine the competitive position of a business unit. Fourth, the relevant goals and the situation of a business unit are clarified to stress their contribution to the project goals. Empirical evidence is gained on the exploitation of increased knowledge and on the reaction to changes in the business environment during a project to ensure project success. The relevance of a successful project to a company or a business unit tends to increase the higher the reference level of project goals is set. However, normal performance or sometimes performance below this normal level is intentionally accepted. Success measures make project success quantifiable. There are result-oriented, process-oriented and resource-oriented success measures. The study also links result measurements to enablers that portray the key processes. The success measures can be classified into success domains determining the areas on which success is assessed. Empiricalevidence is gained on six success domains: strategy, project implementation, product, stakeholder relationships, learning situation and company functions. However, some project goals, like safety, can be assessed using success measures that belong to two success domains. For example a safety index is used for assessing occupational safety during a project, which is related to project implementation. Product safety requirements, in turn, are connected to the product characteristics and thus to the product-related success domain. Strategic success measures can be used to weave the project phases together. Empirical evidence on their static nature is gained. In order-oriented projects the project phases are oftencontractually divided into different suppliers or contractors. A project from the supplier's perspective can represent only a part of the ¿whole project¿ viewed from the client's perspective. Therefore static success measures are mostly used within the contractually agreed project scope and duration. Proof is also acquired on the dynamic use of operational success measures. They help to focus on the key issues during each project phase. Furthermore, it is shown that the original success domains and success measures, their weights and target values can change dynamically. New success measures can replace the old ones to correspond better with the emphasis of the particular project phase. This adjustment concentrates on the key decision milestones. As a conclusion, the study suggests a combination of static and dynamic success measures. Their linkage to an incentive system can make the project management proactive, enable fast feedback and enhancethe motivation of the personnel. It is argued that the sequence of effective decisions is closely linked to the dynamic control of project success. According to the used definition, effective decisions aim at adequate decision quality and decision implementation. The findings support that project managers construct and use a chain of key decision milestones to evaluate and affect success during aproject. These milestones can be seen as a part of the business processes. Different managers prioritise the key decision milestones to a varying degree. Divergent managerial perspectives, power, responsibilities and involvement during a project offer some explanation for this. Finally, the study introduces the use ofHard Gate and Soft Gate decision milestones. The managers may use the former milestones to provide decision support on result measurements and ad hoc critical conditions. In the latter milestones they may make intermediate success evaluation also on the basis of other types of success measures, like process and resource measures.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Building and sustaining competitive advantage through the creation of market imperfections is challenging in a constantly changing business environment - particularly since the sources of such advantages are increasingly knowledge-based. Facilitated by improved networks and communication, knowledge spills over to competitors more easily than before,thus creating an appropriability problem: the inability of an innovating firm to utilize its innovations commercially. Consequently, as the importance of intellectual assets increases, their protection also calls for new approaches. Companies have various means of protection at their disposal, and by taking advantage of them they can make intangibles more non-transferable and prevent, or at leastdelay, imitation of their most crucial intellectual assets. However, creating barriers against imitation has another side to it, and the transfer of knowledge in situations requiring knowledge sharing may be unintentionally obstructed. Theaim of this thesis is to increase understanding of how firms can balance knowledge protection and sharing so as to benefit most from their knowledge assets. Thus, knowledge protection is approached through an examination of the appropriability regime of a firm, i.e., the combination of available and effective means ofprotecting innovations, their profitability, and the increased rents due to R&D. A further aim is to provide a broader understanding of the formation and structure of the appropriability regime. The study consists of two parts. The first part introduces the research topic and the overall results of the study, and the second part consists of six complementary research publications covering various appropriability issues. The thesis contributes to the existing literature in several ways. Although there is a wide range of prior research on appropriability issues, a lot of it is restricted either to the study of individual appropriability mechanisms, or to comparing certain features of them. These approaches are combined, and the relevant theoretical concepts are clarified and developed. In addition, the thesis provides empirical evidence of the formation of the appropriability regime, which is consequently presented as an adaptive process. Thus, a framework is provided that better corresponds to the complex reality of the current business environment.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tässä diplomityössä pohditaan call centereiden asemaa tämän päivän palveluympäristössä ja myöskin call centereiden tulevaisuutta contact centereinä. Tämä työ tutkii kuinka asiakastarpeita ja uusia toiminnallisuuksia voidaan etsiä olemassaolevaan, mutta vielä keskeneräiseen call center tuotteeseen. Tutkimus on tehty lukemalla artikkeleita ja kirjoja tulevaisuuden contact centereistä, haastattelemalla asiakkaita ja järjestämällä ideointisessio yrityksen asiantuntijoille. Näin saadut tulokset priorisoitiin tätä tarkoitusta varten kehitellyllä matriisilla. Lopullisena tuloksena on lista toiminnallisuuksista tärkeysjärjestyksessä ja tuote roadmap kaikkein tärkeimmistä toiminnallisuuksista. Tämä roadmap antaa tuotekehitykselle ehdotuksen mitä tulisi implementoida nykyiseen tuotteeseen ja mitkä ovat prioriteetit. Tässä työssä pohdiskellaan myös tuotteen modulaarista rakennetta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Suomen ilmatilaa valvotaan reaaliaikaisesti, pääasiassa ilmavalvontatutkilla. Ilmatilassa on lentokoneiden lisäksi paljon muitakin kohteita, jotka tutka havaitsee. Tutka lähettää nämä tiedot edelleen ilmavalvontajärjestelmään. Ilmavalvontajärjestelmä käsittelee tiedot, sekä lähettää ne edelleen esitysjärjestelmään. Esitysjärjestelmässä tiedot esitetään synteettisinä merkkeinä, seurantoina joista käytetään nimitystä träkki. Näiden tietojen puitteissa sekä oman ammattitaitonsa perusteella ihmiset tekevät päätöksiä. Tämän työn tarkoituksena on tutkia tutkan havaintoja träkkien initialisointipisteessä siten, että voitaisiin määritellä tyypillinen rakenne sille mikä on oikea ja mikä väärä tai huono träkki. Tämän lisäksi tulisi ennustaa, mitkä Irakeista eivät aiheudu ilma- aluksista. Saadut tulokset voivat helpottaa työtä havaintojen tulkinnassa - jokainen lintuparvi ei ole ehdokas seurannaksi. Havaintojen luokittelu voidaan tehdä joko neurolaskennalla tai päätöspuulla. Neurolaskenta tehdään neuroverkoilla, jotka koostuvat neuroneista. Päätöspuu- luokittelijat ovat oppivia tietorakenteita kuten neuroverkotkin. Yleisin päätöpuu on binääripuu. Tämän työn tavoitteena on opettaa päätöspuuluokittelija havaintojen avulla siten, että se pystyy luokittelemaan väärät havainnot oikeista. Neurolaskennan mahdollisuuksia tässä työssä ei käsitellä kuin teoreettisesti. Työn tuloksena voi todeta, että päätöspuuluokittelijat ovat erittäin kykeneviä erottamaan oikeat havainnot vääristä. Vaikka tulokset olivat rohkaiseva, lisää tutkimusta tarvitaan määrittelemään luotettavammin tekijät, jotka parhaiten suorittavat luokittelun.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tämä diplomityökuuluu tietoliikenneverkkojen suunnittelun tutkimukseen ja pohjimmiltaan kohdistuu verkon mallintamiseen. Tietoliikenneverkkojen suunnittelu on monimutkainen ja vaativa ongelma, joka sisältää mutkikkaita ja aikaa vieviä tehtäviä. Tämä diplomityö esittelee ”monikerroksisen verkkomallin”, jonka tarkoitus on auttaa verkon suunnittelijoita selviytymään ongelmien monimutkaisuudesta ja vähentää verkkojen suunnitteluun kuluvaa aikaa. Monikerroksinen verkkomalli perustuu yleisille objekteille, jotka ovat yhteisiä kaikille tietoliikenneverkoille. Tämä tekee mallista soveltuvan mielivaltaisille verkoille, välittämättä verkkokohtaisista ominaisuuksista tai verkon toteutuksessa käytetyistä teknologioista. Malli määrittelee tarkan terminologian ja käyttää kolmea käsitettä: verkon jakaminen tasoihin (plane separation), kerrosten muodostaminen (layering) ja osittaminen (partitioning). Nämä käsitteet kuvataan yksityiskohtaisesti tässä työssä. Monikerroksisen verkkomallin sisäinen rakenne ja toiminnallisuus ovat määritelty käyttäen Unified Modelling Language (UML) -notaatiota. Tämä työ esittelee mallin use case- , paketti- ja luokkakaaviot. Diplomityö esittelee myös tulokset, jotka on saatu vertailemalla monikerroksista verkkomallia muihin verkkomalleihin. Tulokset osoittavat, että monikerroksisella verkkomallilla on etuja muihin malleihin verrattuna.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tämän diplomityön tarkoituksena on löytää halvin tapa kohdeyrityksen tuotteiden saamiseksi määritellyille kohdemarkkinoille. Logistiset kustannukset ovat erityisen tärkeässä asemassa esimerkkitoimialalla, ja käytettävissä olevien logististen ratkaisujen kirjo tekee tehtävästä erityisen haastavan. Yrityksen ja teollisuudenalan erityispiirteiden esittelyn jälkeen valitaan sopiva tapa päästä markkinoille, minkä lisäksi pohditaan erilaisia kilpailustrategioita yrityksen aikaisempien kokemusten ja teoreettisen käsittelyn pohjalta. Tämä pohdinta on erilaisten analyysimenetelmien esittelyn lisäksi työn empiirisen osan taustalla. Logistiikkaympäristön ymmärtäminen ja sen tarjoamien mahdollisuuksien tunnistaminen ovat tärkeimmällä sijalla koko tutkimuksen ajan. Työssä tarkastellaan myös vientilogistiikan ja kohdemarkkinoiden erityispiirteitä, joita sovelletaan harkitsemisenarvoisiin kuljetustapoihin. Mahdollisten logististen ratkaisujen kustannusrakenteen ja kilpailukyvyn selvittämiseksi päätöksenteon tueksi luodaan yksilölliset vuokaaviot yrityksen omien kokemusten ja eri logistiikkapalvelujen tarjoajien lausuntojen perusteella. Näin voidaan edelleen tunnistaa mielekkäimmät logistiset ketjut ja arvioida niiden kustannustehokkuutta sekä suorien logististen että laatukustannusten suhteen. Lisäksi esimerkkien avulla tarkastellaan mahdollisuuksia benchmarkkaukseen. Työn lopuksi suositellaan johtopäätösten pohjalta tulevia toimenpiteitä, jotta myös jatkossa saataisiin aikaan vastaavaa pohdintaa ja toimintaa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tutkimusongelmana oli kuinka tiedon johtamisella voidaan edesauttaa tuotekehitysprosessia. Mitkä ovat ne avaintekijät tietoympäristössä kuin myös itse tiedossa, joilla on merkitystä erityisesti tuotekehitysprosessin arvon muodostumiseen ja prosessien kehittämiseen? Tutkimus on laadullinen Case-tutkimus. Tutkimusongelmat on ensin selvitetty kirjallisuuden avulla, jonka jälkeen teoreettinen viitekehys on rakennettu tutkimaan rajattua ongelma-aluetta case-yrityksestä. Empiirisen tutkimuksen materiaali koostuu pääasiallisesti henkilökohtaisten teemahaastattelujen aineistosta. Tulokset merkittävimmistä tiedon hyväksikäytön haittatekijöistä, kuten myös parannusehdotukset on lajiteltu teoreettisessa viitekehyksessä esitettyjen oletustekijöiden mukaan. Haastatteluissa saadut vastaukset tukevat kirjallisuudesta ja alan ammattilaiselta saatua käsitystä tärkeimmistä vaikuttavista tekijöistä. Tärkeimmät toimenpiteet ja aloitteet joilla parannettaisiin tiedon muodostumista, koskivat ennnen kaikkea työnteon ulkoisia olosuhteita, eikä niinkään tiedon muodostumisen prosessia itseään. Merkittävimpiä haittatekijöitä olivat kultturiin, fyysiseen ja henkiseen tilaan ja henkilöstöresursseihin liittyvät ongelmat. Ratkaisuja ongelmiin odotettiin saatavan lähinnä tietotekniikan, henkilöstöresurssien ja itse tiedon muokkaamisen avulla. Tuotekehitysprosessin ydin tietovirtojen ja –pääomien luokittelu ja tulkitseminen tiedon muodostusta kuvaavan Learning Spiralin avulla antoi lähinnä teoreettisia viitteitä siitä millaisia keinoja on olemassa tiedon lisäämiseen ja jakamiseen eri tietotyypeittäin. Tulosten perusteella caseyrityksessä pitäisi kiinnittää erityistä huomiota tiedon dokumentointiin ja jakamiseen erityisesti sen tiedon osalta, joka on organisaatiossa vain harvalla ja/tai luonteeltaan hyvin tacitia.