54 resultados para CHD Prediction, Blood Serum Data Chemometrics Methods

em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Väitöstutkimuksessa on tarkasteltuinfrapunaspektroskopian ja monimuuttujaisten aineistonkäsittelymenetelmien soveltamista kiteytysprosessin monitoroinnissa ja kidemäisen tuotteen analysoinnissa. Parhaillaan kiteytysprosessitutkimuksessa maailmanlaajuisesti tutkitaan intensiivisesti erilaisten mittausmenetelmien soveltamista kiteytysprosessin ilmiöidenjatkuvaan mittaamiseen niin nestefaasista kuin syntyvistä kiteistäkin. Lisäksi tuotteen karakterisointi on välttämätöntä tuotteen laadun varmistamiseksi. Erityisesti lääkeaineiden valmistuksessa kiinnostusta tämäntyyppiseen tutkimukseen edistää Yhdysvaltain elintarvike- ja lääkeaineviraston (FDA) prosessianalyyttisiintekniikoihin (PAT) liittyvä ohjeistus, jossa määritellään laajasti vaatimukset lääkeaineiden valmistuksessa ja tuotteen karakterisoinnissa tarvittaville mittauksille turvallisten valmistusprosessien takaamiseksi. Jäähdytyskiteytyson erityisesti lääketeollisuudessa paljon käytetty erotusmenetelmä kiinteän raakatuotteen puhdistuksessa. Menetelmässä puhdistettava kiinteä raaka-aine liuotetaan sopivaan liuottimeen suhteellisen korkeassa lämpötilassa. Puhdistettavan aineen liukoisuus käytettävään liuottimeen laskee lämpötilan laskiessa, joten systeemiä jäähdytettäessä liuenneen aineen konsentraatio prosessissa ylittää liukoisuuskonsentraation. Tällaiseen ylikylläiseen systeemiin pyrkii muodostumaan uusia kiteitä tai olemassa olevat kiteet kasvavat. Ylikylläisyys on yksi tärkeimmistä kidetuotteen laatuun vaikuttavista tekijöistä. Jäähdytyskiteytyksessä syntyvän tuotteen ominaisuuksiin voidaan vaikuttaa mm. liuottimen valinnalla, jäähdytyprofiililla ja sekoituksella. Lisäksi kiteytysprosessin käynnistymisvaihe eli ensimmäisten kiteiden muodostumishetki vaikuttaa tuotteen ominaisuuksiin. Kidemäisen tuotteen laatu määritellään kiteiden keskimääräisen koon, koko- ja muotojakaumansekä puhtauden perusteella. Lääketeollisuudessa on usein vaatimuksena, että tuote edustaa tiettyä polymorfimuotoa, mikä tarkoittaa molekyylien kykyä järjestäytyä kidehilassa usealla eri tavalla. Edellä mainitut ominaisuudet vaikuttavat tuotteen jatkokäsiteltävyyteen, kuten mm. suodattuvuuteen, jauhautuvuuteen ja tabletoitavuuteen. Lisäksi polymorfiamuodolla on vaikutusta moniin tuotteen käytettävyysominaisuuksiin, kuten esim. lääkeaineen liukenemisnopeuteen elimistössä. Väitöstyössä on tutkittu sulfatiatsolin jäähdytyskiteytystä käyttäen useita eri liuotinseoksia ja jäähdytysprofiileja sekä tarkasteltu näiden tekijöiden vaikutustatuotteen laatuominaisuuksiin. Infrapunaspektroskopia on laajalti kemian alan tutkimuksissa sovellettava menetelmä. Siinä mitataan tutkittavan näytteenmolekyylien värähtelyjen aiheuttamia spektrimuutoksia IR alueella. Tutkimuksessa prosessinaikaiset mittaukset toteutettiin in-situ reaktoriin sijoitettavalla uppoanturilla käyttäen vaimennettuun kokonaisheijastukseen (ATR) perustuvaa Fourier muunnettua infrapuna (FTIR) spektroskopiaa. Jauhemaiset näytteet mitattiin off-line diffuusioheijastukseen (DRIFT) perustuvalla FTIR spektroskopialla. Monimuuttujamenetelmillä (kemometria) voidaan useita satoja, jopa tuhansia muuttujia käsittävä spektridata jalostaa kvalitatiiviseksi (laadulliseksi) tai kvantitatiiviseksi (määrälliseksi) prosessia kuvaavaksi informaatioksi. Väitöstyössä tarkasteltiin laajasti erilaisten monimuuttujamenetelmien soveltamista mahdollisimman monipuolisen prosessia kuvaavan informaation saamiseksi mitatusta spektriaineistosta. Väitöstyön tuloksena on ehdotettu kalibrointirutiini liuenneen aineen konsentraation ja edelleen ylikylläisyystason mittaamiseksi kiteytysprosessin aikana. Kalibrointirutiinin kehittämiseen kuuluivat aineiston hyvyyden tarkastelumenetelmät, aineiston esikäsittelymenetelmät, varsinainen kalibrointimallinnus sekä mallin validointi. Näin saadaan reaaliaikaista informaatiota kiteytysprosessin ajavasta voimasta, mikä edelleen parantaa kyseisen prosessin tuntemusta ja hallittavuutta. Ylikylläisyystason vaikutuksia syntyvän kidetuotteen laatuun seurattiin usein kiteytyskokein. Työssä on esitetty myös monimuuttujaiseen tilastolliseen prosessinseurantaan perustuva menetelmä, jolla voidaan ennustaa spontaania primääristä ytimenmuodostumishetkeä mitatusta spektriaineistosta sekä mahdollisesti päätellä ydintymisessä syntyvä polymorfimuoto. Ehdotettua menetelmää hyödyntäen voidaan paitsi ennakoida kideytimien muodostumista myös havaita mahdolliset häiriötilanteet kiteytysprosessin alkuhetkillä. Syntyvää polymorfimuotoa ennustamalla voidaan havaita ei-toivotun polymorfin ydintyminen,ja mahdollisesti muuttaa kiteytyksen ohjausta halutun polymorfimuodon saavuttamiseksi. Monimuuttujamenetelmiä sovellettiin myös kiteytyspanosten välisen vaihtelun määrittämiseen mitatusta spektriaineistosta. Tämäntyyppisestä analyysistä saatua informaatiota voidaan hyödyntää kiteytysprosessien suunnittelussa ja optimoinnissa. Väitöstyössä testattiin IR spektroskopian ja erilaisten monimuuttujamenetelmien soveltuvuutta kidetuotteen polymorfikoostumuksen nopeaan määritykseen. Jauhemaisten näytteiden luokittelu eri polymorfeja sisältäviin näytteisiin voitiin tehdä käyttäen tarkoitukseen soveltuvia monimuuttujaisia luokittelumenetelmiä. Tämä tarjoaa nopean menetelmän jauhemaisen näytteen polymorfikoostumuksen karkeaan arviointiin, eli siihen mitä yksittäistä polymorfia kyseinen näyte pääasiassa sisältää. Varsinainen kvantitatiivinen analyysi, eli sen selvittäminen paljonko esim. painoprosentteina näyte sisältää eri polymorfeja, vaatii kaikki polymorfit kattavan fysikaalisen kalibrointisarjan, mikä voi olla puhtaiden polymorfien huonon saatavuuden takia hankalaa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Recent years have produced great advances in the instrumentation technology. The amount of available data has been increasing due to the simplicity, speed and accuracy of current spectroscopic instruments. Most of these data are, however, meaningless without a proper analysis. This has been one of the reasons for the overgrowing success of multivariate handling of such data. Industrial data is commonly not designed data; in other words, there is no exact experimental design, but rather the data have been collected as a routine procedure during an industrial process. This makes certain demands on the multivariate modeling, as the selection of samples and variables can have an enormous effect. Common approaches in the modeling of industrial data are PCA (principal component analysis) and PLS (projection to latent structures or partial least squares) but there are also other methods that should be considered. The more advanced methods include multi block modeling and nonlinear modeling. In this thesis it is shown that the results of data analysis vary according to the modeling approach used, thus making the selection of the modeling approach dependent on the purpose of the model. If the model is intended to provide accurate predictions, the approach should be different than in the case where the purpose of modeling is mostly to obtain information about the variables and the process. For industrial applicability it is essential that the methods are robust and sufficiently simple to apply. In this way the methods and the results can be compared and an approach selected that is suitable for the intended purpose. Differences in data analysis methods are compared with data from different fields of industry in this thesis. In the first two papers, the multi block method is considered for data originating from the oil and fertilizer industries. The results are compared to those from PLS and priority PLS. The third paper considers applicability of multivariate models to process control for a reactive crystallization process. In the fourth paper, nonlinear modeling is examined with a data set from the oil industry. The response has a nonlinear relation to the descriptor matrix, and the results are compared between linear modeling, polynomial PLS and nonlinear modeling using nonlinear score vectors.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This master's thesis coversthe concepts of knowledge discovery, data mining and technology forecasting methods in telecommunications. It covers the various aspects of knowledge discoveryin data bases and discusses in detail the methods of data mining and technologyforecasting methods that are used in telecommunications. Main concern in the overall process of this thesis is to emphasize the methods that are being used in technology forecasting for telecommunications and data mining. It tries to answer to some extent to the question of do forecasts create a future? It also describes few difficulties that arise in technology forecasting. This thesis was done as part of my master's studies in Lappeenranta University of Technology.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Numerical weather prediction and climate simulation have been among the computationally most demanding applications of high performance computing eversince they were started in the 1950's. Since the 1980's, the most powerful computers have featured an ever larger number of processors. By the early 2000's, this number is often several thousand. An operational weather model must use all these processors in a highly coordinated fashion. The critical resource in running such models is not computation, but the amount of necessary communication between the processors. The communication capacity of parallel computers often fallsfar short of their computational power. The articles in this thesis cover fourteen years of research into how to harness thousands of processors on a single weather forecast or climate simulation, so that the application can benefit as much as possible from the power of parallel high performance computers. The resultsattained in these articles have already been widely applied, so that currently most of the organizations that carry out global weather forecasting or climate simulation anywhere in the world use methods introduced in them. Some further studies extend parallelization opportunities into other parts of the weather forecasting environment, in particular to data assimilation of satellite observations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Työn tavoite oli kehittää karakterisointimenetelmät kalkkikiven ja polttoaineen tuhkan jauhautumisen ennustamiselle kiertoleijukattilan tulipesässä. Kiintoainekäyttäytymisen karakterisoinnilla ja mallintamisella voidaan tarkentaa tulipesän lämmönsiirron ja tuhkajaon ennustamista. Osittain kokeelliset karakterisointimenetelmät perustuvat kalkkikiven jauhautumiseen laboratoriokokoluokan leijutetussa kvartsiputkireaktorissa ja tuhkan jauhatumiseen rotaatiomyllyssä. Karakterisointimenetelmät ottavat huomioon eri-laiset toimintaolosuhteet kaupallisen kokoluokan kiertoleijukattiloissa. Menetelmät kelpoistettiin kaupallisen kokoluokan kiertoleijukattiloista mitattujen ja fraktioittaisella kiintoainemallilla mallinnettujen taseiden avulla. Kelpoistamistaseiden vähäisyydestä huolimatta karakterisointimenetelmät arvioitiin virhetarkastelujen perusteella järkeviksi. Karakterisointimenetelmien kehittämistä ja tarkentamista tullaan jatkamaan.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The size and complexity of projects in the software development are growing very fast. At the same time, the proportion of successful projects is still quite low according to the previous research. Although almost every project's team knows main areas of responsibility which would help to finish project on time and on budget, this knowledge is rarely used in practice. So it is important to evaluate the success of existing software development projects and to suggest a method for evaluating success chances which can be used in the software development projects. The main aim of this study is to evaluate the success of projects in the selected geographical region (Russia-Ukraine-Belarus). The second aim is to compare existing models of success prediction and to determine their strengths and weaknesses. Research was done as an empirical study. A survey with structured forms and theme-based interviews were used as the data collection methods. The information gathering was done in two stages. At the first stage, project manager or someone with similar responsibilities answered the questions over Internet. At the second stage, the participant was interviewed; his or her answers were discussed and refined. It made possible to get accurate information about each project and to avoid errors. It was found out that there are many problems in the software development projects. These problems are widely known and were discussed in literature many times. The research showed that most of the projects have problems with schedule, requirements, architecture, quality, and budget. Comparison of two models of success prediction presented that The Standish Group overestimates problems in project. At the same time, McConnell's model can help to identify problems in time and avoid troubles in future. A framework for evaluating success chances in distributed projects was suggested. The framework is similar to The Standish Group model but it was customized for distributed projects.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This study examines performance persistence of hedge funds from investor's point of view and look at the methods by which an investor could choose the successful hedge funds to the portfolio. This study was used the data from HFI & Tremont databases on period 1998-2007. In this study used the 36-month combination (24-month selection and 12-month prediction periods). As the research methods used the Sharpe index, raw returns, MVR (mean variance ratio), GSC-clustering, the SDI index and the new combination of metrics. The evaluation criterions of the results used the volatility, excess returns and the Sharpe index. This study compared different results from the 7 time series with each other, and commenting the problems on a portfolio loss of funds.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Identification of low-dimensional structures and main sources of variation from multivariate data are fundamental tasks in data analysis. Many methods aimed at these tasks involve solution of an optimization problem. Thus, the objective of this thesis is to develop computationally efficient and theoretically justified methods for solving such problems. Most of the thesis is based on a statistical model, where ridges of the density estimated from the data are considered as relevant features. Finding ridges, that are generalized maxima, necessitates development of advanced optimization methods. An efficient and convergent trust region Newton method for projecting a point onto a ridge of the underlying density is developed for this purpose. The method is utilized in a differential equation-based approach for tracing ridges and computing projection coordinates along them. The density estimation is done nonparametrically by using Gaussian kernels. This allows application of ridge-based methods with only mild assumptions on the underlying structure of the data. The statistical model and the ridge finding methods are adapted to two different applications. The first one is extraction of curvilinear structures from noisy data mixed with background clutter. The second one is a novel nonlinear generalization of principal component analysis (PCA) and its extension to time series data. The methods have a wide range of potential applications, where most of the earlier approaches are inadequate. Examples include identification of faults from seismic data and identification of filaments from cosmological data. Applicability of the nonlinear PCA to climate analysis and reconstruction of periodic patterns from noisy time series data are also demonstrated. Other contributions of the thesis include development of an efficient semidefinite optimization method for embedding graphs into the Euclidean space. The method produces structure-preserving embeddings that maximize interpoint distances. It is primarily developed for dimensionality reduction, but has also potential applications in graph theory and various areas of physics, chemistry and engineering. Asymptotic behaviour of ridges and maxima of Gaussian kernel densities is also investigated when the kernel bandwidth approaches infinity. The results are applied to the nonlinear PCA and to finding significant maxima of such densities, which is a typical problem in visual object tracking.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Active magnetic bearing is a type of bearing which uses magnetic field to levitate the rotor. These bearings require continuous control of the currents in electromagnets and data from position of the rotor and the measured current from electromagnets. Because of this different identification methods can be implemented with no additional hardware. In this thesis the focus was to implement and test identification methods for active magnetic bearing system and to update the rotor model. Magnetic center calibration is a method used to locate the magnetic center of the rotor. Rotor model identification is an identification method used to identify the rotor model. Rotor model update is a method used to update the rotor model based on identification data. These methods were implemented and tested with a real machine where rotor was levitated with active magnetic bearings and the functionality of the methods was ensured. Methods were developed with further extension in mind and also with the possibility to apply them for different machines with ease.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Diplomityön tavoitteena oli luoda soveltamisedellytyksiä ja -apuvälineitä Six Sigma -parannusprojektien läpiviennille Perlos Oyj Connectorsin meistoprosessissa. Työn teoriaosassa käsitellään Six Sigman perusteoriaa, organisointia ja soveltamista sekä suorituskykymittariston ja tiedonkeruumenetelmien luomista. Kirjallisuuden tarjoaman teorian jälkeen työssä tutustuttiin meistoprosessiin ja Perloksen tapaan soveltaa Six Sigmaa prosessien parantamiseen. Tämän perusteella kehitettiin tiedonkeruu-, dokumentointi- ynnä muita apuvälineitä parantamisprojektien tueksi. Lopuksi koekäytettiin luotuja välineitä meistoon tehdyn osittaisen Six Sigma -projektin yhteydessä. Luotettavan tiedon saaminen prosesseista on perusedellytys Six Sigma -projektien läpiviennille. Menetelmän kouluttaminen työntekijöille on myös tärkeää. Erilaiset dokumentointi- ja laskentakaavakkeet toimivat projektien läpiviennin ja seurannan tukena. Työssä luotuja tiedonkeruu-, koulutus-, dokumentointi- ynnä muita apuvälineitä voidaan käyttää jatkossa apuna Perloksella tehtävissä Six Sigma -projekteissa. Mittaristoa ja tiedonkeruuta tulee kehittää edelleen, jotta prosessien toimintaa voidaan analysoida tehokkaasti. Työn lopussa on ajatuksia Six Sigman käytöstä sekä tiedonkeruujärjestelmien jatkokehityksestä.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Diplomityön tavoitteena on tutkia tuotetiedon ja tuotetiedon hallinnan merkitystä julkisen palvelun lisäarvon tuojana. Lisäarvon käsite julkisesti tuotetussa palvelussa on uusi ja hämmentävä. Diplomityöllä osoitetaan, ettei kunnallisen teknisen sektorin tuottama ns. julkinen palvelu poikkea yksityisen sektorin tuottamista palveluista. Teknisen sektorin tuottama julkinen palvelu voidaan mallintaa liiketoimintaprosessien mallintamisen keinoin ja palveluun sitoutunut tuotetieto voidaan hallita tuotetiedon hallinnan keinoin ja hyödyntää lisäarvopalveluina asiakkaille, kuntalaisille. Työssä selvitetään ne julkisen teknisen palvelun ominaisuudet, joita asiakkaat arvostavat, ja jotka tuottavat heille lisäarvoa. Työn lopputulos osoittaa, ettei kuntalaista, asiakasta, kiinnosta palvelujen tuottaja, vaan heitä kiinnostaa se, että palvelu on osa heidän arvoketjuaan ja arvojärjestelmäänsä. Julkisen palvelun tuotetieto mahdollistaa informaation avulla tuotetut lisäarvopalvelut ja liittää ne osaksi asiakkaan arvoketjua.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Jatkuvasti lisääntyvä matkapuhelinten käyttäjien määrä, internetin kehittyminen yleiseksi tiedon ja viihteen lähteeksi on luonut tarpeen palvelulle liikkuvan työaseman liittämiseksi tietokoneverkkoihin. GPRS on uusi teknologia, joka tarjoaa olemassa olevia matka- puhelinverkkoja (esim. NMT ja GSM) nopeamman, tehokkaamman ja taloudellisemman liitynnän pakettidataverkkoihin, kuten internettiin ja intranetteihin. Tämän työn tavoitteena oli toteuttaa GPRS:n paketinohjausyksikön (Packet Control Unit, PCU) testauksessa tarvittavat viestintäajurit työasemaympristöön. Aidot matkapuhelinverkot ovat liian kalliita, eikä niistä saa tarvittavasti lokitulostuksia, jotta niitä voisi käyttää GPRS:n testauksessa ohjelmiston kehityksen alkuvaihessa. Tämän takia PCU-ohjelmiston testaus suoritetaan joustavammassa ja helpommin hallittavassa ympäristössä, joka ei aseta kovia reaaliaikavaatimuksia. Uusi toimintaympäristö ja yhteysmedia vaativat PCU:n ja muiden GPRS-verkon yksiköiden välisistä yhteyksistä huolehtivien ohjelman osien, viestintäajurien uuden toteutuksen. Tämän työn tuloksena syntyivät tarvittavien viestintäajurien työasemaversiot. Työssä tarkastellaan eri tiedonsiirtotapoja ja -protokollia testattavan ohjelmiston vaateiden, toteutetun ajurin ja testauksen kannalta. Työssä esitellään kunkin ajurin toteuttama rajapinta ja toteutuksen aste, eli mitkä toiminnot on toteutettu ja mitä on jätetty pois. Ajureiden rakenne ja toiminta selvitetään siltä osin, kuin se on oleellista ohjelman toiminnan kannalta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tutkielman tarkoituksena oli tutkia, mitkä tekijät vaikuttavat sisäisen laskennan tulostiedon oikeellisuuteen ja miten tietojohtamisen keinoin voidaan taata yhteensopivuus ulkoisen ja sisäisen laskentatiedon välillä. Tekijöiden tunnistamisen ja huomioonottamisen kautta voidaan kehittää organisaation tietämystä ja suorituskykyä. Tutkimus oli empiirinen ja kuvaileva tapaustutkimus. Kvalitatiivista aineistoa kerättiin pääasiassa kyselylomakkeen, havainto -ja dokumenttiaineiston avulla. Aineisto analysoitiin teemoittelun avulla. Laskentaorganisaatioissa havaittiin mekaanisen ja orgaanisen tietopääomaympäristön piirteitä, jotka asettavat tiedon välitykselle,vuorovaikutukselle ja tietämyksen kehittymiselle omat rajoitteensa. Laskentaorganisaatioiden toimintaa ohjasivat mekaaniselle ympäristölle tyypilliset vastuu - ja raportointisuhteet, aikataulut ja raportointikäytännöt. Raportointijärjestelmään tarvittaisiin lisäkoulutusta, tiedon vertailtavuuteen ja tiedon oikeellisuuden takaamiseen lisää työvälineitä. Tiedon välittämistä ja kommunikointia pitäisi tehostaa aktiivisemmalla sähköisellä viestinnällä, mutta myös monipuolisemmalla viestintäkanavien käytöllä. Laskentaorganisaatioiden toimintaympäristössä havaittiin orgaanisen tietopääomaympäristön piirteitä, mikä edellyttäisi dialogia tukevien teknologioiden ja toimintatapojen tehokkaampaa käyttöä. Haasteena on maantieteellisen etäisyyden aiheuttamat rajoitteet sekä toiminnan mekaaninen luonne. Uutta konseptia käyttöönotettaessa keskustelut ja vuorovaikutus tukivat mallin kehittämistä ja käytännön sisäistämistä osaksi organisaation tietämystä. Viestintäkanavien käytön tehostamisella voitaisiin edesauttaa tiedon välittymistä. Tietämyksen ja suorituskyvyn kehittäminen laskentaorganisaatioissa edellyttää kuitenkin vuorovaikutteisuuden ja dialogin tukemista.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tutkielman tarkoituksena oli yleisesti ymmärtää sisäistä yhteistyökyvykkyyttä ja sen roolia yrityksen menestystekijänä. Empiirisesti sisäistä yhteistyökyvykkyyttä tarkasteltiin case-organisaation, Metso Paper Jyväskylän, avulla. Tavoitteena oli selvittää, mistä sisäinen yhteistyökyvykkyys koostuu sekä siihen vaikuttavia kriittisiä tekijöitä. Myös käytännön keinoja ja sovelluksia etsittiin edistämään sisäistä yhteistyötä. Tutkielmassa käytettiin kvalitatiivista tutkimusotetta. Tiedon hankinnan strategiana oli tapaustutkimus ja tutkimusaineisto kerättiin teemahaastattelujen avulla. Saatu aineisto analysoitiin teemoittelun avulla. Teemoja etsittiin tekstistä teoriasta johdettujen oletusten ja empiriasta löydettyjen tekijöiden perusteella. Tutkimuksen tuloksena oli, että yhteistyökyvykkyys koostuu sekä yksilöön että organisaatioon liittyvistä tekijöistä. Yhteistyökyvykkyyden kriittisiä ja sitä estäviä tekijöitä olivat toiminnan painottuminen ulkoisiin suhteisiin, muodollinen ja monitasoinen organisaatiorakenne, organisaatiorakenteiden nopea muutostahti, toimintamallin yksisuuntaisuus, organisaatio- ja johtamiskulttuuri, joka ei tue yhteistyötä, ylimmän johdon ja operatiivisten toimintojen välinen kuilu, tiedon painottuminen tietojärjestelmiin, dialogin puute, kommunikoinnin yksisuuntaisuus ja erilaisista työkulttuureista aiheutuvat kommunikaatioesteet, yhteistyösuhteiden puute ja transaktiosuhteiden painottuminen sekä ryhmien sisäisen yhtenäisyyden vahvuus. Näiden tekijöiden esiin tuominen tuo uusia näkökulmia organisaation sisäisen yhteistyökyvykkyyden ymmärtämiseen ja kehittämiseen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tutkimuksen ensisijaisena tavoitteena oli tarkastella luottamuksen rakentumista virtuaalitiimissä. Keskeistä tarkastelussa olivat luottamuksen lähteiden löytäminen, suhteen rakentuminen sekä teknologiavälitteinen kommunikaatio. Myös käytännön keinoja ja sovelluksia etsittiin. Tässä tutkimuksessa luottamus nähtiin tärkeänä yhteistyön mahdollistajana sekä keskeisenä elementtinä ihmisten välisten suhteiden rakentumisessa. Tämä tutkimus oli empiirinen ja kuvaileva tapaustutkimus. Tutkimuksessa kvalitatiivista aineistoa kerättiin pääasiassa web-pohjaisen kyselyn sekä puhelinhaastattelun avulla. Aineistonkeruu toteutettiin siis pääasiassa virtuaalisesti. Saatu aineisto analysoitiin teemoittelun avulla. Tässä työssä teemoja etsittiin tekstistä pääasiassa teoriasta johdettujen oletusten perusteella. Tutkimuksen tuloksena oli, että luottamusta rakentavia mekanismeja ovat, karkeasti luokiteltuna, yhteiset päämäärät ja vastuut, kommunikaatio, sosiaalinen kanssakäyminen ja informaation jakaminen, toisten huomioiminen ja henkilökohtaiset ominaisuudet. Mekanismit eivät suuresti eronneet luottamuksen rakentumisen mekanismeista perinteisessä kontekstissa. Virtuaalitiimityön alkuvaiheessa luottamus pohjautui käsityksille toisten tiimin jäsenten kyvykkyydestä. Myös institutionaalinen identifioituminen loi pohjaa luottamukselle alkuvaiheessa. Muuten luottamus rakentui vähän kerrassaan tehtävään liittyvän kommunikaation ja sosiaalisen kommunikaation kautta. Tekojen merkitys korostui erityisesti ajan myötä. Työssä esitettiin myös käytännön keinoja luottamuksen rakentamiseksi. Olemassa olevien teknologioiden havaittiin tukevan hyvin suhteen rakentumista tiedon jakamiseen ja sen varastoimiseen liittyvissä tehtävissä. Sen sijaan vuorovaikutuksen näkökulmasta tuen ei nähty olevan yhtä kattavaa. Kaiken kaikkiaan kuitenkin parannuksella sosiaalisissa suhteissa voitaneen saada enemmän aikaan kuin parannuksilla teknologian suhteen.