957 resultados para Multivariate statistical methods
Resumo:
Background: In longitudinal studies where subjects experience recurrent incidents over a period of time, such as respiratory infections, fever or diarrhea, statistical methods are required to take into account the within-subject correlation. Methods: For repeated events data with censored failure, the independent increment (AG), marginal (WLW) and conditional (PWP) models are three multiple failure models that generalize Cox"s proportional hazard model. In this paper, we revise the efficiency, accuracy and robustness of all three models under simulated scenarios with varying degrees of within-subject correlation, censoring levels, maximum number of possible recurrences and sample size. We also study the methods performance on a real dataset from a cohort study with bronchial obstruction. Results: We find substantial differences between methods and there is not an optimal method. AG and PWP seem to be preferable to WLW for low correlation levels but the situation reverts for high correlations. Conclusions: All methods are stable in front of censoring, worsen with increasing recurrence levels and share a bias problem which, among other consequences, makes asymptotic normal confidence intervals not fully reliable, although they are well developed theoretically.
Resumo:
Submarine canyons are sites of intense energy and material exchange between the shelf and the deep adjacent basins. To test the hypothesis that active submarine canyons represent preferential conduits of available food for the deep-sea benthos, two mooring lines were deployed at 1200 m depth from November 2008 to November 2009 inside the Blanes canyon and on the adjacent open slope (Catalan Margin, NW Mediterranean Sea). We investigated the fluxes, biochemical composition and food quality of sinking organic carbon (OC). OC fluxes in the canyon and the open slope varied among sampling periods, though not onsistently in the two sites. In particular, while in the open slope the highest OC fluxes were observed in August 2009, in the canyon the highest OC fluxes occurred in AprilMay 2009. For almost the entire study period, the OC fluxes in the canyon were significantly higher than those in the open slope, whereas OC contents of sinking particles collected in the open slope were consistently higher than those in the canyon. This result confirms that submarine canyons are effective conveyors of OC to the deep sea. Particles transferred to the deep sea floor through the canyons are predominantly of inorganic origin, significantly higher than that reaching the open slope at a similar water depth. Using multivariate statistical tests, two major clusters of sampling periods were identified: one in the canyon that grouped trap samples collected in December 2008, oncurrently with the occurrence of a major storm at the sea surface, and associated with increased fluxes of nutritionally available particles from the upper shelf. Another cluster grouped samples from both the canyon and the open slope collected in March 2009, concurrently with the occurrence of the seasonal phytoplankton bloom at the sea surface, and associated with increased fluxes of total phytopigments. Our results confirm the key ecological role of submarine canyons for the functioning of deep-sea ecosystems, and highlight the importance of canyons in linking episodic storms and primary production occurring at the sea surface to the deep sea floor.
Resumo:
Genetic variants influence the risk to develop certain diseases or give rise to differences in drug response. Recent progresses in cost-effective, high-throughput genome-wide techniques, such as microarrays measuring Single Nucleotide Polymorphisms (SNPs), have facilitated genotyping of large clinical and population cohorts. Combining the massive genotypic data with measurements of phenotypic traits allows for the determination of genetic differences that explain, at least in part, the phenotypic variations within a population. So far, models combining the most significant variants can only explain a small fraction of the variance, indicating the limitations of current models. In particular, researchers have only begun to address the possibility of interactions between genotypes and the environment. Elucidating the contributions of such interactions is a difficult task because of the large number of genetic as well as possible environmental factors.In this thesis, I worked on several projects within this context. My first and main project was the identification of possible SNP-environment interactions, where the phenotypes were serum lipid levels of patients from the Swiss HIV Cohort Study (SHCS) treated with antiretroviral therapy. Here the genotypes consisted of a limited set of SNPs in candidate genes relevant for lipid transport and metabolism. The environmental variables were the specific combinations of drugs given to each patient over the treatment period. My work explored bioinformatic and statistical approaches to relate patients' lipid responses to these SNPs, drugs and, importantly, their interactions. The goal of this project was to improve our understanding and to explore the possibility of predicting dyslipidemia, a well-known adverse drug reaction of antiretroviral therapy. Specifically, I quantified how much of the variance in lipid profiles could be explained by the host genetic variants, the administered drugs and SNP-drug interactions and assessed the predictive power of these features on lipid responses. Using cross-validation stratified by patients, we could not validate our hypothesis that models that select a subset of SNP-drug interactions in a principled way have better predictive power than the control models using "random" subsets. Nevertheless, all models tested containing SNP and/or drug terms, exhibited significant predictive power (as compared to a random predictor) and explained a sizable proportion of variance, in the patient stratified cross-validation context. Importantly, the model containing stepwise selected SNP terms showed higher capacity to predict triglyceride levels than a model containing randomly selected SNPs. Dyslipidemia is a complex trait for which many factors remain to be discovered, thus missing from the data, and possibly explaining the limitations of our analysis. In particular, the interactions of drugs with SNPs selected from the set of candidate genes likely have small effect sizes which we were unable to detect in a sample of the present size (<800 patients).In the second part of my thesis, I performed genome-wide association studies within the Cohorte Lausannoise (CoLaus). I have been involved in several international projects to identify SNPs that are associated with various traits, such as serum calcium, body mass index, two-hour glucose levels, as well as metabolic syndrome and its components. These phenotypes are all related to major human health issues, such as cardiovascular disease. I applied statistical methods to detect new variants associated with these phenotypes, contributing to the identification of new genetic loci that may lead to new insights into the genetic basis of these traits. This kind of research will lead to a better understanding of the mechanisms underlying these pathologies, a better evaluation of disease risk, the identification of new therapeutic leads and may ultimately lead to the realization of "personalized" medicine.
Resumo:
The R package EasyStrata facilitates the evaluation and visualization of stratified genome-wide association meta-analyses (GWAMAs) results. It provides (i) statistical methods to test and account for between-strata difference as a means to tackle gene-strata interaction effects and (ii) extended graphical features tailored for stratified GWAMA results. The software provides further features also suitable for general GWAMAs including functions to annotate, exclude or highlight specific loci in plots or to extract independent subsets of loci from genome-wide datasets. It is freely available and includes a user-friendly scripting interface that simplifies data handling and allows for combining statistical and graphical functions in a flexible fashion. AVAILABILITY: EasyStrata is available for free (under the GNU General Public License v3) from our Web site www.genepi-regensburg.de/easystrata and from the CRAN R package repository cran.r-project.org/web/packages/EasyStrata/. SUPPLEMENTARY INFORMATION: Supplementary data are available at Bioinformatics online.
Resumo:
Voltage fluctuations caused by parasitic impedances in the power supply rails of modern ICs are a major concern in nowadays ICs. The voltage fluctuations are spread out to the diverse nodes of the internal sections causing two effects: a degradation of performances mainly impacting gate delays anda noisy contamination of the quiescent levels of the logic that drives the node. Both effects are presented together, in thispaper, showing than both are a cause of errors in modern and future digital circuits. The paper groups both error mechanismsand shows how the global error rate is related with the voltage deviation and the period of the clock of the digital system.
Resumo:
PURPOSE: To identify clinical risk factors for Dravet syndrome (DS) in a population of children with status epilepticus (SE). MATERIAL AND METHODS: Children aged between 1 month and 16 years with at least one episode of SE were referred from 6 pediatric neurology centers in Switzerland. SE was defined as a clinical seizure lasting for more than 30min without recovery of normal consciousness. The diagnosis of DS was considered likely in previously healthy patients with seizures of multiple types starting before 1 year and developmental delay on follow-up. The presence of a SCN1A mutation was considered confirmatory for the diagnosis. Data such as gender, age at SE, SE clinical presentation and recurrence, additional seizure types and epilepsy diagnosis were collected. SCN1A analyses were performed in all patients, initially with High Resolution Melting Curve Analysis (HRMCA) and then by direct sequencing on selected samples with an abnormal HRMCA. Clinical and genetic findings were compared between children with DS and those with another diagnosis, and statistical methods were applied for significance analysis. RESULTS: 71 children with SE were included. Ten children had DS, and 61 had another diagnosis. SCN1A mutations were found in 12 of the 71 patients (16.9%; ten with DS, and two with seizures in a Generalized Epilepsy with Febrile Seizures+(GEFS+) context). The median age at first SE was 8 months in patients with DS, and 41 months in those with another epilepsy syndrome (p<0.001). Nine of the 10 DS patients had their initial SE before 18 months. Among the 26 patients aged 18 months or less at initial SE, the risk of DS was significantly increased for patients with two or more episodes (56.3%), as compared with those who had only one episode (0.0%) (p=0.005). CONCLUSION: In a population of children with SE, patients most likely to have DS are those who present their initial SE episode before 18 months, and who present with recurrent SE episodes.
Resumo:
RESUME Les fibres textiles sont des produits de masse utilisés dans la fabrication de nombreux objets de notre quotidien. Le transfert de fibres lors d'une action délictueuse est dès lors extrêmement courant. Du fait de leur omniprésence dans notre environnement, il est capital que l'expert forensique évalue la valeur de l'indice fibres. L'interprétation de l'indice fibres passe par la connaissance d'un certain nombre de paramètres, comme la rareté des fibres, la probabilité de leur présence par hasard sur un certain support, ainsi que les mécanismes de transfert et de persistance des fibres. Les lacunes les plus importantes concernent les mécanismes de transfert des fibres. A ce jour, les nombreux auteurs qui se sont penchés sur le transfert de fibres ne sont pas parvenus à créer un modèle permettant de prédire le nombre de fibres que l'on s'attend à retrouver dans des circonstances de contact données, en fonction des différents paramètres caractérisant ce contact et les textiles mis en jeu. Le but principal de cette recherche est de démontrer que la création d'un modèle prédictif du nombre de fibres transférées lors d'un contact donné est possible. Dans le cadre de ce travail, le cas particulier du transfert de fibres d'un tricot en laine ou en acrylique d'un conducteur vers le dossier du siège de son véhicule a été étudié. Plusieurs caractéristiques des textiles mis en jeu lors de ces expériences ont été mesurées. Des outils statistiques (régression linéaire multiple) ont ensuite été utilisés sur ces données afin d'évaluer l'influence des caractéristiques des textiles donneurs sur le nombre de fibres transférées et d'élaborer un modèle permettant de prédire le nombre de fibres qui vont être transférées à l'aide des caractéristiques influençant significativement le transfert. Afin de faciliter la recherche et le comptage des fibres transférées lors des expériences de transfert, un appareil de recherche automatique des fibres (liber finder) a été utilisé dans le cadre de cette recherche. Les tests d'évaluation de l'efficacité de cet appareil pour la recherche de fibres montrent que la recherche automatique est globalement aussi efficace qu'une recherche visuelle pour les fibres fortement colorées. Par contre la recherche automatique perd de son efficacité pour les fibres très pâles ou très foncées. Une des caractéristiques des textiles donneurs à étudier est la longueur des fibres. Afin de pouvoir évaluer ce paramètre, une séquence d'algorithmes de traitement d'image a été implémentée. Cet outil permet la mesure de la longueur d'une fibre à partir de son image numérique à haute résolution (2'540 dpi). Les tests effectués montrent que les mesures ainsi obtenues présentent une erreur de l'ordre du dixième de millimètre, ce qui est largement suffisant pour son utilisation dans le cadre de cette recherche. Les résultats obtenus suite au traitement statistique des résultats des expériences de transfert ont permis d'aboutir à une modélisation du phénomène du transfert. Deux paramètres sont retenus dans le modèle: l'état de la surface du tissu donneur et la longueur des fibres composant le tissu donneur. L'état de la surface du tissu est un paramètre tenant compte de la quantité de fibres qui se sont détachées de la structure du tissu ou qui sont encore faiblement rattachées à celle-ci. En effet, ces fibres sont les premières à se transférer lors d'un contact, et plus la quantité de ces fibres par unité de surface est importante, plus le nombre de fibres transférées sera élevé. La longueur des fibres du tissu donneur est également un paramètre important : plus les fibres sont longues, mieux elles sont retenues dans la structure du tissu et moins elles se transféreront. SUMMARY Fibres are mass products used to produce numerous objects encountered everyday. The transfer of fibres during a criminal action is then very common. Because fibres are omnipresent in our environment, the forensic expert has to evaluate the value of the fibre evidence. To interpret fibre evidence, the expert has to know some parameters as frequency of fibres,' probability of finding extraneous fibres by chance on a given support, and transfer and persistence mechanisms. Fibre transfer is one of the most complex parameter. Many authors studied fibre transfer mechanisms but no model has been created to predict the number of fibres transferred expected in a given type of contact according to parameters as characteristics of the contact and characteristics of textiles. The main purpose of this research is to demonstrate that it is possible to create a model to predict the number of fibres transferred during a contact. In this work, the particular case of the transfer of fibres from a knitted textile in wool or in acrylic of a driver to the back of a carseat has been studied. Several characteristics of the textiles used for the experiments were measured. The data obtained were then treated with statistical tools (multiple linear regression) to evaluate the influence of the donor textile characteristics on the number of úbers transferred, and to create a model to predict this number of fibres transferred by an equation containing the characteristics having a significant influence on the transfer. To make easier the searching and the counting of fibres, an apparatus of automatic search. of fibers (fiber finder) was used. The tests realised to evaluate the efficiency of the fiber finder shows that the results obtained are generally as efficient as for visual search for well-coloured fibres. However, the efficiency of automatic search decreases for pales and dark fibres. One characteristic of the donor textile studied was the length of the fibres. To measure this parameter, a sequence of image processing algorithms was implemented. This tool allows to measure the length of a fibre from it high-resolution (2'540 dpi) numerical image. The tests done shows that the error of the measures obtained are about some tenths of millimetres. This precision is sufficient for this research. The statistical methods applied on the transfer experiment data allow to create a model of the transfer phenomenon. Two parameters are included in the model: the shedding capacity of the donor textile surface and the length of donor textile fibres. The shedding capacity of the donor textile surface is a parameter estimating the quantity of fibres that are not or slightly attached to the structure of the textile. These fibres are easily transferred during a contact, and the more this quantity of fibres is high, the more the number of fibres transferred during the contact is important. The length of fibres is also an important parameter: the more the fibres are long, the more they are attached in the structure of the textile and the less they are transferred during the contact.
Resumo:
Verkkovaihtosuuntaajalla pystytään muuntamaan tasajännite vaihtojännitteeksi ja päinvastoin. Verkkovaihtosuuntaajan toiminta perustuu tehokytkinten ohjaukseen ja sopivan modulointimenetelmän käyttöön. Vektorisäädössä vaihtosuuntaajanvirrat ja jännitteet esitetään kompleksitasossa, jolloin virta- ja jännitekomponentit voidaan esittää vektoreina. Vektorisäädössä verkkovaihtosuuntaajan ohjaustoteutetaan laskemalla kompleksitasossa vektoreille arvot, jotka tuottavat vaihtosuuntaajan lähtöön halutun vektorin. Koska FPGA-piirit mahdollistavat nopean rinnakkaisen laskennan, soveltuvat ne hyvin vektorisäädön toteuttamiseen. FPGA-piirien rakenteesta johtuen on säätöjärjestelmän suunnittelussa huomioitava kiinteän pilkun lukujen riittävä bittileveys ja järjestelmän diskretointiaika. Työssä suunnitellaan verkkovaihtosuuntaajan vektorisäätö ja tutkitaan bittileveyden vaikutusta säädön toteuttamiseen FPGA-piirillä. Bittileveyden tarkasteluun esitetään käytettäväksi tilastollisia menetelmiä. Työssä tarkastellaan kiinteän pilkun järjestelmän ja liukulukujärjestelmän erosuureen tilastollisia tunnusmerkkejä sekä histogrammia. Tarkasteluissa huomattiin, että maksimivirhe itsessään ei tarjoa riittävästi tietoa erosuureen jakautumisesta. Näin ollen maksimivirhe ei ole kaikissa tilanteissa sovelias menetelmä riittävän bittitarkkuuden määrittämiseen. Työssä esitetään riittävän bittitarkkuuden määrittelemiseen käytettäväksi otossuureista otosvarianssia, keskipoikkeamaa ja vaihteluväliä.
Resumo:
Tässä työssä on esitetty väsyttävän kuormituksen mittaamiseen ja mittausdatan jälkikäsittelyyn sekä väsymismitoitukseen liittyviä menetelmiä. Menetelmien sovelluskohteena oli metsäkoneen kuormain, joka on väsyttävästi kuormitettu hitsattu rakenne. Teoriaosassa on kuvattu väsymisilmiötä ja väsymismitoitusmenetelmiä sekä kuormitusten tunnistamiseen ja mittausten jälkikäsittelyyn liittyviä menetelmiä. Yleisimmin käytettyjen väsymismitoitusmenetelmien rinnalle on esitetty luotettavuuteen perustuvaa väsymismitoitusmenetelmää. Kuormainten suunnittelussa on keveys- j a kestoikävaatimusten takia erityisen suuri merkitys väsymisen huomioimisella. Rakenteille on ominaista tietyt toiminnan kannalta välttämättömät hitsatut yksityiskohdat, jotka usein määräävät koko rakenteen kestoiän. Koska nämä ongelmakohdat pystytään useimmiten tunnistamaan jo suunnitteluvaiheessa, voidaan yksityiskohtien muotoilulla usein parantaa huomattavasti koko rakenteen kestoikää. Näiden yksityiskohtien optimointi on osittain mahdollista toteuttaa ilman kuormituskertymätietoa, mutta useimmiten kuormitusten tunnistaminen on edellytys parhaan ratkaisun löytymiselle. Tällöin toistaiseksi paras keino todellisen väsyttävän kuormituksen tunnistamiseksi on pitkäaikaiset kenttämittaukset. Kenttämittauksilla selvitetään rakenteeseen kohdistuvat kuormitukset venymäliuskojen avulla. Kuormitusten tunnistamisella on erityisen suuri merkitys kun halutaan määrittää rakenteen kestoikä. Väsyminen ja väsyttävä kuormitus ovat kuitenkin tilastollisia muuttujia j a yksittäiselle rakenteelle ei ole mahdollista määrittää tarkkaa k estoikää. Tilastollisia menetelmiä käyttäen on kuitenkin mahdollista määrittää rakenteen vaurioitumisriski. Laskettaessa vaurioitumisriskiä suurelle määrälle yksittäisiä rakenteita voidaan muodostaa tarkkojakin ennusteita mahdollisten vaurioiden lukumäärästä. Tällöin kuormituskertymätiedosta voi olla tavanomaisen suunnittelun lisäksi laajempaa hyötyä esimerkiksi takuukäsittelyssä. Tässä työssä on sovellettu esitettyjä teorioita käytännössä metsäkoneen harvesterin puomiston väsymistarkasteluun. Kyseisen rakenteen kuormituksia mitattiin kahden viikon aikana yhteensä 35 tuntia, jonka perusteella laskettiin väsyttävän kuormituksen tilastollinen jakauma esimerkkitapaukselle. Mittauksen perusteella ei voitu tehdä kuitenkaan johtopäätöksiä tuotteen koko elinkaaren kuormituksista eikä muiden samanlaisten tuotteiden kuormituksista, koska mitattu otos oli suhteellisen lyhyt ja rajoittui vain yhteen käyttäjään ja muutamaan käyttökohteeseen. Menetelmien testaamiseksi kyseinen otos oli kuitenkin riittävä. Kuormituskertymätietoa käytettiin hyväksi myös laatumääritysten muodostamisessaesimerkkitapaukselle. Murtumismekaniikkaan perustuvalla menetelmällä arvioitiinharvesteripilarin valun mahdollisten valuvirheiden suurin sallittu koko. Luotettavuuteen pohjautuvan mitoitusmenettelyn tarve näyttää olevanlisääntymässä, joten pitkäaikaisten kenttämittausten tehokas hyödyntäminen tulee olemaan keskeinen osa väsymismitoitusta lähitulevaisuudessa. Menetelmiä olisi mahdollista tehostaa yhdistämällä kuormituskertymään erilaisia kuormitusten suhteen riippuvia tunnettuja suureita kuten käsiteltävän puun halkaisija. Todellisettuotekohtaiset tilastolliset jakaumat kuormituksista voitaisiin muodostaa mahdollisesti tehokkaammin, jos esimerkiksi kuormitusten riippuvuus metsätyypistä pystyttäisiin ensin määrittämään.
Resumo:
Diplomityön tutkimusfunktio käsittelee toimeksiantajan, Stora Enso Timber Oy Ltd Kotkan sahan, sahalinjan optimointikokonaisuuden relevanttia ongelmakenttää. Tutkimuksen alussa profiloivan sahalinjan tukinpyörityksen, pelkan sivuttaissiirron tai sivulautaoptimoinnin toimivuudesta ei ollut varmuutta. Työn painopistealue on sivulautaoptimointi, jonka toimivuus tutkimuksen alussa on hyvin kyseenalaista tuotantoajossa. Työn tavoitteet kiteytyvät paremman raaka-aineen käyttösuhteen saavuttamiselle, jolloin pitkän aikajänteen kannattavuus on realistisempaa saavuttaa. Kotkan sahalinjan optimointijärjestelmässä on kokonaisuudessaan saavutettu tuotantoajoon hyväksyttävä taso. Tukinpyörityksen tarkkuudessa saavutettiin asetettu tavoite, eli 90 % pyöritystuloksista menee virheikkunaan ± 10° , sekä virheen keskiarvon itseisarvo jasen ympärillä olevan hajonnan summa on maksimissaan 10° . Pelkan sivuttaissiirto todettiin tutkimuksessa sekundääriseksi optimointijärjestelmäksi. Ohjaus perustuu tukkimittarin mittaamaan dataan, jolloin tukinpyörityksen hajonta aiheuttaa epätarkkuutta pelkan suuntauksessa. Pelkan sivuttaisiirron käyttäminen vaatii lisämittauksia, jolloin voidaan varmistua pelkan suuntauksen optimoinnin toimivuudesta. Sivulautaoptimoinnin toimivuuden kehittämisessä saavutettiin se taso, missä todellista kehitystyötä voidaan tehdä. Koeajoissa ja optimointiohjelman tarkastamisessa havaittiin periaatteellisia virheitä, jotka korjattiin. Toimivan sivulautaoptimoinnin myötä on mahdollista hallita paremmin tuotannonohjaus, jolloin tuotanto voidaan etenkin sivulautojen osalta kohdentaa paremmin vastaamaan kysyntää sekä asete-erän hyvää käyttösuhdetta. Raaka-aineen käyttösuhde on parantunut. Yksittäisten asetevertailujen sekä esimerkkilaskelmien perusteella tuottopotentiaali tukinpyörityksen ja sivulautaoptimoinnin osalta on 0,6...1,5 MEUR Välillinen tuottopotentiaali on suurempi, koska tuotantoprosessi sahauksen osalta on erittäin joustava markkinoiden tarpeen muutoksille. Sahalinjalla on mahdollista tuottaa helposti laajalla tukkisumalla laajaa tuotematriisia, jossa sivulautaoptimoinnilla on avainrooli. Tuotannonsuunnittelufunktiota tulee kehittää vastaamaan mahdollisuuksiin,joita sivulautaoptimointi tarjoaa. Tuotematriisi ja sitä vastaavat asetteet lankeavalla tukkisumalla tulee rakentaa uudestaan niiltä osin, joihin sivulautaoptimointi antaa variaatiomahdollisuuksia.
Resumo:
Tämän tutkielman tavoitteena on selvittää Venäjän, Slovakian, Tsekin, Romanian, Bulgarian, Unkarin ja Puolan osakemarkkinoiden heikkojen ehtojen tehokkuutta. Tämä tutkielma on kvantitatiivinen tutkimus ja päiväkohtaiset indeksin sulkemisarvot kerättiin Datastreamin tietokannasta. Data kerättiin pörssien ensimmäisestä kaupankäyntipäivästä aina vuoden 2006 elokuun loppuun saakka. Analysoinnin tehostamiseksi dataa tutkittiin koko aineistolla, sekä kahdella aliperiodilla. Osakemarkkinoiden tehokkuutta on testattu neljällä tilastollisella metodilla, mukaan lukien autokorrelaatiotesti ja epäparametrinen runs-testi. Tavoitteena on myös selvittääesiintyykö kyseisillä markkinoilla viikonpäiväanomalia. Viikonpäiväanomalian esiintymistä tutkitaan käyttämällä pienimmän neliösumman menetelmää (OLS). Viikonpäiväanomalia on löydettävissä kaikilta edellä mainituilta osakemarkkinoilta paitsi Tsekin markkinoilta. Merkittävää, positiivista tai negatiivista autokorrelaatiota, on löydettävissä kaikilta osakemarkkinoilta, myös Ljung-Box testi osoittaa kaikkien markkinoiden tehottomuutta täydellä periodilla. Osakemarkkinoiden satunnaiskulku hylätään runs-testin perusteella kaikilta muilta paitsi Slovakian osakemarkkinoilla, ainakin tarkastellessa koko aineistoa tai ensimmäistä aliperiodia. Aineisto ei myöskään ole normaalijakautunut minkään indeksin tai aikajakson kohdalla. Nämä havainnot osoittavat, että kyseessä olevat markkinat eivät ole heikkojen ehtojen mukaan tehokkaita
Resumo:
Pro gradu tutkielman tavoitteena on kuvata informaatiotalouden aikakauden tuomia haasteita päätöksentekoa tukevalla mittaamiselle. Keskeisenä tavoitteena tutkimuksessa oli hahmottaa millaisia haasteita aineeton talous, liiketoimintaympäristön muutokset ja kiristyvä kilpailu tuovat yrityksen päätöksentekoa tukevalle mittaamiselle. Samalla yritettiin luoda käsitys siitä millainen merkitys aineettomilla asioilla on nykypäivän yrityksille. Tutkimuksen empiirinen osuus tehtiin keväällä 2006 suomalaisille logistiikka-alan yrityksille. Tutkimus toteutettiin www- lomakehaastatteluna, johon vastasi lähes 130 alan päätöksentekijää. Tutkimuksen eri hypoteeseja testattiin tilastollisilla menetelmillä. Hypoteesit vahvistavat kirjallisuudesta löytyneet havainnot siitä, että aineettomat asiat ovat yrityksille tärkeitä. Haasteena yrityksillä on aineettomien mittareiden ja asioiden käyttö päätöksenteon tukena. Lähes kaikki tutkimukseen vastanneet olivat kehittäneet viime aikoina mittaamistaan ja pitivät aineettomia asioita tärkeinä. Samaan aikaan päätöksentekoa tukena oli edelleen vahvasti taloudellinen informaatio, vaikka yksilötasolla aineettomat asiat nähtiin vahvimpina lisäarvon tuottajina. Tutkimuksen keskeisenä havaintona oli aineettomien asioiden merkityksen muutos siirryttäessä yksilötasolta organisaatiotasolle.
Resumo:
Pro gradu -tutkielman tavoitteena on operationalisoida T&K- yhteistyön prosessimaista luonnetta, eli tarkemmin sanottuna analysoida T&K-yhteistyösuhteidenmuodostumista ja motiiveja. Tutkielman hypoteesit muodostettiin analysoimalla yrityksen teknologiastrategiaan perustuvia uuden tiedon tuonnin ja olemassa olevan tiedon hyväksikäytön oppimistavoitteita. Motivaatio T&K- yhteistyölle syntyy mahdollisuudesta T&K- projektien riskien jakamiseen. T&K- yhteistyön motiiveja analysoitiin transaktio- ja byrokratiahyötyjen, jotka pohjautuvat mittakaava- ja synergiaeduille, lähteitä arvioiden. Hypoteeseja testattiin 276 suomalaisen teollisuusyrityksen otoksella. Otoksen yrityksillä oliollut T&K- toimintaa. Otos perustuu kyselyyn, joka toteutettiin Lappeenrannan teknillisen yliopiston kauppatieteiden osastolla vuonna 2004. Hypoteeseja testattiin tilastollisilla menetelmillä; lineaarisella regressioanalyysillä, parillisten ja riippumattomien otosten t-testeillä. Validiteetti- ja multikollineaarisuusongelman todennäköisyydet on huomioitu. Hypoteesit vahvistuivat osittain. Teknologisella epävarmuudella ja monimutkaisuudella ei ole suoraa vaikutusta T&K- yhteistyön intensiivisyyteen. Teknologisella epävarmuudella on osittainen vaikutus teknologiastrategian valintaan. Yrityksen transaktio- ja byrokratiahyödyt riippuvat teknologisista kyvykkyyksistä. Vain korkean teknologian alan yritykset saavuttavat hyötyjä myös intensiivisesti T&K- yhteistyösuhteita koordinoimalla. Teknologiaintensiivisyyteen perustuvien erot perustuvat teknologisen tiedon luonteeseen toimialalla. Transaktiokustannusteorian mukainenkustannusten minimointi ja kompetenssiperusteisten teorioiden mukainen strategisointi selittävät komplementaarisesti T&K-yhteistyösuhteiden muodostumista ja yrityksen rajojen määräytymistä.
Resumo:
Tämän tutkielman tavoitteena on tarkastella Kiinan osakemarkkinoiden tehokkuutta ja random walk -hypoteesin voimassaoloa. Tavoitteena on myös selvittää esiintyykö viikonpäiväanomalia Kiinan osakemarkkinoilla. Tutkimusaineistona käytetään Shanghain osakepörssin A-sarjan,B-sarjan ja yhdistelmä-sarjan ja Shenzhenin yhdistelmä-sarjan indeksien päivittäisiä logaritmisoituja tuottoja ajalta 21.2.1992-30.12.2005 sekä Shenzhenin osakepörssin A-sarjan ja B-sarjan indeksien päivittäisiä logaritmisoituja tuottoja ajalta 5.10.1992-30.12.2005. Tutkimusmenetelminä käytetään neljä tilastollista menetelmää, mukaan lukien autokorrelaatiotestiä, epäparametrista runs-testiä, varianssisuhdetestiä sekä Augmented Dickey-Fullerin yksikköjuuritestiä. Viikonpäiväanomalian esiintymistä tutkitaan käyttämällä pienimmän neliösumman menetelmää (OLS). Testejä tehdään sekä koko aineistolla että kolmella erillisellä ajanjaksolla. Tämän tutkielman empiiriset tulokset tukevat aikaisempia tutkimuksia Kiinan osakemarkkinoiden tehottomuudesta. Lukuun ottamatta yksikköjuuritestien saatuja tuloksia, autokorrelaatio-, runs- ja varianssisuhdetestien perusteella random walk-hypoteesi hylättiin molempien Kiinan osakemarkkinoiden kohdalla. Tutkimustulokset osoittavat, että molemmilla osakepörssillä B-sarjan indeksien käyttäytyminenon ollut huomattavasti enemmän random walk -hypoteesin vastainen kuin A-sarjan indeksit. Paitsi B-sarjan markkinat, molempien Kiinan osakemarkkinoiden tehokkuus näytti myös paranevan vuoden 2001 markkinabuumin jälkeen. Tutkimustulokset osoittavat myös viikonpäiväanomalian esiintyvän Shanghain osakepörssillä, muttei kuitenkaan Shenzhenin osakepörssillä koko tarkasteluajanjaksolla.
Resumo:
Tutkielman tarkoituksena on tutkia oppimisprosessin muodostumista ja toteutumista sekä prosessijohtamisen ja prosessien roolia SAP:in käyttöönottoprojektissa. Tutkielman case-organisaationa toimii Kespro Oy ja tutkimuskohteena on SAP:in käyttöönottoprojekti Kespron tukuissa. Tutkimus- ja tiedonkeruumenetelmänä käytetään kvantitatiivista kyselylomaketta. Tutkimuksessa saatiin selkeä kuva prosessijohtamisen ja prosessien roolista muutostilanteessa sekä oppimisprosessin muodostumisesta jatoteutumisesta. Johdon ja esimiesten tuen korostuminen sekä onnistunut strategisten linjausten tiedottaminen tulivat esille käytännön työssä prosessien toimivuuden ja oman työn merkityksen kautta. Tärkeänä haasteena osaamisen varmistamiseksi käyttöönoton yhteydessä oli varmistaa koulutuksen ja käyttäjäohjeiden riittävä taso ja sisältö. Käyttöönoton aikana ja sen jälkeen korostuivat tiedon jakamisessa pääkäyttäjien ja henkilöstön keskinäinen yhteistyö ja avunanto. Tehokas tiedon jakaminen mahdollisti käyttöönoton onnistumisen. Käyttöönottoon vaikutti oleellisesti myös tietotekninen näkökulma: käyttäjien kyky erottaa toisistaan oma osaaminen ja tietotekniset ongelmat. Näiden tekijöiden huomioiminen mahdollisti SAP-toiminnanohjausjärjestelmän sujuvan liikkeellelähdön Kespron tukuissa mahdollisimman vähillä operatiivisilla ongelmilla.