948 resultados para Cryptography Statistical methods
Resumo:
Tutkielman tarkoituksena on tutkia oppimisprosessin muodostumista ja toteutumista sekä prosessijohtamisen ja prosessien roolia SAP:in käyttöönottoprojektissa. Tutkielman case-organisaationa toimii Kespro Oy ja tutkimuskohteena on SAP:in käyttöönottoprojekti Kespron tukuissa. Tutkimus- ja tiedonkeruumenetelmänä käytetään kvantitatiivista kyselylomaketta. Tutkimuksessa saatiin selkeä kuva prosessijohtamisen ja prosessien roolista muutostilanteessa sekä oppimisprosessin muodostumisesta jatoteutumisesta. Johdon ja esimiesten tuen korostuminen sekä onnistunut strategisten linjausten tiedottaminen tulivat esille käytännön työssä prosessien toimivuuden ja oman työn merkityksen kautta. Tärkeänä haasteena osaamisen varmistamiseksi käyttöönoton yhteydessä oli varmistaa koulutuksen ja käyttäjäohjeiden riittävä taso ja sisältö. Käyttöönoton aikana ja sen jälkeen korostuivat tiedon jakamisessa pääkäyttäjien ja henkilöstön keskinäinen yhteistyö ja avunanto. Tehokas tiedon jakaminen mahdollisti käyttöönoton onnistumisen. Käyttöönottoon vaikutti oleellisesti myös tietotekninen näkökulma: käyttäjien kyky erottaa toisistaan oma osaaminen ja tietotekniset ongelmat. Näiden tekijöiden huomioiminen mahdollisti SAP-toiminnanohjausjärjestelmän sujuvan liikkeellelähdön Kespron tukuissa mahdollisimman vähillä operatiivisilla ongelmilla.
Resumo:
It is generally accepted that between 70 and 80% of manufacturing costs can be attributed to design. Nevertheless, it is difficult for the designer to estimate manufacturing costs accurately, especially when alternative constructions are compared at the conceptual design phase, because of the lack of cost information and appropriate tools. In general, previous reports concerning optimisation of a welded structure have used the mass of the product as the basis for the cost comparison. However, it can easily be shown using a simple example that the use of product mass as the sole manufacturing cost estimator is unsatisfactory. This study describes a method of formulating welding time models for cost calculation, and presents the results of the models for particular sections, based on typical costs in Finland. This was achieved by collecting information concerning welded products from different companies. The data included 71 different welded assemblies taken from the mechanical engineering and construction industries. The welded assemblies contained in total 1 589 welded parts, 4 257 separate welds, and a total welded length of 3 188 metres. The data were modelled for statistical calculations, and models of welding time were derived by using linear regression analysis. Themodels were tested by using appropriate statistical methods, and were found to be accurate. General welding time models have been developed, valid for welding in Finland, as well as specific, more accurate models for particular companies. The models are presented in such a form that they can be used easily by a designer, enabling the cost calculation to be automated.
Resumo:
The application of statistics to science is not a neutral act. Statistical tools have shaped and were also shaped by its objects. In the social sciences, statistical methods fundamentally changed research practice, making statistical inference its centerpiece. At the same time, textbook writers in the social sciences have transformed rivaling statistical systems into an apparently monolithic method that could be used mechanically. The idol of a universal method for scientific inference has been worshipped since the "inference revolution" of the 1950s. Because no such method has ever been found, surrogates have been created, most notably the quest for significant p values. This form of surrogate science fosters delusions and borderline cheating and has done much harm, creating, for one, a flood of irreproducible results. Proponents of the "Bayesian revolution" should be wary of chasing yet another chimera: an apparently universal inference procedure. A better path would be to promote both an understanding of the various devices in the "statistical toolbox" and informed judgment to select among these.
Resumo:
Background: Characterizing and comparing the determinant of cotinine concentrations in different populations should facilitate a better understanding of smoking patterns and addiction. This study describes and characterizes determinants of salivary cotinine concentration in a sample of Spanish adult daily smoker men and women. Methods: A cross-sectional study was carried out between March 2004 and December 2005 in a representative sample of 1245 people from the general population of Barcelona, Spain. A standard questionnaire was used to gather information on active tobacco smoking and passive exposure, and a saliva specimen was obtained to determine salivary cotinine concentration. Two hundred and eleven adult smokers (>16 years old) with complete data were included in the analysis. Determinants of cotinine concentrations were assessed using linear regression models. Results: Salivary cotinine concentration was associated with the reported number of cigarettes smoked in the previous 24 hours (R2 = 0.339; p < 0.05). The inclusion of a quadratic component for number of cigarettes smoked in the regression analyses resulted in an improvement of the fit (R2 = 0.386; p < 0.05). Cotinine concentration differed significantly by sex, with men having higher levels. Conclusion: This study shows that salivary cotinine concentration is significantly associated with the number of cigarettes smoked and sex, but not with other smoking-related variables.
Resumo:
N = 1 designs imply repeated registrations of the behaviour of the same experimental unit and the measurements obtained are often few due to time limitations, while they are also likely to be sequentially dependent. The analytical techniques needed to enhance statistical and clinical decision making have to deal with these problems. Different procedures for analysing data from single-case AB designs are discussed, presenting their main features and revising the results reported by previous studies. Randomization tests represent one of the statistical methods that seemed to perform well in terms of controlling false alarm rates. In the experimental part of the study a new simulation approach is used to test the performance of randomization tests and the results suggest that the technique is not always robust against the violation of the independence assumption. Moreover, sensitivity proved to be generally unacceptably low for series lengths equal to 30 and 40. Considering the evidence available, there does not seem to be an optimal technique for single-case data analysis
Resumo:
Teollisuuden palveluiden on huomattu olevan potentiaalinen lisätulojen lähde. Teollisuuden palveluiden dynaamisessa maailmassa räätälöinti ja kyky toimia nopeasti ovat kriittisiä asiakastyytyväisyyden ja kilpailuedun luomisprosessin osia. Toimitusketjussa käytetyn ajan lyhentämisellä voidaan saavuttaa sekä paremmat vasteajat, että alhaisemmat kokonaiskustannukset. Tutkielman tavoitteena on kuvata teollisuuden palveluiden dynaamista ympäristöä: asiakastarvetta, sekä mahdollisuuksia kaventaa pyydetyn ja saavutetun toimitusajan välistä eroa. Tämä toteutetaan pääosin strategisen toimitusajan hallinnan keinoin. Langattomien tietoliikenneverkkojen operaattorit haluavat vähentää ydinosaamiseensa kuulumatomiin toimintoihin, kuten ylläpitoon sitoutuneita pääomia. Tutkielman case osiossa varaosapalvelujen toimitusketjun kysyntä-, materiaali- ja informaatiovirtoja analysoidaan niin kvalitatiivisten haastatteluiden, sisäisten dokumenttien, kuin kvantitatiivisten tilastollisten menetelmienkin avulla. Löydöksiä peilataan vallitsevaa toimitusketjun ja ajanhallinnan paradigmaa vasten. Tulokset osoittavat, että vahvan palvelukulttuurin omaksuminen ja kokonaisvaltainen toimitusketjun tehokkuuden mittaaminen ovat ajanhallinnan lähtökohtia teollisuuden palveluissa.
Resumo:
Tutkimuksessa on selvitetty erikoiskalustevalmistuksen projektinhallinnan suunnittelun toteutusta, tukiprosesseja sekä projektien seurantaa. Tutkimuksessa verrataan teoreettista projektinhallintaa ja käytännön toteutusta erikoiskalusteita valmistavassa yrityksessä. Osa-alueina ovat projektisuunnitelma, suunnitelman seuranta, asiakastyytyväisyys ja laatu sekä työprosessin vaihtelut ja riskit. Tutkimusaineisto on koottu kyselyin, seurannalla ja haastatteluin kohdeyrityksessä. Tutkimuksessa on käytetty tilastollisia ja analyyttisen hierarkian (AHP) sekä monitavoiteoptimoinnin menetelmiä. Tuloksissa esitetään työprojektin hallinnan eri osa-alueet mukaan lukien projektin laatu sekä työprosessin vaihtelun ja riskien kannattavat hallintamahdollisuudet. Suosituksena kalustevalmistuksen työprojektien kehittämiseksi tutkimuksessa esitetään toimintaperiaatteet projektinhallintaohjelmistojen käyttöönotolle.
Resumo:
GMP-säädösten mukaan aktiivisten lääkeaineiden, kriittisten lääkeaineintermediaattien ja lääkeapuaineiden valmistusprosessit pitää validoida. Validointityöhön kuuluu oleellisesti tuotantolaitteiden kvalifiointi ja prosessin validointi. Käytännössä tuotantolaitteiden kvalifiointi toteutetaan tekemällä laitteille suunnitelmien tarkastus (DQ), asennus- ja käyttöönottotarkastus (IQ), toiminnan testaus (OQ) sekä suorituskykytestit (PQ). Tuotantolaitteiden kvalifiointiin kuuluu myös laitteiden asianmukaisten kalibrointi-, kunnossapito- ja puhdistusohjeiden sekä työ- ja toimintaohjeiden (SOP:ien) laatiminen. Prosessin validoinnissa laaditaan dokumentoidut todisteet siitä, että prosessi toimii vakaasti ja tuotteelle asetetut vaatimukset täyttyvät johdonmukaisesti. GMP-tuotantolaitteiden kvalifiointiin ja lääkevalmistusprosessin validointiin on laadittu erilaisia GMP-säädöksiä noudattavia yleisiä validointiohjeita, kuten PIC/S:n ja FDA:n ohjeet kvalifioinnista ja validoinnista. IVT/SC on laatinut yksiselitteiset validointistandardit validointityön selventämiseksi. Validoinnin tilastolliseen tarkasteluun on käytettävissä GHTF:n laatimat tilastolliset validointimenetelmät. Yleensä tuotantolaitteiden kvalifiointi ja prosessin validointi tehdään ennen lääkevalmisteen kaupallisen tuotannon aloittamista. Kvalifiointi- ja validointityö voidaan tehdä kuitenkin myös tuotannon yhteydessä (konkurrentisti) tai retrospektiivisesti käyttäen hyväksi valmistettujen tuotantoerien prosessitietoja. Tässä työssä laadittiin Kemira Fine Chemicals Oy:n Kokkolan GMP-tuotantolinjan lääkeaineintermediaattiprosessin validoinnin yleissuunnitelma (VMP), joka sisältää sekä tuotantolaitteiden kvalifiointisuunnitelman että prosessin validointisuunnitelman. Suunnitelmissa huomioitiin tuotantolaitteiden aikaisempi käyttö muuhun hienokemikaalituotantoon ja tuotantolinjan muuttaminen GMP-vaatimusten mukaiseksi. Työhön kuului myös tuotantolaitteiden kvalifiointityön tekeminen laaditun suunnitelman mukaisesti.
Resumo:
Evolutionary developmental biology has grown historically from the capacity to relate patterns of evolution in anatomy to patterns of evolution of expression of specific genes, whether between very distantly related species, or very closely related species or populations. Scaling up such studies by taking advantage of modern transcriptomics brings promising improvements, allowing us to estimate the overall impact and molecular mechanisms of convergence, constraint or innovation in anatomy and development. But it also presents major challenges, including the computational definitions of anatomical homology and of organ function, the criteria for the comparison of developmental stages, the annotation of transcriptomics data to proper anatomical and developmental terms, and the statistical methods to compare transcriptomic data between species to highlight significant conservation or changes. In this article, we review these challenges, and the ongoing efforts to address them, which are emerging from bioinformatics work on ontologies, evolutionary statistics, and data curation, with a focus on their implementation in the context of the development of our database Bgee (http://bgee.org). J. Exp. Zool. (Mol. Dev. Evol.) 324B: 372-382, 2015. © 2015 Wiley Periodicals, Inc.
Resumo:
Una vez se dispone de los datos introducidos en el paquete estadístico del SPSS (Statistical Package of Social Science), en una matriz de datos, es el momento de plantearse optimizar esa matriz para poder extraer el máximo rendimiento a los datos, según el tipo de análisis que se pretende realizar. Para ello, el propio SPSS tiene una serie de utilidades que pueden ser de gran utilidad. Estas utilidades básicas pueden diferenciarse según su funcionalidad entre: utilidades para la edición de datos, utilidades para la modificación de variables, y las opciones de ayuda que nos brinda. A continuación se presentan algunas de estas utilidades.
Resumo:
El análisis discriminante es un método estadístico a través del cual se busca conocer qué variables, medidas en objetos o individuos, explican mejor la atribución de la diferencia de los grupos a los cuales pertenecen dichos objetos o individuos. Es una técnica que nos permite comprobar hasta qué punto las variables independientes consideradas en la investigación clasifican correctamente a los sujetos u objetos. Se muestran y explican los principales elementos que se relacionan con el procedimiento para llevar a cabo el análisis discriminante y su aplicación utilizando el paquete estadístico SPSS, versión 18, para el desarrollo del modelo estadístico, las condiciones para la aplicación del análisis, la estimación e interpretación de las funciones discriminantes, los métodos de clasificación y la validación de los resultados.
Resumo:
Background Nowadays, combining the different sources of information to improve the biological knowledge available is a challenge in bioinformatics. One of the most powerful methods for integrating heterogeneous data types are kernel-based methods. Kernel-based data integration approaches consist of two basic steps: firstly the right kernel is chosen for each data set; secondly the kernels from the different data sources are combined to give a complete representation of the available data for a given statistical task. Results We analyze the integration of data from several sources of information using kernel PCA, from the point of view of reducing dimensionality. Moreover, we improve the interpretability of kernel PCA by adding to the plot the representation of the input variables that belong to any dataset. In particular, for each input variable or linear combination of input variables, we can represent the direction of maximum growth locally, which allows us to identify those samples with higher/lower values of the variables analyzed. Conclusions The integration of different datasets and the simultaneous representation of samples and variables together give us a better understanding of biological knowledge.
Resumo:
Tutkimuksen tarkoituksena on tutkia päähankkijan ja toimittajan kahdenvälistä yhteistyötä. Tutkimuskohteena on yhteistyösuhde, joka on jaettu kiinteään partnership-yhteistyöhön ja astetta löyhempään toimittajayhteistyöhön. Tavoitteena on selvittää kuinka läheinen yhteistyösuhde luodaan yritysten välille ja mitkä ovat ne motiivit jotka saavat hankkivan yrityksen tekemään ratkaisunsa valittavan yhteistyömuodon suhteen. Tutkielma on teoreettinen tutkimus. Tutkimusmenetelmä on kvalitatiivinen jossa aineiston kerääminen, käsittely ja analyysi lomittuvat toisiinsa eivätkä johtopäätökset perustu tilastollisiin menetelmiin. Tutkimuksessa todettiin rakennettavan yhteistyön asteen riippuvan toiminnon tärkeydestä. Tärkeimpien toimintojen ollessa kyseessä hankkiva yritys pyrkii kiinteään partnership tyyppiseen suhteeseen. Toimittajayhteistyösuhde rakennetaan strategisesti tärkeiden toimittajien ollessa kyseessä. Yhteistyömuotojen erona on toimittajan strategian integrointi päähankkijan kanssa sekä toimittajan integroiminen systemaattisesti päähankkijan sekä loppuasiakkaan logistisiin prosesseihin, joka kuuluu partnership –yhteistyöhön erotuksena toimittajayhteistyöstä.
Resumo:
En l"actualitat és difícil parlar de processos estadístics d"anàlisi quantitativa de dades sense fer referència a la informàtica aplicada a la recerca. Aquests recursos informàtics es basen sovint en paquets de programes informàtics que tenen l"objectiu d"ajudar al/a la investigador/a en la fase d"anàlisi de dades. En aquests moments un dels paquets més perfeccionats i complets és l"SPSS (Statistical Package for the Social Sciences). L"SPSS és un paquet de programes per tal de dur a terme l"anàlisi estadística de les dades. Constitueix una aplicació estadística força potent, de la qual s"han anat desenvolupant diverses versions des dels seus inicis, als anys setanta. En aquest manual les sortides d"ordinador que es presenten pertanyen a la versió 11.0.1. No obstant això, tot i que la forma ha anat variant des dels inicis, pel que fa al funcionament segueix essent molt similar entre les diferents versions. Abans d"iniciar-nos en la utilització de les aplicacions de l"SPSS és important familiaritzarse amb algunes de les finestres que més farem servir. En entrar a l"SPSS el primer que ens trobem és l"editor de dades. Aquesta finestra visualitza, bàsicament, les dades que anirem introduint. L"editor de dades inclou dues opcions: la Vista de les dades i la de les variables. Aquestes opcions es poden seleccionar a partir de les dues pestanyes que es presenten en la part inferior. La vista de dades conté el menú general i la matriu de dades. Aquesta matriu s"estructura amb els casos a les files i les variables a les columnes.
Resumo:
Background: In longitudinal studies where subjects experience recurrent incidents over a period of time, such as respiratory infections, fever or diarrhea, statistical methods are required to take into account the within-subject correlation. Methods: For repeated events data with censored failure, the independent increment (AG), marginal (WLW) and conditional (PWP) models are three multiple failure models that generalize Cox"s proportional hazard model. In this paper, we revise the efficiency, accuracy and robustness of all three models under simulated scenarios with varying degrees of within-subject correlation, censoring levels, maximum number of possible recurrences and sample size. We also study the methods performance on a real dataset from a cohort study with bronchial obstruction. Results: We find substantial differences between methods and there is not an optimal method. AG and PWP seem to be preferable to WLW for low correlation levels but the situation reverts for high correlations. Conclusions: All methods are stable in front of censoring, worsen with increasing recurrence levels and share a bias problem which, among other consequences, makes asymptotic normal confidence intervals not fully reliable, although they are well developed theoretically.