20 resultados para sample complexity

em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Summary

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Opinnäytetyö etsii korrelaatiota ohjelmistomittauksella saavutettujen tulosten ja ohjelmasta löytyneiden virheiden väliltä. Työssä käytetään koeryhmänä jo olemassaolevia ohjelmistoja. Työ tutkii olisiko ohjelmistomittareita käyttämällä ollut mahdollista paikallistaa ohjelmistojen ongelmakohdat ja näin saada arvokasta tietoa ohjelmistokehitykseen. Mittausta voitaisiin käyttää resurssien parempaan kohdentamiseen koodikatselmuksissa, koodi-integraatiossa, systeemitestauksessa ja aikataulutuksessa. Mittaamisen avulla nämä tehtävät saisivat enemmän tietoa resurssien kohdistamiseen. Koeryhmänä käytetään erilaisia ohjelmistotuotteita. Yhteistä näille kaikille tuotteille on niiden peräkkäiset julkaisut. Uutta julkaisua tehtäessä, edellistä julkaisua käytetään pohjana, jonka päällekehitetään uutta lähdekoodia. Tämän takia ohjelmistomittauksessa pitää pystyä erottelemaan edellisen julkaisun lähdekoodi uudesta lähdekoodista. Työssä käytettävät ohjelmistomittarit ovat yleisiä ja ohjelmistotekniikassalaajasti käytettyjä mittaamaan erilaisia lähdekoodin ominaisuuksia, joiden arvellaan vaikuttavan virhealttiuteen. Tämän työn tarkoitus on tutkia näiden ohjelmistomittareiden käytettävyyttä koeryhmänä toimivissa ohjelmistoympäristöissä. Käytännön osuus työstä onnistui löytämään korrelaation joidenkinohjelmistomittareiden ja virheiden väliltä, samalla kuin toiset ohjelmistomittarit eivät antaneet vakuuttavia tuloksia. Ohjelmistomittareita käyttämällä näyttää olevan mahdollista tunnistaa virhealttiit kohdat ohjelmasta ja siten parantaa ohjelmistokehityksen tehokkuutta. Ohjelmistomittareiden käyttö tuotekehityksessäon perusteltavaa ja niiden avulla mahdollisesti pystyttäisiin vaikuttamaan ohjelmiston laatuun tulevissa julkaisuissa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pro gradu -tutkielman tavoitteena on operationalisoida T&K- yhteistyön prosessimaista luonnetta, eli tarkemmin sanottuna analysoida T&K-yhteistyösuhteidenmuodostumista ja motiiveja. Tutkielman hypoteesit muodostettiin analysoimalla yrityksen teknologiastrategiaan perustuvia uuden tiedon tuonnin ja olemassa olevan tiedon hyväksikäytön oppimistavoitteita. Motivaatio T&K- yhteistyölle syntyy mahdollisuudesta T&K- projektien riskien jakamiseen. T&K- yhteistyön motiiveja analysoitiin transaktio- ja byrokratiahyötyjen, jotka pohjautuvat mittakaava- ja synergiaeduille, lähteitä arvioiden. Hypoteeseja testattiin 276 suomalaisen teollisuusyrityksen otoksella. Otoksen yrityksillä oliollut T&K- toimintaa. Otos perustuu kyselyyn, joka toteutettiin Lappeenrannan teknillisen yliopiston kauppatieteiden osastolla vuonna 2004. Hypoteeseja testattiin tilastollisilla menetelmillä; lineaarisella regressioanalyysillä, parillisten ja riippumattomien otosten t-testeillä. Validiteetti- ja multikollineaarisuusongelman todennäköisyydet on huomioitu. Hypoteesit vahvistuivat osittain. Teknologisella epävarmuudella ja monimutkaisuudella ei ole suoraa vaikutusta T&K- yhteistyön intensiivisyyteen. Teknologisella epävarmuudella on osittainen vaikutus teknologiastrategian valintaan. Yrityksen transaktio- ja byrokratiahyödyt riippuvat teknologisista kyvykkyyksistä. Vain korkean teknologian alan yritykset saavuttavat hyötyjä myös intensiivisesti T&K- yhteistyösuhteita koordinoimalla. Teknologiaintensiivisyyteen perustuvien erot perustuvat teknologisen tiedon luonteeseen toimialalla. Transaktiokustannusteorian mukainenkustannusten minimointi ja kompetenssiperusteisten teorioiden mukainen strategisointi selittävät komplementaarisesti T&K-yhteistyösuhteiden muodostumista ja yrityksen rajojen määräytymistä.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Web application performance testing is an emerging and important field of software engineering. As web applications become more commonplace and complex, the need for performance testing will only increase. This paper discusses common concepts, practices and tools that lie at the heart of web application performance testing. A pragmatic, hands-on approach is assumed where applicable; real-life examples of test tooling, execution and analysis are presented right next to the underpinning theory. At the client-side, web application performance is primarily driven by the amount of data transmitted over the wire. At the server-side, selection of programming language and platform, implementation complexity and configuration are the primary contributors to web application performance. Web application performance testing is an activity that requires delicate coordination between project stakeholders, developers, system administrators and testers in order to produce reliable and useful results. Proper test definition, execution, reporting and repeatable test results are of utmost importance. Open-source performance analysis tools such as Apache JMeter, Firebug and YSlow can be used to realise effective web application performance tests. A sample case study using these tools is presented in this paper. The sample application was found to perform poorly even under the moderate load incurred by the sample tests.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In wireless communications the transmitted signals may be affected by noise. The receiver must decode the received message, which can be mathematically modelled as a search for the closest lattice point to a given vector. This problem is known to be NP-hard in general, but for communications applications there exist algorithms that, for a certain range of system parameters, offer polynomial expected complexity. The purpose of the thesis is to study the sphere decoding algorithm introduced in the article On Maximum-Likelihood Detection and the Search for the Closest Lattice Point, which was published by M.O. Damen, H. El Gamal and G. Caire in 2003. We concentrate especially on its computational complexity when used in space–time coding. Computer simulations are used to study how different system parameters affect the computational complexity of the algorithm. The aim is to find ways to improve the algorithm from the complexity point of view. The main contribution of the thesis is the construction of two new modifications to the sphere decoding algorithm, which are shown to perform faster than the original algorithm within a range of system parameters.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The human genome comprises roughly 20 000 protein coding genes. Proteins are the building material for cells and tissues, and proteins are functional compounds having an important role in many cellular responses, such as cell signalling. In multicellular organisms such as humans, cells need to communicate with each other in order to maintain a normal function of the tissues within the body. This complex signalling between and within cells is transferred by proteins and their post-translational modifications, one of the most important being phosphorylation. The work presented here concerns the development and use of tools for phosphorylation analysis. Mass spectrometers have become essential tools to study proteins and proteomes. In mass spectrometry oriented proteomics, proteins can be identified and their post-translational modifications can be studied. In this Ph.D. thesis the objectives were to improve the robustness of sample handling methods prior to mass spectrometry analysis for peptides and their phosphorylation status. The focus was to develop strategies that enable acquisition of more MS measurements per sample, higher quality MS spectra and simplified and rapid enrichment procedures for phosphopeptides. Furthermore, an objective was to apply these methods to characterize phosphorylation sites of phosphopeptides. In these studies a new MALDI matrix was developed which allowed more homogenous, intense and durable signals to be acquired when compared to traditional CHCA matrix. This new matrix along with other matrices was subsequently used to develop a new method that combines multiple spectra from different matrises from identical peptides. With this approach it was possible to identify more phosphopeptides than with conventional LC/ESI-MS/MS methods, and to use 5 times less sample. Also, phosphopeptide affinity MALDI target was prepared to capture and immobilise phosphopeptides from a standard peptide mixture while maintaining their spatial orientation. In addition a new protocol utilizing commercially available conductive glass slides was developed that enabled fast and sensitive phosphopeptide purification. This protocol was applied to characterize the in vivo phosphorylation of a signalling protein, NFATc1. Evidence for 12 phosphorylation sites were found, and many of those were found in multiply phosphorylated peptides

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Forest inventories are used to estimate forest characteristics and the condition of forest for many different applications: operational tree logging for forest industry, forest health state estimation, carbon balance estimation, land-cover and land use analysis in order to avoid forest degradation etc. Recent inventory methods are strongly based on remote sensing data combined with field sample measurements, which are used to define estimates covering the whole area of interest. Remote sensing data from satellites, aerial photographs or aerial laser scannings are used, depending on the scale of inventory. To be applicable in operational use, forest inventory methods need to be easily adjusted to local conditions of the study area at hand. All the data handling and parameter tuning should be objective and automated as much as possible. The methods also need to be robust when applied to different forest types. Since there generally are no extensive direct physical models connecting the remote sensing data from different sources to the forest parameters that are estimated, mathematical estimation models are of "black-box" type, connecting the independent auxiliary data to dependent response data with linear or nonlinear arbitrary models. To avoid redundant complexity and over-fitting of the model, which is based on up to hundreds of possibly collinear variables extracted from the auxiliary data, variable selection is needed. To connect the auxiliary data to the inventory parameters that are estimated, field work must be performed. In larger study areas with dense forests, field work is expensive, and should therefore be minimized. To get cost-efficient inventories, field work could partly be replaced with information from formerly measured sites, databases. The work in this thesis is devoted to the development of automated, adaptive computation methods for aerial forest inventory. The mathematical model parameter definition steps are automated, and the cost-efficiency is improved by setting up a procedure that utilizes databases in the estimation of new area characteristics.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tutkielman tavoitteena on selventää yliopistohakijan päätöksentekoprosessia. Jotta yliopistohakijan päätöksentekoon pystyttiin tarkemmin tutustumaan, selvitettiin informaationhakua hyödyllisien viestintäkanavien ja vaihtoehtojen vertailua tärkeiden valintakriteerien avuilla. Tutkielmassa tarkasteltiin myös sitoutuneisuutta ja subjektiivista tietotasoa, jotta hakijan viitekehystä pystyttiin tarkemmin ymmärtämään. Yliopistohakijoihin kohdistuvaa mainonnan tehokkuutta selvitettiin kolmen mainoksen avulla. Tutkielman empiirinen osa toteutettiin kvantitatiivisena internet -pohjaisena kyselytutkimuksena tilastollisin menetelmin. Otos (n=290) koostui valmennuskurssilla olevista opiskelijoista keväällä 2010. Vastausprosentiksi saatiin 33 %. Johtopäätöksenä voidaan todeta, että yliopistohakijan päätöksentekoprosessi on hyvin monimutkainen. Monimutkaisuutta prosessiin tuo useiden attribuuttien vaikuttavuus päätöksenteossa. Tutkielma on tuottanut viitekehyksen, jonka avulla voidaan havaita yliopistohakijalle tärkeät viestintäkanavat sekä valintakriteerit. Tutkielman avulla myös havaittiin, että yliopistohakijat ovat korkeasti sitoutuneita yliopistohakuun.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A company’s competence to manage its product portfolio complexity is becoming critically important in the rapidly changing business environment. The continuous evolvement of customer needs, the competitive market environment and internal product development lead to increasing complexity in product portfolios. The companies that manage the complexity in product development are more profitable in the long run. The complexity derives from product development and management processes where the new product variant development is not managed efficiently. Complexity is managed with modularization which is a method that divides the product structure into modules. In modularization, it is essential to take into account the trade-off between the perceived customer value and the module or component commonality across the products. Another goal is to enable the product configuration to be more flexible. The benefits are achieved through optimizing complexity in module offering and deriving the new product variants more flexibly and accurately. The developed modularization process includes the process steps for preparation, mapping the current situation, the creation of a modular strategy and implementing the strategy. Also the organization and support systems have to be adapted to follow-up targets and to execute modularization in practice.