14 resultados para TESTAUS


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Testaus ketterissä menetelmissä (agile) on kirjallisuudessa heikosti määritelty, ja yritykset toteuttavat laatu- ja testauskäytäntöjä vaihtelevasti. Tämän tutkielman tavoitteena oli löytää malli testauksen järjestämiseen ketterissä menetelmissä. Tavoitetta lähestyttiin keräämällä kirjallisista lähteistä kokemuksia, vaihtoehtoja ja malleja. Löydettyjä tietoja verrattiin ohjelmistoyritysten käytännön ratkaisuihin ja näkemyksiin, joita saatiin suorittamalla kyselytutkimus kahdessa Scrum-prosessimallia käyttävässä ohjelmistoyrityksessä. Kirjallisuuskatsauksessa selvisi, että laatusuunnitelman ja testausstrategian avulla voidaan tunnistaa kussakin kontekstissa tarvittavat testausmenetelmät. Menetelmiä kannattaa tarkastella ja suunnitella iteratiivisten prosessien aikajänteiden (sydämenlyönti, iteraatio, julkaisu ja strateginen) avulla. Tutkimuksen suurin löytö oli, että yrityksiltä puuttui laajempi ja suunnitelmallinen näkemys testauksen ja laadun kehittämiseen. Uusien laatu- ja testaustoimenpiteiden tarvetta ei analysoitu järjestelmällisesti, olemassa olevien käyttöä ei kehitetty pitkäjänteisesti, eikä yrityksillä ollut kokonaiskuvaa tarvittavien toimenpiteiden keskinäisistä suhteista. Lisäksi tutkimuksessa selvisi, etteivät tiimit kyenneet ottamaan vastuuta laadusta, koska laatuun liittyviä toimenpiteitä tehdään iteraatioissa liian vähän. Myös Scrum-prosessimallin noudattamisessa oli korjaamisen varaa. Yritykset kuitenkin osoittivat halua ja kykyä kehittää toimintaansa ongelmien tunnistamisen jälkeen. ACM Computing Classification System (CCS 1998): D.2.5 Testing and Debugging, D.2.9 Management, K.6.1 Project and People Management, K.6.3 Software Management

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tämän työn tavoitteena oli selvittää, kuinka selluloosan lisääminen vaikuttaa polysulfonirunkoisiin membraaneihin. Lisäksi työssä selvitettiin selluloosamembraanien modifiointia kitosaanilla ja bentoniitilla. Työssä muodostettiin membraanit faasi-inversiotekniikalla. Selluloosamembraanien valmistuksessa jauhettu selluloosa liuotettiin ioniseen nesteeseen. Sekä polysulfonista että selluloosasta valmistetuille membraaneille määritettiin puhdasvesivuot ja retentiot. Retention määrittämiseen käytettiin malliaineena dekstraanin vesiliuosta. Lisäksi määriteltiin polysulfonipohjaisten membraanien hydrofiilisyys tutkimalla membraanien pintojen ja vesipisaroiden välisiä kontaktikulmia. Polysulfonimembraaneihin lisätyn selluloosan havaittiin pienentävän puhdasvesivuota ja kasvattavan hydrofiilisyyttä mitä enemmän selluloosaa oli membraanimatriisissa. Kaikkien selluloosalla modifioitujen membraanien retentiot olivat suurempia kuin modifioimattoman polysulfonimembraanin. Kitosaanilla modifioitujen selluloosamembraanien valmistus ei onnistunut johtuen luultavasti kitosaanin liian suuresta partikkelikoosta. Bentoniitilla modifioitujen membraanien vuot olivat merkittävästi suuremmat sekä niiden retentiot pienemmät verrattuna modifioimattomaan selluloosamembraaniin. Tämä johtui luultavasti siitä, että bentoniitin lisääminen aiheutti membraanirakenteeseen reikiä.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aims. The beginning point of this research was confusion between studies claiming, that children mature Metalinguistic to read at 6-7 of age, and the fact, that in Montessori playschools children easily start writing and reading at age 3 to 5. Aim was also find out how conception of slow Metalinguistic development has started, and if there is some evidence of phoneme awareness of reading of young children in the field of research of reading. Aim was also seek evidence of the sensitive period of reading as Montessori described it. The research also wanted to turn up, if phoneme awareness only develops in children, who work with graphemes and with reading, or could it be found in children, who do not. The mean was to research how the Montessori reading material supports child’s Metalinguistic development, when child begins learning to read. The research plans to represent knowledge about how young children learn to write and read. Methods. Research performed in ordinary kindergarten and in Montessori playschool in Espoo. In kindergarten observed six children, age 3-4, at eight grapheme-rhyme sessions from January to April 2007, and conducting a test based on Chaney’s (1992) study of phoneme awareness of young children. In Montessori kindergarten were observed 17 children about their phoneme awareness and reading competition from January 2007 to March 2008. Their developments in reading were also measured three times from 1.9.07 to 20.3.08 with classification constructed for this study, loosely based on Chall’s (1983) reading stages. The Montessori reading material was analyzed about the influence they have to a child’s Metalinguistic development. This was done based to theory and its concepts from the field of research of reading; phoneme awareness, morphological, syntactical and semantic consciousness. Results and conclusions. Research proved that children 3-5 have naturally developed phoneme awareness. In kindergarten and in Montessori playschool children between 2 and 4 could do phoneme synthesis, and in the latter they also could do phoneme segmentation of words. Montessori reading material guided children gradually, except to read, also to observe and absorb Metalinguistic knowledge. Children learned to write and read. At the last evaluating day almost 50 % of children write and read clauses or stories, and 82 % could read at least words. Children can develop Metalinguistic awareness, while using the Montessori materials for learning to write and read. To reach literacy is easy for children because of their phoneme awareness.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis examines the feasibility of a forest inventory method based on two-phase sampling in estimating forest attributes at the stand or substand levels for forest management purposes. The method is based on multi-source forest inventory combining auxiliary data consisting of remote sensing imagery or other geographic information and field measurements. Auxiliary data are utilized as first-phase data for covering all inventory units. Various methods were examined for improving the accuracy of the forest estimates. Pre-processing of auxiliary data in the form of correcting the spectral properties of aerial imagery was examined (I), as was the selection of aerial image features for estimating forest attributes (II). Various spatial units were compared for extracting image features in a remote sensing aided forest inventory utilizing very high resolution imagery (III). A number of data sources were combined and different weighting procedures were tested in estimating forest attributes (IV, V). Correction of the spectral properties of aerial images proved to be a straightforward and advantageous method for improving the correlation between the image features and the measured forest attributes. Testing different image features that can be extracted from aerial photographs (and other very high resolution images) showed that the images contain a wealth of relevant information that can be extracted only by utilizing the spatial organization of the image pixel values. Furthermore, careful selection of image features for the inventory task generally gives better results than inputting all extractable features to the estimation procedure. When the spatial units for extracting very high resolution image features were examined, an approach based on image segmentation generally showed advantages compared with a traditional sample plot-based approach. Combining several data sources resulted in more accurate estimates than any of the individual data sources alone. The best combined estimate can be derived by weighting the estimates produced by the individual data sources by the inverse values of their mean square errors. Despite the fact that the plot-level estimation accuracy in two-phase sampling inventory can be improved in many ways, the accuracy of forest estimates based mainly on single-view satellite and aerial imagery is a relatively poor basis for making stand-level management decisions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work develops methods to account for shoot structure in models of coniferous canopy radiative transfer. Shoot structure, as it varies along the light gradient inside canopy, affects the efficiency of light interception per unit needle area, foliage biomass, or foliage nitrogen. The clumping of needles in the shoot volume also causes a notable amount of multiple scattering of light within coniferous shoots. The effect of shoot structure on light interception is treated in the context of canopy level photosynthesis and resource use models, and the phenomenon of within-shoot multiple scattering in the context of physical canopy reflectance models for remote sensing purposes. Light interception. A method for estimating the amount of PAR (Photosynthetically Active Radiation) intercepted by a conifer shoot is presented. The method combines modelling of the directional distribution of radiation above canopy, fish-eye photographs taken at shoot locations to measure canopy gap fraction, and geometrical measurements of shoot orientation and structure. Data on light availability, shoot and needle structure and nitrogen content has been collected from canopies of Pacific silver fir (Abies amabilis (Dougl.) Forbes) and Norway spruce (Picea abies (L.) Karst.). Shoot structure acclimated to light gradient inside canopy so that more shaded shoots have better light interception efficiency. Light interception efficiency of shoots varied about two-fold per needle area, about four-fold per needle dry mass, and about five-fold per nitrogen content. Comparison of fertilized and control stands of Norway spruce indicated that light interception efficiency is not greatly affected by fertilization. Light scattering. Structure of coniferous shoots gives rise to multiple scattering of light between the needles of the shoot. Using geometric models of shoots, multiple scattering was studied by photon tracing simulations. Based on simulation results, the dependence of the scattering coefficient of shoot from the scattering coefficient of needles is shown to follow a simple one-parameter model. The single parameter, termed the recollision probability, describes the level of clumping of the needles in the shoot, is wavelength independent, and can be connected to previously used clumping indices. By using the recollision probability to correct for the within-shoot multiple scattering, canopy radiative transfer models which have used leaves as basic elements can use shoots as basic elements, and thus be applied for coniferous forests. Preliminary testing of this approach seems to explain, at least partially, why coniferous forests appear darker than broadleaved forests in satellite data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Usability testing is a productive and reliable method for evaluating the usability of software. Planning and implementing the test and analyzing its results is typically considered time-consuming, whereas applying usability methods in general is considered difficult. Because of this, usability testing is often priorized lower than more concrete issues in software engineering projects. Intranet Alma is a web service, users of which consist of students and personnel of the University of Helsinki. Alma was published in 2004 at the opening ceremony of the university. It has 45 000 users, and it replaces several former university network services. In this thesis, the usability of intranet Alma is evaluated with usability testing. The testing method applied has been lightened to make its taking into use as easy as possible. In the test, six students each tried to solve nine test tasks with Alma. As a result concrete usability problems were described in the final test report. Goal-orientation was given less importance in the applied usability testing. In addition, the system was tested only with test users from the largest user group. Usability test found general usability problems that occurred no matter the task or the user. However, further evaluation needs to be done: in addition to the general usability problems, there are task-dependent problems, solving of which requires thorough gathering of users goals. In the basic structure and central functionality of Alma, for example in navigation, there are serious and often repeating usability problems. It would be of interest to verify the designed user interface solutions to these problems before taking them into use. In the long run, the goals of the users, that the software is planned to support, are worth gathering, and the software development should be based on these goals.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mismatch repair (MMR) mechanisms repair DNA damage occurring during replication and recombination. To date, five human MMR genes, MSH2, MHS6, MSH3, MLH1 and PMS2 are known to be involved in the MMR function. Human MMR proteins form 3 different heterodimers: MutSα (MSH2 and MSH6) and MutSβ (MSH2 and MSH3), which are needed for mismatch recognition and binding, and MutLα (MLH1 and PMS2), which is needed for mediating interactions between MutS homologues and other MMR proteins. The other two MutL homologues, MLH3 and PMS1, have been shown to heterodimerize with MLH1. However, the heterodimers MutLγ (MLH1and MLH3) and MutLβ (MLH1 and PMS1) are able to correct mismatches only with low or no efficiency, respectively. A deficient MMR mechanism is associated with the hereditary colorectal cancer syndrome called hereditary nonpolyposis colorectal cancer (HNPCC) or Lynch syndrome. HNPCC is the most common hereditary colorectal cancer syndrome and accounts for 2-5% of all colorectal cancer cases. HNPCC-associated mutations have been found in 5 MMR genes: MLH1, MSH2, MSH6, PMS2 and MLH3. Most of the mutations have been found in MLH1 and MSH2 (~90%) and are associated with typical HNPCC, while mutations in MSH6, PMS2 and MLH3 are mainly linked to putative HNPCC families lacking the characteristics of the syndrome. More data of MLH3 mutations are needed to assess the significance of its mutations in HNPCC. In this study, were functionally characterized 51 nontruncating mutations in the MLH1, MLH3 and MSH2 genes to address their pathogenic significance and mechanism of pathogenicity. Of the 36 MLH1 mutations, 22 were deficient in more than one assay, 2 variants were impaired only in one assay, and 12 variants behaved like the wild type protein, whereas all seven MLH3 mutants functioned like the wild type protein in the assays. To further clarify the role and relevance of MLH3 in MMR, we analyzed the subcellular localization of the native MutL homologue proteins. Our immunofluorescence analyses indicated that when all the three MutL homologues are natively expressed in human cells, endogenous MLH1 and PMS2 localize in the nucleus, whereas MLH3 stays in the cytoplasm. The coexpression of MLH3 with MLH1 results in its partial nuclear localization. Only one MSH2 mutation was pathogenic in the in vitro MMR assay. Our study on MLH1 mutations could clearly distinguish nontruncating alterations with severe functional defects from those not or only slightly impaired in protein function. However, our study on MLH3 mutations suggest that MLH3 mutations per se are not sufficient to trigger MMR deficiency and the continuous nuclear localization of MLH1 and PMS2 suggest that MutLα has a major activity in MMR in vivo. Together with our functional assays, this confirms that MutLγ is a less efficient MMR complex than MutLα.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The magnetic field of the Earth is 99 % of the internal origin and generated in the outer liquid core by the dynamo principle. In the 19th century, Carl Friedrich Gauss proved that the field can be described by a sum of spherical harmonic terms. Presently, this theory is the basis of e.g. IGRF models (International Geomagnetic Reference Field), which are the most accurate description available for the geomagnetic field. In average, dipole forms 3/4 and non-dipolar terms 1/4 of the instantaneous field, but the temporal mean of the field is assumed to be a pure geocentric axial dipolar field. The validity of this GAD (Geocentric Axial Dipole) hypothesis has been estimated by using several methods. In this work, the testing rests on the frequency dependence of inclination with respect to latitude. Each combination of dipole (GAD), quadrupole (G2) and octupole (G3) produces a distinct inclination distribution. These theoretical distributions have been compared with those calculated from empirical observations from different continents, and last, from the entire globe. Only data from Precambrian rocks (over 542 million years old) has been used in this work. The basic assumption is that during the long-term course of drifting continents, the globe is sampled adequately. There were 2823 observations altogether in the paleomagnetic database of the University of Helsinki. The effect of the quality of observations, as well as the age and rocktype, has been tested. For comparison between theoretical and empirical distributions, chi-square testing has been applied. In addition, spatiotemporal binning has effectively been used to remove the errors caused by multiple observations. The modelling from igneous rock data tells that the average magnetic field of the Earth is best described by a combination of a geocentric dipole and a very weak octupole (less than 10 % of GAD). Filtering and binning gave distributions a more GAD-like appearance, but deviation from GAD increased as a function of the age of rocks. The distribution calculated from so called keypoles, the most reliable determinations, behaves almost like GAD, having a zero quadrupole and an octupole 1 % of GAD. In no earlier study, past-400-Ma rocks have given a result so close to GAD, but low inclinations have been prominent especially in the sedimentary data. Despite these results, a greater deal of high-quality data and a proof of the long-term randomness of the Earth's continental motions are needed to make sure the dipole model holds true.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

BlueGiga Technologies on uusi Bluetooth -teknologiaa soveltava pk-yritys. Yrityksen tuotekehitysprosessia täydentämään tarvittiin testausprosessi. Testausprosessin luominen oli haastavaa, koska Bluetooth -teknologia on uutta ja yritys on vielä nuori. Lisäksi se integroi kovo- ja ohjelmistokomponentteja tuotteissaan. Testaus aloitettiin evaluoimalla standardinmukaista tapaa dokumentoida testit. Tämän jälkeen tutkittiin BlueGigan ohjelmistokehitysprosessin suhdetta olemassa oleviin ohjelmistokehitysprosesseihin. Samanaikaisesti perehdyttiin Bluetooth -kvalifikaation testaukselle asettamiin vaatimuksiin. Tämän seurauksena TTCN:ää kokeiltiin helppolukuisen testitapauksen määrittelyssä. Käyttötapauksiin perustuvan testauksen sopivuutta Wireless Remote Access Platform:in (WRAP) testaamiseen arvioitiin kokeilemalla sitä Man-to-Machine -käyttötapauksen testaamisessa. Yllämainittujen tehtävien aikana kerätyn tiedon ja hankittujen kokemusten pohjalta laadittiin testausprosessi, joka kattaa yksikkö-, integraatio- ja järjestelmätason testauksen. Painopiste on järjestelmätason testauksessa. Prosessi määrittelee myös vastuuhenkilön tai -henkilöt eri testaustasoille.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Jatkuvasti lisääntyvä matkapuhelinten käyttäjien määrä, internetin kehittyminen yleiseksi tiedon ja viihteen lähteeksi on luonut tarpeen palvelulle liikkuvan työaseman liittämiseksi tietokoneverkkoihin. GPRS on uusi teknologia, joka tarjoaa olemassa olevia matka- puhelinverkkoja (esim. NMT ja GSM) nopeamman, tehokkaamman ja taloudellisemman liitynnän pakettidataverkkoihin, kuten internettiin ja intranetteihin. Tämän työn tavoitteena oli toteuttaa GPRS:n paketinohjausyksikön (Packet Control Unit, PCU) testauksessa tarvittavat viestintäajurit työasemaympristöön. Aidot matkapuhelinverkot ovat liian kalliita, eikä niistä saa tarvittavasti lokitulostuksia, jotta niitä voisi käyttää GPRS:n testauksessa ohjelmiston kehityksen alkuvaihessa. Tämän takia PCU-ohjelmiston testaus suoritetaan joustavammassa ja helpommin hallittavassa ympäristössä, joka ei aseta kovia reaaliaikavaatimuksia. Uusi toimintaympäristö ja yhteysmedia vaativat PCU:n ja muiden GPRS-verkon yksiköiden välisistä yhteyksistä huolehtivien ohjelman osien, viestintäajurien uuden toteutuksen. Tämän työn tuloksena syntyivät tarvittavien viestintäajurien työasemaversiot. Työssä tarkastellaan eri tiedonsiirtotapoja ja -protokollia testattavan ohjelmiston vaateiden, toteutetun ajurin ja testauksen kannalta. Työssä esitellään kunkin ajurin toteuttama rajapinta ja toteutuksen aste, eli mitkä toiminnot on toteutettu ja mitä on jätetty pois. Ajureiden rakenne ja toiminta selvitetään siltä osin, kuin se on oleellista ohjelman toiminnan kannalta.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fragiili X (frax) -oireyhtymä on yleisin kehitysvammaisuuden perinnöllinen syy. Oireyhtymä periytyy X-kromosomissa, ja sen aiheuttaa sytosiini-guaniini-guaniini-emäskolmikon (CGG) monistuminen X-kromosomin Fragile X mental retardation 1 (FMR1) -geenin promoottorialueella. FMR1-alleelit voidaan luokitella (CGG)n-toistojen määrän mukaan neljään ryhmään: normaali (5–44), harmaa alue (45¬¬¬–54), epästabiili esimutaatio (55–200) tai täysmutaatio (yli 200). Esimutaatiotapauksissa toistojakso voi laajentua täysmutaatioksi jo yhden sukupolven aikana. Esimutaation kantajilla on havaittu monenlaisia oireita. Esimerkiksi osalla kantajanaisista on munarauhasen toiminnanhäiriöitä ja erityisesti miehillä on riski sairastua neurologiseen rappeumasairauteen. Täysmutaatiotapauksessa FMR1-promoottorialue metyloituu epänormaalisti ja geeni inaktivoituu. Täysmutaatiota kantavilla miehillä on aina frax-oireyhtymä, kun taas naisilla toisen terveen X-kromosomin suojavaikutus yleensä lieventää oireita sekä täys- että esimutaatiotapauksissa. Oireyhtymän yleisyyden, laajan oirekirjon ja lääkekehityksen edistymisen takia kiinnostus vastasyntyneiden ja kantajien seulontaa kohtaan on kasvanut. Tutkielman kokeellisessa osassa tavoitteena oli pystyttää veritäpläpohjainen automatisoitu DNA-eristysmenetelmä, joka soveltuu frax-oireyhtymän ja sen kantajien testaukseen PerkinElmerin FragilEaseTM-PCR-määrityksen kanssa. Kokonaisuudessaan testaus koostui DNA-eristyksestä, FragilEaseTM-PCR:stä, PCR-tuotteen puhdistuksesta ja monistustuotteiden havainnoinnista kapillaarigeeli-elektroforeesilla. Jokaista vaihetta optimoitiin veritäplätestaukseen sopivaksi. Frax-testaus todistettiin toimivaksi sekä aikuisten että vastasyntyneiden veritäplillä. Halkaisijaltaan 3,2 mm veritäplistä eristettyjen DNA-näytteiden epäpuhtauksista ja alhaisista pitoisuuksista huolimatta FragilEaseTM-PCR:ssä onnistuttiin monistamaan (CGG)n-alueet pienentämällä eristysnäytteiden reaktiotilavuutta ja nostamalla PCR-syklimäärää. Pisin testattu monistusalue oli 200 toistojaksoa. Lisäksi muokkaamalla DNA-eristysvaihetta ja muuttamalla PCR-tuotteen puhdistusmenetelmää onnistuttiin nostamaan lopullista saantoa. Veritäpläpohjaisen frax-testauksen osoitettiin soveltuvan niin vastasyntyneiden kuin kantajien seulontaan.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tämän tutkimuksen päätavoitteena oli luoda laskentamalli identiteetin- ja käyttöoikeuksien hallintajärjestelmien kustannus- ja tulosvaikutuksista. Mallin tarkoitus oli toimia järjestelmätoimittajien apuvälineenä, jolla mahdolliset asiakkaat voidaan paremmin vakuuttaa järjestelmän kustannushyödyistä myyntitilanteessa. Vastaavia kustannusvaikutuksia mittaavia malleja on rakennettu hyvin vähän, ja tässä tutkimuksessa rakennettu malli eroaa niistä sekä järjestelmätoimittajan työkustannusten että tietoturvariskien huomioimisen osalta. Laskentamallin toimivuuden todentamiseksi syntynyttä laskentamallia testattiin kahdessa yrityksessä, joiden käytössä on keskitetty identiteetinhallintajärjestelmä. Testaus suoritettiin syöttämällä yrityksen tiedot laskentamalliin ja vertaamalla mallin antamia tuloksia yrityksen havaitsemiin kustannusvaikutuksiin. Sekä kirjallisuuskatsauksen että laskentamallin testaamisen perusteella voidaan todeta, että identiteetinhallintaprosessin merkittävimmät kustannustekijät ovat identiteettien luomiseen ja muutoksiin kuluva työaika sekä näiden toimintojen aiheuttama työntekijän tehokkuuden laskeminen prosessin aikana. Tutkimuksen perusteella keskitettyjen identiteetinhallintajärjestelmien avulla on mahdollista saavuttaa merkittäviä kustannussäästöjä identiteetinhallintaprosessin toiminnoista, lisenssikustannuksista sekä IT-palvelukustannuksista. Kaikki kustannussäästöt eivät kuitenkaan ole konkreettisia, vaan liittyvät esimerkiksi työtehokkuuden nousemiseen järjestelmän ansiosta. Kustannusvaikutusten lisäksi identiteetinhallintajärjestelmät tarjoavat muita hyötyjä, joiden rahallisen arvon laskeminen on erittäin haastavaa. Laskentamallin käytön haasteina ovatkin konkreettisten ja epäsuorien kustannussäästöjen tunnistaminen ja arvottaminen sekä investoinnin kokonaishyötyjen arvioinnin vaikeus.