875 resultados para requirement-based testing
Resumo:
Meckel-Gruber Syndrome is a rare autosomal recessive lethal ciliopathy characterized by the triad of cystic renal dysplasia, occipital encephalocele and postaxial polydactyly. We present the largest population-based epidemiological study to date using data provided by the European Surveillance of Congenital Anomalies (EUROCAT) network. The study population consisted of 191 cases of MKS identified between January 1990 and December 2011 in 34 European registries. The mean prevalence was 2.6 per 100 000 births in a subset of registries with good ascertainment. The prevalence was stable over time, but regional differences were observed. There were 145 (75.9%) terminations of pregnancy after prenatal diagnosis, 13 (6.8%) fetal deaths, 33 (17.3%) live births. In addition to cystic kidneys (97.7%), encephalocele (83.8%) and polydactyly (87.3%), frequent features include other central nervous system anomalies (51.4%), fibrotic/cystic changes of the liver (65.5% of cases with post mortem examination) and orofacial clefts (31.8%). Various other anomalies were present in 64 (37%) patients. As nowadays most patients are detected very early in pregnancy when liver or kidney changes may not yet be developed or may be difficult to assess, none of the anomalies should be considered obligatory for the diagnosis. Most cases (90.2%) are diagnosed prenatally at 14.3±2.6 (range 11-36) gestational weeks and pregnancies are mainly terminated, reducing the number of LB to one-fifth of the total prevalence rate. Early diagnosis is important for timely counseling of affected couples regarding the option of pregnancy termination and prenatal genetic testing in future pregnancies.
Resumo:
Today's business environment has become increasingly unexpected and fast changing because of the global competition. This new environment requires the companies to organize their control differently, e.g. by logistic process thinking. Logistic process thinking in software engineering applies the principles of production process to immaterial products. Processes must be optimized, so that every phase adds value to the customer, and the lead times can be cut shorter to meet the new customer requirements. The purpose of this thesis is to examine and optimize the testing processes of software engineering concentrating on module testing, functional testing and their interface. The concept of logistic process thinking is introduced through production process, value added model and process management. Also theory of testing based on literature is presented, concentrating on module testing and functional testing. The testing processes of the Case Company are presented together with the project models in which they are implemented. The real life practices in module testing and functional testing and their interface are examined through interviews. These practices are analyzed against the processes and the testing theory, through which ideas for optimizing the testing process are introduced. The project world of the Case Company is also introduced together with two example testing projects in different life cycle phases. The examples give a view of how much effort of the project is put in different types of testing.
Resumo:
The main objective of this research paper was to synthesize, integrate and analyze the theoretical foundation of the resource-based view of the firm on sustainable competitive advantage. Accordingly, this research was a literature research employing the methodology of interpretative study of concept and unobtrusive measures. The core and majority of the research data was gathered from the major online journal databases. Only peer-reviewed articles from highly-esteemed journals on the subject of competitive advantage were used. The theoretical core of the research paper was centred on resources, capabilities, and the sustainability dilemma of competitive advantage. Furthermore, other strategic management concepts relating to the resource-based view of the firm were used with reference to the research objectives. The resource-based view of the firm continues to be a controversial but important are of strategic management research on sustainable competitive advantage. Consequently, the theoretical foundation and the empirical testing of the framework needs further work. However, it is evident that internal organizational factors in the form of resources and capabilities are vital for the formation of sustainable competitive advantage. Resources and capabilities are not, however, valuable on their own - competitive advantage requires seamless interplay and complementarity between bundles of resources and capabilities.
Resumo:
Given the cost constraints of the European health-care systems, criteria are needed to decide which genetic services to fund from the public budgets, if not all can be covered. To ensure that high-priority services are available equitably within and across the European countries, a shared set of prioritization criteria would be desirable. A decision process following the accountability for reasonableness framework was undertaken, including a multidisciplinary EuroGentest/PPPC-ESHG workshop to develop shared prioritization criteria. Resources are currently too limited to fund all the beneficial genetic testing services available in the next decade. Ethically and economically reflected prioritization criteria are needed. Prioritization should be based on considerations of medical benefit, health need and costs. Medical benefit includes evidence of benefit in terms of clinical benefit, benefit of information for important life decisions, benefit for other people apart from the person tested and the patient-specific likelihood of being affected by the condition tested for. It may be subject to a finite time window. Health need includes the severity of the condition tested for and its progression at the time of testing. Further discussion and better evidence is needed before clearly defined recommendations can be made or a prioritization algorithm proposed. To our knowledge, this is the first time a clinical society has initiated a decision process about health-care prioritization on a European level, following the principles of accountability for reasonableness. We provide points to consider to stimulate this debate across the EU and to serve as a reference for improving patient management.
Resumo:
A new, quantitative, inference model for environmental reconstruction (transfer function), based for the first time on the simultaneous analysis of multigroup species, has been developed. Quantitative reconstructions based on palaeoecological transfer functions provide a powerful tool for addressing questions of environmental change in a wide range of environments, from oceans to mountain lakes, and over a range of timescales, from decades to millions of years. Much progress has been made in the development of inferences based on multiple proxies but usually these have been considered separately, and the different numeric reconstructions compared and reconciled post-hoc. This paper presents a new method to combine information from multiple biological groups at the reconstruction stage. The aim of the multigroup work was to test the potential of the new approach to making improved inferences of past environmental change by improving upon current reconstruction methodologies. The taxonomic groups analysed include diatoms, chironomids and chrysophyte cysts. We test the new methodology using two cold-environment training-sets, namely mountain lakes from the Pyrenees and the Alps. The use of multiple groups, as opposed to single groupings, was only found to increase the reconstruction skill slightly, as measured by the root mean square error of prediction (leave-one-out cross-validation), in the case of alkalinity, dissolved inorganic carbon and altitude (a surrogate for air-temperature), but not for pH or dissolved CO2. Reasons why the improvement was less than might have been anticipated are discussed. These can include the different life-forms, environmental responses and reaction times of the groups under study.
Resumo:
Blood culture remains the best approach to identify the incriminating microorganisms when a bloodstream infection is suspected, and to guarantee that the antimicrobial treatment is adequate. Major improvements have been made in the last years to increase the sensitivity and specificity and to reduce the time to identification of microorganisms recovered from blood cultures. Among other factors, the introduction in clinical microbiology laboratories of the matrix-assisted laser desorption ionization time-of-flight mass spectrometry technology revolutionized the identification of microorganisms whereas the introduction of nucleic-acid-based methods, such as DNA hybridization or rapid PCR-based test, significantly reduce the time to results. Together with traditional antimicrobial susceptibility testing, new rapid methods for the detection of resistance mechanisms respond to major epidemiological concerns such as methicillin-resistant Staphylococcus aureus, extended-spectrum β-lactamase or carbapenemases. This review presents and discusses the recent developments in microbial diagnosis of bloodstream infections based on blood cultures.
Resumo:
Water is vital to humans and each of us needs at least 1.5 L of safe water a day to drink. Beginning as long ago as 1958 the World Health Organization (WHO) has published guidelines to help ensure water is safe to drink. Focused from the start on monitoring radionuclides in water, and continually cooperating with WHO, the International Standardization Organization (ISO) has been publishing standards on radioactivity test methods since 1978. As reliable, comparable and"fit for purpose" results are an essential requirement for any public health decision based on radioactivity measurements, international standards of tested and validated radionuclide test methods are an important tool for production of such measurements. This paper presents the ISO standards already published that could be used as normative references by testing laboratories in charge of radioactivity monitoring of drinking water as well as those currently under drafting and the prospect of standardized fast test methods in response to a nuclear accident.
Resumo:
Tämä diplomityö esittelee 1.6. - 4.11.2002 Mikkelin ammattikorkeakoulun YTI-tutkimuskeskuksen Informaatio- ja mediateknologian hankekokonaisuuden STRIMT-projektin puitteissa tekemäni MHP-kehitysjärjestelmähankinnan tuloksia. Digitaalitelevision MHP-sovelluskehitysjärjestelmän hankinnan tulosten lisäksi työ antaa yleiskuvan MHP-sovelluskehitystyökaluista, digitaalitelevisiostandardeista sekä digitaalitelevisioverkkojen yhteistoimintamalleista televerkkojen kanssa. Keräämieni tietojen, tekemäni tarvemäärittelyn ja suorittamani tuotevertailun perusteella valitsin tarpeisiimme sopivimmaksi järjestelmäksi Alticast Inc.-yrityksen Altifusion-tuotteen. Tuotteen valinnassa otin huomioon myös mahdolliset tulevaisuuden tarpeet aina täysimittaista lähetysjärjestelmää varten kehittämällä vaiheittaisen hankintasuunnitelman. Järjestelmää hankittaessa tärkeintä on huomioida heti alusta alkaen mahdolliset tulevat tarpeet ja varmistaa hankinnan hyödynnettävyys myös tulevaisuudessa. Järjestelmän hankinnan lisäksi vastasin sen käyttöönotosta ja järjestelmää hyödyntävän testisovelluksen laatimisesta.
Resumo:
Simulaattorit ovat yksinkertaistettuja malleja tietyistä järjestelmän osioista. Niitä käytetään mallintamaan testattavan osion ympärillä olevien muiden osioiden ulkoista toimintaa, jotta testattavalle osiolle saadaan oikeanlainen toimintaympäristö aikaiseksi. Tilakoneita käytetään mallintamaan ohjelmistojen tai niiden osien toimintaa. Sanomaohjatuissa tilakoneissa tilojen vaihdot perustuvat saapuviin sanomiin. Tässä työssä esitellään erään ohjelmiston alijärjestelmän testaamisessa käytettävä arkkitehtuuri, joka perustuu suurelta osin simulaattoreiden käyttöön muiden alijärjestelmien mallintamisessa. Testattava ohjelmisto koostuu enimmäkseen tilakoneista, jotka vaihtavat keskenään sanomia ja ohjaavat näin toistensa tilasiirtymiä. Työn testausympäristö on suunniteltu juuri tämänkaltaisen ohjelmiston testaamiseen. Työssä esiteltävää testausympäristöä myöskin käytettiin useamman kuukauden ajan ja se todettiin toimivaksi. Joitakin testausympäristön käyttöohjeita, käyttökokemuksia sekä siihen liittyviä parannusehdotuksia käydään läpi työn loppuosassa. Erityisesti havaittiin miten tärkeää on testata implementaatiota jo luokka tasolla ennen alijärjestelmä tason testaukseen siirtymistä sekä päädyttiin siihen, että suunnitteluvaiheen pitäisi olla lähemmin liitoksissa alijärjestelmätestaukseen.
Resumo:
Tämän diplomityön päätavoitteena oli parantaa kehitetyn kustannusperusteisen siirtohinnoittelutyökalun ominaisuuksia osastokohtaisen kustannusarviointiprosessin käyttöön. Työ on vaikeutunut lähimenneisyyden heikosta hintakyselyiden vastauskyvystä. Työn pääongelmana oli kerätä luotettavaa tuotannonohjausjärjestelmän kustannusaineistoa osittain vanhentuneista vakioventtiilien koneistus- ja materiaalitiedosta. Tutkimuksessa käytetyt tärkeimmät tutkimusmenetelmät voidaan jakaa siirtohinnoittelu- ja kustannusarvioprosessien kirjallisuustutkimukseen, kenttäanalyysiin ja nykyisen Microsoft Excel –siirtohinnoittelutyökalun kehittämiseen eri osastojen rajapinnassa. Siirtohinnoittelumenetelmät ovat yleisesti jaettu kustannus-, markkina- ja neuvotteluperusteisiin malleihin, jotka harvoin sellaisenaan kohtaavat siirtohinnoittelulle asetetut tavoitteet. Tämä ratkaisutapa voi johtaa tilanteisiin, jossa kaksi erillistä menetelmää sulautuvat yhteen. Lisäksi varsinaiseen siirtohinnoittelujärjestelmään yleensä vaikuttavat useat sisäiset ja ulkoiset tekijät. Lopullinen siirtohinnoittelumenetelmä tulisi ehdottomasti tukea myös yrityksen visiota ja muita liiketoiminnalle asetettuja strategioita. Työn tuloksena saatiin laajennettu Microsoft Excel –sovellus, joka vaatii sekä vuosittaista että kuukausittaista erikoisventtiilimateriaalien hinta- ja toimitusaikatietojen päivittämistä. Tämä ratkaisutapa ehdottomasti parantaa kustannusarviointiprosessia, koska myös alihankkijatietoja joudutaan tutkimaan systemaattisesti. Tämän jälkeen koko siirtohinnoitteluprosessia voidaan kehittää muuntamalla kokoonpano- ja testaustyövaiheiden kustannusrakennetta toimintoperustaisen kustannuslaskentamallin mukaiseksi.
Resumo:
Tarve tälle työlle on noussut sanomapalvelinsoveluksissa (servers) esiintyvistä ongelmista. Sanomapalvelinsovelluksia käytetään lähettämään ja vastaanottamaan sanomia paperiteollisuuden myynnin ja jakelun järjestelmässä maantieteellisesti erillään olevista paperiteollisuuden tehtaista. Sanomapalvelinsovelusten kunnollinen toimivuus on tärkeää koko järjestelmän toimivuuden kannalta, koska nämä palvelimet käsittelevät päivittäin tuhansia sanomia, jotka sisältävät merkityksellistä järjestelmätietoa. Tässä työssä on tutkittu mahdollisia toteutustekniikoita ja näihin tutkimuksiin pohjautuen toteutettu työkalut sanomapalvelinsovellusten testaukseen ja valvontaan. Sovellus-arkkituuritekniikoita tutkittaessa tutkimus rajattiin 3-tasoarkkitehtuuritekniikkaan, erityisesti TUXEDOTM -järjestelmätekniikkaan, koska toteutettavaa sovellusta käytetään hajautetussa sovellusympäristössä. Sovellusasiakkaan (client) toteutusta varten tutkittiin ja vertailtiin XML-tekniikkaa ja Microsoft Visual C++ -tekniikkaa käytettynä Tieto-Enatorin Phobos Interaktiivisen C++ -luokkakirjaston kanssa. XML-tekniikoita sekä Visual C++ ja Phobos-luokkakirjasto –tekniikkaa tutkittiin niiltä osin, mitä tarvittiin sanomamerkkijonojen katseluun. XML-tietokantatekniikoita tutkittiin mahdollisena vaihtoehtona tietokanta ja sovelluspalvelintekniikalle. Työn ensimmäisenä tavoitteena oli toteuttaa työkalu sanomapalvelinsovellusten testaamiseen. Toisena tavoitteena oli toteuttaa työkalu sanomien sisällön oikeellisuuden valvontaan. Kolmantena tavoitteena oli analysoida olemassaolevaa sanomavirheiden valvontasovellusta ja kehittää sitä eteenpäin. Diplomityön tuloksena toteutettiin sovellus sanomapalvelinsovellusten testaamiseen ja valvontaan. Tutkituista asiakassovelustekniikoista valittiin toteutus-tekniikaksi MS Visual C++ käytettynä Phobos Interaktiivisen C++ luokkakirjaston kanssa tekniikan tunnettavuuden vuoksi. 3-taso TUXEDOTM-tekniikka valittiin sovelluksen arkkitehtuuriksi. Lisäksi löydettiin parannuksia olemassa oleviin sanoma-virheiden valvontatoimintoihin. Tutkitut toteutustekniikat ovat yleisiä ja niitä voidaan käyttää, kun toteutetaan samanlaisia sovelluksia samanlaisiin sovellusympäristöihin.
Resumo:
This master’s thesis aims to study and represent from literature how evolutionary algorithms are used to solve different search and optimisation problems in the area of software engineering. Evolutionary algorithms are methods, which imitate the natural evolution process. An artificial evolution process evaluates fitness of each individual, which are solution candidates. The next population of candidate solutions is formed by using the good properties of the current population by applying different mutation and crossover operations. Different kinds of evolutionary algorithm applications related to software engineering were searched in the literature. Applications were classified and represented. Also the necessary basics about evolutionary algorithms were presented. It was concluded, that majority of evolutionary algorithm applications related to software engineering were about software design or testing. For example, there were applications about classifying software production data, project scheduling, static task scheduling related to parallel computing, allocating modules to subsystems, N-version programming, test data generation and generating an integration test order. Many applications were experimental testing rather than ready for real production use. There were also some Computer Aided Software Engineering tools based on evolutionary algorithms.
Resumo:
Teräksenvalmistajilta edellytetään jatkuvasti panostusta laadun ja laadunvarmistuksen kehittämiseen. Teräksen laatu ja puhtaus korostuvat varsinkin silloin, kun terästä käytetään vaativiin käyttökohteisiin, kuten autoteollisuuden tarpeisiin. Ultraäänitarkastusmenetelmää käytetään laadun-varmistuksessa teräksen sisävikojen etsimiseen. Ultraäänitarkastuksessa lähetetään suuritaajuuksista ääntä kappaleeseen. Ääni etenee materiaalissa ja heijastuu erilaisista epäjatkuvuuskohdista. Luotaimeen palaavaa ääntä analysoimalla saadaan tietoa teräksestä ja sen sisävioista. Ultraäänitarkastuksen ongelmana on vian tyypin määrittäminen hankaluus sekä herkkyys tutkittavan materiaalin aineominaisuuksille. Työn tavoitteena oli immersioultraäänitarkastuksen kehittäminen sovellettuna teräksenvalmistajan tarpeisiin. Materiaalin aineominaisuuksista tutkittiin seostuksen vaikutusta. Teräslajit tarkastettiin valssitilaisena, karkaistuna ja normalisoituna. Lisäksi tutkittiin kappaleen pinnankarheuden ja -muodon vaikutusta tarkastukseen. Vikatyyppien tunnistamisen mahdollisuuksia ultra-äänitarkastuksessa selvitettiin käyttäen FFT- taajuusanalyysiä. Erilailla lämpökäsitellyillä teräslajeilla näytti eniten tuloksiin vaikuttavan terästen raekoko. Valssitilaisilla teräksillä raekoko on suuri, jolloin ultraääni vaimenee voimakkaasti teräksessä. Huomattavaa kuitenkin oli, että mikäli lämpö-käsittelyillä ei teräksen raekokoa saada juuri pienennettyä, ei myöskään vaimeneminen vähene. Tämän vuoksi lämpökäsittely ei välttämättä ole aina tarpeellinen valmisteltaessa ultraääninäytteitä. Fourier’n taajuusanalyysissä huomattiin olevan eroavaisuuksia verrattaessa huokosista ja sulkeumista palaavien kaikujen taajuusspektrejä. Näiden tulosten perusteella näyttäisi olevan mahdollista käyttää FFT- menetelmää ultraääni-tarkastuksessa vikojen luokitteluun.
Resumo:
Teollusuussovelluksissa vaaditaan nykyisin yhä useammin reaaliaikaista tiedon käsittelyä. Luotettavuus on yksi tärkeimmistä reaaliaikaiseen tiedonkäsittelyyn kykenevän järjestelmän ominaisuuksista. Sen saavuttamiseksi on sekä laitteisto, että ohjelmisto testattava. Tämän työn päätavoitteena on laitteiston testaaminen ja laitteiston testattavuus, koska luotettava laitteistoalusta on perusta tulevaisuuden reaaliaikajärjestelmille. Diplomityössä esitetään digitaaliseen signaalinkäsittelyyn soveltuvan prosessorikortin suunnittelu. Prosessorikortti on tarkoitettu sähkökoneiden ennakoivaa kunnonvalvontaa varten. Uusimmat DFT (Desing for Testability) menetelmät esitellään ja niitä sovelletaan prosessorikortin sunnittelussa yhdessä vanhempien menetelmien kanssa. Kokemukset ja huomiot menetelmien soveltuvuudesta raportoidaan työn lopussa. Työn tavoitteena on kehittää osakomponentti web -pohjaiseen valvontajärjestelmään, jota on kehitetty Sähkötekniikan osastolla Lappeenrannan teknillisellä korkeakoululla.
Resumo:
Monet ohjelmistoyritykset ovat alkaneet kiinnittää yhä enemmän huomiota ohjelmistotuotteidensa laatuun. Tämä on johtanut siihen, että useimmat niistä ovat valinneet ohjelmistotestauksen välineeksi, jolla tätä laatua voidaan parantaa. Testausta ei pidä rajoittaa ainoastaan ohjelmistotuotteeseen itseensä, vaan sen tulisi kattaa koko ohjelmiston kehitysprosessi. Validaatiotestauksessa keskitytään varmistamaan, että lopputuote täyttää sille asetetut vaatimukset, kun taas verifikaatiotestausta käytetään ennaltaehkäisevänä testauksena, jolla pyritään poistamaan virheitä jo ennenkuin ne pääsevät lähdekoodiin asti. Työ, johon tämä diplomityö perustuu, tehtiin alkukevään ja kesän aikana vuonna 2003 Necsom Oy:n toimeksiannosta. Necsom on pieni suomalainen ohjelmistoyritys, jonka tutkimus- ja kehitysyksikkö toimii Lappeenrannassa.Tässä diplomityössä tutustutaan aluksi ohjelmistotestaukseen sekä eri tapoihin sen organisoimiseksi. Tämän lisäksi annetaan yleisiä ohjeita testisuunnitelmien ja testaustapausten tekoon, joita onnistunut ja tehokas testaus edellyttää. Kun tämä teoria on käyty läpi, esitetään esimerkkinä kuinka sisäinen ohjelmistotestaus toteutettiin Necsomilla. Lopuksi esitetään johtopäätökset, joihin päädyttiin käytännön testausprosessin seuraamisen jälkeen ja annetaan jatkotoimenpide-ehdotuksia.