1000 resultados para TMN
Kohti uudistuvaa Verkkokoulua : Käyttäjätutkimus osana Tilastokeskuksen oppimateriaalin kehittämistä
Resumo:
Tutkimuksen lähtökohtana on tilastojen luku- ja käyttötaitojen kehittäminen verkko-oppimisympäristöissä. Tutkimus käynnistyi Tilastokeskuksen Verkkokoulun kehittämisen tarpeesta. Päätavoitteena on muodostaa toimenpide-ehdotuksia Verkkokoulun kehittämiselle käyttäjälähtöisestä näkökulmasta. Tutkimuksessa selvitetään, miten matematiikan aineenopettajat käyttävät Tilastokeskuksen Verkkokoulua opetuksessaan ja opetuksensa suunnittelussa, ja millaisia toiveita heillä ja Verkkokoulun parissa työskentelevillä tilastokeskuslaisilla on Verkkokoulun kehittämiseksi. Tämän lisäksi selvitetään Verkkokoulun käyttöä kävijäseurantapalvelun avulla. Tutkimuksella etsitään vastauksia siihen, miten Verkkokoulua voidaan kehittää käyttäjän kannalta paremmaksi palveluksi. Tutkimusongelmiin vastataan verkkokyselyllä, sähköpostihaastattelulla, teemahaastatteluilla ja kävijäseurantapalvelulla kerättyjen aineistojen kvalitatiivisella analyysillä. Matematiikan aineenopettajille tehty kyselylomake toteutettiin maaliskuussa 2009 ja haastattelut syksyn 2009 aikana. Kävijäseurantapalvelun tarkasteluajankohta on 1.9.2008–31.8.2009. Tutkimuksen tulosten mukaan Verkkokoulu tunnetaan huonosti matematiikan aineenopettajien keskuudessa. Verkkokoulun oppimateriaaleja käytetään enemmän opetuksen suunnitteluun kuin opetukseen. Opettajat toivovat etenkin arkielämälähtöisiä ja helposti käytettäviä opetuksen suunnitteluun soveltuvia palveluja, jotka soveltuvat myös perinteiseen luokkahuoneopetukseen. Tilastokeskuslaiset näkevät Verkkokoulun kehittämisen tarpeelliseksi, vaikkakin haastavaksi kehittämiseen tarvittavien resurssien vähyyden vuoksi. Heidän mukaansa Verkkokoulua tulisi päivittää ja laajentaa monipuolisilla oppimateriaalikokonaisuuksilla. Myös teknisen toteutuksen toivotaan uudistuvan. Kävijäseurantapalvelun aineiston mukaan Verkkokoulu on keskimääräistä käytetympi kuin Tilastokeskuksen verkkosivut kokonaisuudes- saan. Verkkokoulua käytetään enemmän yksittäisten asioiden tietojen tarkistamiseen kuin kokonaisuuksien opiskeluun. Johtopäätöksenä voidaan todeta, että Tilastokeskuksen Verkkokoulu on palvelu, joka käyttäjälähtöisen kehittämisen ja markkinoinnin myötä voi nousta merkittävään rooliin tilastoalan kouluttajana. Jotta tähän päästään, kehittämiseen on löydettävä riittävästi resursseja.
Resumo:
Large-scale chromosome rearrangements such as copy number variants (CNVs) and inversions encompass a considerable proportion of the genetic variation between human individuals. In a number of cases, they have been closely linked with various inheritable diseases. Single-nucleotide polymorphisms (SNPs) are another large part of the genetic variance between individuals. They are also typically abundant and their measuring is straightforward and cheap. This thesis presents computational means of using SNPs to detect the presence of inversions and deletions, a particular variety of CNVs. Technically, the inversion-detection algorithm detects the suppressed recombination rate between inverted and non-inverted haplotype populations whereas the deletion-detection algorithm uses the EM-algorithm to estimate the haplotype frequencies of a window with and without a deletion haplotype. As a contribution to population biology, a coalescent simulator for simulating inversion polymorphisms has been developed. Coalescent simulation is a backward-in-time method of modelling population ancestry. Technically, the simulator also models multiple crossovers by using the Counting model as the chiasma interference model. Finally, this thesis includes an experimental section. The aforementioned methods were tested on synthetic data to evaluate their power and specificity. They were also applied to the HapMap Phase II and Phase III data sets, yielding a number of candidates for previously unknown inversions, deletions and also correctly detecting known such rearrangements.
Resumo:
This thesis which consists of an introduction and four peer-reviewed original publications studies the problems of haplotype inference (haplotyping) and local alignment significance. The problems studied here belong to the broad area of bioinformatics and computational biology. The presented solutions are computationally fast and accurate, which makes them practical in high-throughput sequence data analysis. Haplotype inference is a computational problem where the goal is to estimate haplotypes from a sample of genotypes as accurately as possible. This problem is important as the direct measurement of haplotypes is difficult, whereas the genotypes are easier to quantify. Haplotypes are the key-players when studying for example the genetic causes of diseases. In this thesis, three methods are presented for the haplotype inference problem referred to as HaploParser, HIT, and BACH. HaploParser is based on a combinatorial mosaic model and hierarchical parsing that together mimic recombinations and point-mutations in a biologically plausible way. In this mosaic model, the current population is assumed to be evolved from a small founder population. Thus, the haplotypes of the current population are recombinations of the (implicit) founder haplotypes with some point--mutations. HIT (Haplotype Inference Technique) uses a hidden Markov model for haplotypes and efficient algorithms are presented to learn this model from genotype data. The model structure of HIT is analogous to the mosaic model of HaploParser with founder haplotypes. Therefore, it can be seen as a probabilistic model of recombinations and point-mutations. BACH (Bayesian Context-based Haplotyping) utilizes a context tree weighting algorithm to efficiently sum over all variable-length Markov chains to evaluate the posterior probability of a haplotype configuration. Algorithms are presented that find haplotype configurations with high posterior probability. BACH is the most accurate method presented in this thesis and has comparable performance to the best available software for haplotype inference. Local alignment significance is a computational problem where one is interested in whether the local similarities in two sequences are due to the fact that the sequences are related or just by chance. Similarity of sequences is measured by their best local alignment score and from that, a p-value is computed. This p-value is the probability of picking two sequences from the null model that have as good or better best local alignment score. Local alignment significance is used routinely for example in homology searches. In this thesis, a general framework is sketched that allows one to compute a tight upper bound for the p-value of a local pairwise alignment score. Unlike the previous methods, the presented framework is not affeced by so-called edge-effects and can handle gaps (deletions and insertions) without troublesome sampling and curve fitting.
Resumo:
This thesis studies human gene expression space using high throughput gene expression data from DNA microarrays. In molecular biology, high throughput techniques allow numerical measurements of expression of tens of thousands of genes simultaneously. In a single study, this data is traditionally obtained from a limited number of sample types with a small number of replicates. For organism-wide analysis, this data has been largely unavailable and the global structure of human transcriptome has remained unknown. This thesis introduces a human transcriptome map of different biological entities and analysis of its general structure. The map is constructed from gene expression data from the two largest public microarray data repositories, GEO and ArrayExpress. The creation of this map contributed to the development of ArrayExpress by identifying and retrofitting the previously unusable and missing data and by improving the access to its data. It also contributed to creation of several new tools for microarray data manipulation and establishment of data exchange between GEO and ArrayExpress. The data integration for the global map required creation of a new large ontology of human cell types, disease states, organism parts and cell lines. The ontology was used in a new text mining and decision tree based method for automatic conversion of human readable free text microarray data annotations into categorised format. The data comparability and minimisation of the systematic measurement errors that are characteristic to each lab- oratory in this large cross-laboratories integrated dataset, was ensured by computation of a range of microarray data quality metrics and exclusion of incomparable data. The structure of a global map of human gene expression was then explored by principal component analysis and hierarchical clustering using heuristics and help from another purpose built sample ontology. A preface and motivation to the construction and analysis of a global map of human gene expression is given by analysis of two microarray datasets of human malignant melanoma. The analysis of these sets incorporate indirect comparison of statistical methods for finding differentially expressed genes and point to the need to study gene expression on a global level.
Resumo:
Analyzing statistical dependencies is a fundamental problem in all empirical science. Dependencies help us understand causes and effects, create new scientific theories, and invent cures to problems. Nowadays, large amounts of data is available, but efficient computational tools for analyzing the data are missing. In this research, we develop efficient algorithms for a commonly occurring search problem - searching for the statistically most significant dependency rules in binary data. We consider dependency rules of the form X->A or X->not A, where X is a set of positive-valued attributes and A is a single attribute. Such rules describe which factors either increase or decrease the probability of the consequent A. A classical example are genetic and environmental factors, which can either cause or prevent a disease. The emphasis in this research is that the discovered dependencies should be genuine - i.e. they should also hold in future data. This is an important distinction from the traditional association rules, which - in spite of their name and a similar appearance to dependency rules - do not necessarily represent statistical dependencies at all or represent only spurious connections, which occur by chance. Therefore, the principal objective is to search for the rules with statistical significance measures. Another important objective is to search for only non-redundant rules, which express the real causes of dependence, without any occasional extra factors. The extra factors do not add any new information on the dependence, but can only blur it and make it less accurate in future data. The problem is computationally very demanding, because the number of all possible rules increases exponentially with the number of attributes. In addition, neither the statistical dependency nor the statistical significance are monotonic properties, which means that the traditional pruning techniques do not work. As a solution, we first derive the mathematical basis for pruning the search space with any well-behaving statistical significance measures. The mathematical theory is complemented by a new algorithmic invention, which enables an efficient search without any heuristic restrictions. The resulting algorithm can be used to search for both positive and negative dependencies with any commonly used statistical measures, like Fisher's exact test, the chi-squared measure, mutual information, and z scores. According to our experiments, the algorithm is well-scalable, especially with Fisher's exact test. It can easily handle even the densest data sets with 10000-20000 attributes. Still, the results are globally optimal, which is a remarkable improvement over the existing solutions. In practice, this means that the user does not have to worry whether the dependencies hold in future data or if the data still contains better, but undiscovered dependencies.
Resumo:
Ubiquitous computing is about making computers and computerized artefacts a pervasive part of our everyday lifes, bringing more and more activities into the realm of information. The computationalization, informationalization of everyday activities increases not only our reach, efficiency and capabilities but also the amount and kinds of data gathered about us and our activities. In this thesis, I explore how information systems can be constructed so that they handle this personal data in a reasonable manner. The thesis provides two kinds of results: on one hand, tools and methods for both the construction as well as the evaluation of ubiquitous and mobile systems---on the other hand an evaluation of the privacy aspects of a ubiquitous social awareness system. The work emphasises real-world experiments as the most important way to study privacy. Additionally, the state of current information systems as regards data protection is studied. The tools and methods in this thesis consist of three distinct contributions. An algorithm for locationing in cellular networks is proposed that does not require the location information to be revealed beyond the user's terminal. A prototyping platform for the creation of context-aware ubiquitous applications called ContextPhone is described and released as open source. Finally, a set of methodological findings for the use of smartphones in social scientific field research is reported. A central contribution of this thesis are the pragmatic tools that allow other researchers to carry out experiments. The evaluation of the ubiquitous social awareness application ContextContacts covers both the usage of the system in general as well as an analysis of privacy implications. The usage of the system is analyzed in the light of how users make inferences of others based on real-time contextual cues mediated by the system, based on several long-term field studies. The analysis of privacy implications draws together the social psychological theory of self-presentation and research in privacy for ubiquitous computing, deriving a set of design guidelines for such systems. The main findings from these studies can be summarized as follows: The fact that ubiquitous computing systems gather more data about users can be used to not only study the use of such systems in an effort to create better systems but in general to study phenomena previously unstudied, such as the dynamic change of social networks. Systems that let people create new ways of presenting themselves to others can be fun for the users---but the self-presentation requires several thoughtful design decisions that allow the manipulation of the image mediated by the system. Finally, the growing amount of computational resources available to the users can be used to allow them to use the data themselves, rather than just being passive subjects of data gathering.
Resumo:
This thesis studies optimisation problems related to modern large-scale distributed systems, such as wireless sensor networks and wireless ad-hoc networks. The concrete tasks that we use as motivating examples are the following: (i) maximising the lifetime of a battery-powered wireless sensor network, (ii) maximising the capacity of a wireless communication network, and (iii) minimising the number of sensors in a surveillance application. A sensor node consumes energy both when it is transmitting or forwarding data, and when it is performing measurements. Hence task (i), lifetime maximisation, can be approached from two different perspectives. First, we can seek for optimal data flows that make the most out of the energy resources available in the network; such optimisation problems are examples of so-called max-min linear programs. Second, we can conserve energy by putting redundant sensors into sleep mode; we arrive at the sleep scheduling problem, in which the objective is to find an optimal schedule that determines when each sensor node is asleep and when it is awake. In a wireless network simultaneous radio transmissions may interfere with each other. Task (ii), capacity maximisation, therefore gives rise to another scheduling problem, the activity scheduling problem, in which the objective is to find a minimum-length conflict-free schedule that satisfies the data transmission requirements of all wireless communication links. Task (iii), minimising the number of sensors, is related to the classical graph problem of finding a minimum dominating set. However, if we are not only interested in detecting an intruder but also locating the intruder, it is not sufficient to solve the dominating set problem; formulations such as minimum-size identifying codes and locating dominating codes are more appropriate. This thesis presents approximation algorithms for each of these optimisation problems, i.e., for max-min linear programs, sleep scheduling, activity scheduling, identifying codes, and locating dominating codes. Two complementary approaches are taken. The main focus is on local algorithms, which are constant-time distributed algorithms. The contributions include local approximation algorithms for max-min linear programs, sleep scheduling, and activity scheduling. In the case of max-min linear programs, tight upper and lower bounds are proved for the best possible approximation ratio that can be achieved by any local algorithm. The second approach is the study of centralised polynomial-time algorithms in local graphs these are geometric graphs whose structure exhibits spatial locality. Among other contributions, it is shown that while identifying codes and locating dominating codes are hard to approximate in general graphs, they admit a polynomial-time approximation scheme in local graphs.
Resumo:
Employees and students in University of Helsinki use various services which require authentication. Some of these services require strong authentication. Traditionally this has been realized by meeting in person and presenting an official identification card. Some of these online services can be automatized by implementing existing techniques for strong authentication. Currently strong authentication is implemented by VETUMA-service. Mobile authentication is interesting alternative method. The purpose of this paper is to study the Mobile Signature Service technology and to find out the benefits and possibilities of its use for mobile authentication in University of Helsinki. Mobile authentication is suitable method for implementing strong authentication and for signing documents digitally. Mobile authentication can be used in many different ways in Helsinki university.
Resumo:
Tässä työssä tutkitaan, miten vaatimusmäärittelydokumenttiin kirjatut vaatimukset kiinnittävät myöhemmissä ohjelmistokehitysprosessin vaiheissa tehtäviä käyttöliittymäratkaisuja. Lisäksi tutkitaan, jääkö käyttöliittymästä puuttumaan todellisissa käyttötilanteissa tarvittavia toimintoja, kun vaatimusmäärittely toteutetaan perinteisen vesiputousmallin mukaisesti. Tutkimuksessa tarkastellaan kahden Helsingin yliopiston ohjelmistotuotantoprojekti-kurssilla toteutetun opiskelijaprojektin tuotoksia. Tutkimuksessa selvitetään oppilaiden tuottamien käyttöliittymien keskeisimmät käyttöliittymäongelmat simulointitestaamalla käyttöliittymät. Testauksessa simuloitiin ohjelmiston kolme keskeisintä käyttötilannetta, jotka selvitettiin tekemällä kontekstuaalinen käyttäjähaastattelu yhdelle opettajatuutorille. Tämän jälkeen etsittiin, löytyvätkö ongelmien syyt ryhmien vaatimusmäärittelydokumentteihin kirjatuista käyttötapauskuvauksista tai muista vaatimuksista. Tämän työn keskeisimpinä tuloksina selvisi, että käyttötapaukset sitoivat aina toiminnon ja sen toteutuksen käyttöliittymässä, mutta vain pieni osa niistä kiinnitti käyttöliittymäratkaisuja haitallisesti. Vakavien tehokkuusongelmien ja järjestelmästä puuttuvan toiminnallisuuden syyt kuitenkin olivat nimenomaan vaatimusmäärittelydokumentin käyttötapauksissa. Muut vaatimukset kiinnittivät toimintoja niin korkealla tasolla, ettei niistä muodostunut ongelmallisia käyttöliittymäratkaisuja. Lisäksi havaittiin, että molemmista vaatimusmäärittelyistä oli jäänyt pois sellaisia toimintoja, joita oltaisiin tarvittu käyttötilanteen suorittamiseen tehokkaasti. Vaikuttaisi siltä, että vaatimusmäärittelyvaiheessa ei ole saatu selville käyttäjän todellisia käyttötilanteita, minkä seurauksena vaatimuksista on jäänyt pois oleellisia toimintoja.
Resumo:
Kulutuselektroniikka, matkapuhelin- ja tietotekniikka ovat viime vuosina lähentyneet toisiaan. Perinteisesti näitä tekniikoita vastaavat verkot, päätelaitteet ja sisältö ovat olleet erillisiä. Nykyään Internet-teknologia ja viestinnän digitalisoituminen yhdentää verkkoja. Palveluntarjoajat tuottavat sisältöä kasvavassa määrin digitaalisena. Päätelaitteetkin yhdentyvät. Esimerkiksi kannettavaa tietokonetta voidaan pitää matkapuhelimena tai televisiovastaanottimena, kun se on varustettu tarvittavalla laitteistolla ja ohjelmistolla. Sisältöjen, verkkojen ja päätelaitteiden yhdentyminen on saanut yhä useammat kuluttajat rakentamaan kotiverkkoja. Tutkielman tavoitteena on esitellä ja vertailla markkinoilla olevia laitteita ja ohjelmistoja, joiden avulla voidaan rakentaa toimiva kotiverkko. Kotiverkolla tarkoitetaan tässä tutkielmassa kodin sisäpuolista verkkoa, joka on liitetty toimivasti kodin ulkopuolisiin verkkoihin. Tutkielmassa tarkastellaan ensin yleisimpiä lähiverkko- ja lyhyen kantaman verkkotekniikoita, joita käytetään kotiverkkoja rakennettaessa. Tämän jälkeen tarkastellaan joitakin väliohjelmistoratkaisuja, joilla voidaan hallita kotiverkon laitteiden vuorovaikutusta ja turvallisuutta. Lopuksi suunnitellaan konkreettinen kotiverkko. Käyttötilanteiden avulla havainnollistaan verkkotekniikoiden ja väliohjelmiston yhteistoimintaa tietoliikenteen hallinnassa.
Resumo:
Scrum-prosessimalli jättää menettelyt ohjelmiston käyttöliittymän tuottamiseen auki ja käyttöliittymä syntyy pahimmillaan toimintolistan pohjalta ohjelmoinnin sivutuotteena. Näin syntynyt järjestelmä soveltuu suurella riskillä huonosti käyttötarkoitukseensa. Tässä tutkielmassa analysoitiin Scrum-prosessimallin käyttöliittymäriskikohtia, joita löytyi kolme: asiakkaan toivomat ominaisuudet päätyvät sellaisinaan ohjelmiston vaatimuksiksi, toimintolistan pohjalta syntyy käytettävyydeltään heikkoja käyttöliittymäratkaisuja ja käyttöliittymän arviointi sprintin katselmoinnissa tuottaa epäluotettavia tuloksia. Tutkielmassa käsitellään Scrum-prosessimallin käyttöliittymäriskien minimointia simulointipohjaisella GDD-käyttöliittymäsuunnittelulla. Riskien minimointia tarkastellaan esimerkkitapauksen avulla, jossa ohjelmistoyritys Reaktor toteutti ammattikorkeakoulun toiminnansuunnittelujärjestelmän vuosisuunnitteluosion. Esimerkkitapauksessa Scrumin käyttöliittymäriskit saatiin minimoitua selvittämällä loppukäyttäjien käyttötilanteet kontekstuaalisilla haastatteluilla, suunnittelemalla käyttöliittymä GDD-menetelmällä ja arvioimalla käyttöliittymää hyödyllisyysläpikäynneillä. Alkuperäisessä Scrumissa liiketoiminnallisesta kannattavuudesta vastaava tuotteen omistaja ja toteutustiimi ottavat vastuulleen myös käyttöliittymän toimintalogiikan. GDD:n myötä vastuu toimintalogiikasta siirretään käyttöliittymäsuunnittelijalle, jolloin Scrumin roolit muuttuvat. Tässä työssä käsitellään GDD-käyttöliittymäsuunnittelun tuomat muutokset Scrumin rooleihin ja käytäntöihin. Scrumin käyttöliittymäriskien minimoinnin jälkeen toteutusvaiheeseen jää vielä Scrumista riippumattomia käyttöliittymäriskejä. Tämän työn esimerkkitapauksessa keskeisin näistä oli käyttöliittymätoteutukseen päätyneet puutteelliset interaktiot. Riski eliminoitiin hyväksymismenettelyllä, jossa ohjelmoija antaa toteutetun ominaisuuden käyttöliittymäsuunnittelijalle tarkistettavaksi. Hyväksymismenettelyn avulla projektin työnjako selkiytyi, toteutustyön laatu parani ja toteutustiimin ja käyttöliittymäsuunnittelijoiden välinen kommunikaatio tehostui.
Resumo:
Testaus ketterissä menetelmissä (agile) on kirjallisuudessa heikosti määritelty, ja yritykset toteuttavat laatu- ja testauskäytäntöjä vaihtelevasti. Tämän tutkielman tavoitteena oli löytää malli testauksen järjestämiseen ketterissä menetelmissä. Tavoitetta lähestyttiin keräämällä kirjallisista lähteistä kokemuksia, vaihtoehtoja ja malleja. Löydettyjä tietoja verrattiin ohjelmistoyritysten käytännön ratkaisuihin ja näkemyksiin, joita saatiin suorittamalla kyselytutkimus kahdessa Scrum-prosessimallia käyttävässä ohjelmistoyrityksessä. Kirjallisuuskatsauksessa selvisi, että laatusuunnitelman ja testausstrategian avulla voidaan tunnistaa kussakin kontekstissa tarvittavat testausmenetelmät. Menetelmiä kannattaa tarkastella ja suunnitella iteratiivisten prosessien aikajänteiden (sydämenlyönti, iteraatio, julkaisu ja strateginen) avulla. Tutkimuksen suurin löytö oli, että yrityksiltä puuttui laajempi ja suunnitelmallinen näkemys testauksen ja laadun kehittämiseen. Uusien laatu- ja testaustoimenpiteiden tarvetta ei analysoitu järjestelmällisesti, olemassa olevien käyttöä ei kehitetty pitkäjänteisesti, eikä yrityksillä ollut kokonaiskuvaa tarvittavien toimenpiteiden keskinäisistä suhteista. Lisäksi tutkimuksessa selvisi, etteivät tiimit kyenneet ottamaan vastuuta laadusta, koska laatuun liittyviä toimenpiteitä tehdään iteraatioissa liian vähän. Myös Scrum-prosessimallin noudattamisessa oli korjaamisen varaa. Yritykset kuitenkin osoittivat halua ja kykyä kehittää toimintaansa ongelmien tunnistamisen jälkeen. ACM Computing Classification System (CCS 1998): D.2.5 Testing and Debugging, D.2.9 Management, K.6.1 Project and People Management, K.6.3 Software Management
Resumo:
Tässä työssä arvioidaan kenttätutkimusaineiston hyödyntämisen etuja käyttöliittymäsuunnittelussa. Tulokset perustuvat kahden samasta ohjelmasta eri tavalla suunnitellun käyttöliittymän arviointiin. Käytettävissä on aikaisemmin suunniteltu käyttöliittymä ja tässä työssä suunniteltava uusi käyttöliittymä, jonka suunnittelussa hyödynnetään kenttätutkimuksesta saatua aineistoa. Aluksi tässä työssä käydään läpi kenttätutkimuksen perusteet, tehdään suunnitelma kenttätutkimuksesta ja käydään tekemässä käyttäjien työtiloissa kenttätutkimusta kontekstuaalisen haastattelun menetelmän mukaisesti. Seuraavaksi käydään läpi käyttöliittymäsuunnittelun teoriaa, esitellään tässä työssä käytettävä GDDsuunnittelumenetelmä ja tehdään sen tarvitsemat tavoitepohjaiset käyttötapaukset kenttätutkimusaineiston pohjalta. Tämän jälkeen simuloidaan uusi käyttöliittymä käyttäen ainoastaan kenttätutkimuksesta saatua aineistoa. Lopuksi simuloitua ja aiemmin suunniteltua käyttöliittymää arvioidaan oikeilla käyttäjillä läpikäyntipalavereissa ja analysoidaan tulokset. Tuloksissa osoitetaan miten todellisten käyttötilanteiden simulointi tuottaa erilaisia käyttöliittymäratkaisuja verrattuna toimintojen toteuttamiseen. Käyttöliittymäratkaisujen ongelmien pohjalta todetaan, että on hyvin tärkeää ymmärtää käyttäjien todellinen työprosessi. Pelkästään kaikkien tarpeellisten toimintojen toteuttaminen ei takaa hyvää käyttöliittymää. On tärkeää miten toiminnot ja tietosisältö on aseteltu käyttöliittymään. Simuloinnissa ne suunnitellaan käyttöliittymään käyttäjien työn kannalta paremmassa järjestyksessä. Tämä nopeuttaa käyttäjien työskentelyä ja parantaa opittavuutta, koska tietoa ja toiminnallisuutta ei tarvitse etsiä käyttöliittymästä. Tekstin lopussa arvioidaan tässä työssä käytettyjen menetelmien soveltamista käytäntöön käyttöliittymäsuunnitteluprosessiin käytetyn ajan ja läpikäyntipalaverien analyysin perusteella.
Resumo:
Julkisen avaimen menetelmä on ollut käytössä Suomessa jo jonkin aikaa esimerkiksi HST-korteilla, joissa on Väestörekisterikeskuksen myöntämä kansalaisvarmenne. Kansalaisvarmenteella voidaan tehdä mm. laillisesti sitovia digitaalisia allekirjoituksia ja salata sähköpostia. Viime aikoina myös eri matkapuhelinoperaattorit ovat alkaneet tarjota mobiilia kansalaisvarmennetta, jossa salainen avain on sijoitettu matkapuhelimen SIM-kortille. Tässä pro gradu -työssä kuvataan ensin julkisen avaimen menetelmä ja sen käyttöalueet. Lisäksi mainitaan muutamia julkisen avaimen algoritmeja ja julkisen avaimen menetelmiin liittyviä ongelmia. Tämän jälkeen kuvataan ETSI:n MSS-määritys. ETSI:n MSS-määritys kuvaa palvelun rajapinnan, jossa loppukäyttäjältä pyydetään digitaalinen allekirjoitus. Lopuksi kuvataan Valimo Wireless Oy:n toteutus ETSI:n MSS-määrityksestä.
Resumo:
Tuomioistuimissa käsiteltävissä rikosasioissa tulee usein eteen tilanteita, joissa rikokseen sovellettava lainsäädäntö on rikoksen tekohetken jälkeen joiltain osin muuttunut. Suomessa on vakiintuneesti katsottu, että tällöin sovelletaan pääsääntöisesti rikoksen tekohetken lakia. Jos lainsäädäntö on muuttunut syytetylle edullisemmaksi, tulee kuitenkin tämä tuomitsemishetken lievempi laki sovellettavaksi. Tätä kutsutaan siis rikosoikeuden lievemmän lain periaatteeksi. Sääntö on perusajatukseltaan yksinkertainen, mutta siihen liittyy monia kysymyksiä, joihin lain sanamuoto ei anna vastausta. Tämän kirjoituksen tarkoitus on tuoda esiin näitä kysymyksiä, ja mahdollisimman paljon pyrkiä myös vastaamaan niihin. Lievemmän lain periaatteen soveltamisen ulkopuolelle jäävät lain mukaan määräaikaisiksi tarkoitetut kriminalisoinnit sekä blankorangaistussäännökset. Myös prosessuaaliset seikat on jätetty periaatteen soveltamisalan ulkopuolelle, joitain syyteoikeutta koskevia poikkeuksia lukuun ottamatta. Lakien vertailu tehdään kussakin yksittäistapauksessa erikseen. Tuomioistuimen tulee suorittaa huolellinen soveltamiskoe ja ratkaista asia kokeellisesti kummankin sääntelyn mukaan. Soveltamiskokeessa joudutaan usein arvioimaan tunnusmerkistöissä ja määritelmissä tai yleisissä opeissa tapahtuneita muutoksia. Lopputulosten vertailussa tarkasteltavaksi tulevat niin päärangaistus kuin mahdolliset oheisseuraamukset ja turvaamistoimenpiteetkin. Erimielisyyttä vallitsee kuitenkin siitä, tuleeko ratkaisussa soveltaa vain toisen ajan lainsäädäntöä, vai voidaanko eri aikoina voimassa olleista lainsäädännöistä poimia syytetylle edullisempia palasia ja soveltaa niitä yhdessä. Itse olen sitä mieltä, että tuomioistuimen olisi valittava joko tekohetken tai tuomitsemishetken lainsäädäntö ja sovellettava sitä kokonaisuutena. KP -sopimuksen 15 artikla edellyttää periaatteen soveltamista myös muutoksenhaussa. Näyttäisi siltä, että joissain tapauksissa periaatetta olisi sovellettava vielä lainvoimaisen tuomion täytäntöönpanossakin.