984 resultados para tieto- ja viestintätekniikka
Resumo:
Low Level Virtual Machine (LLVM) on moderni koko ohjelman elinkaaren optimointeihin keskittyvä kääntäjäarkkitehtuuri. Java-virtuaalikone on puolestaan suosittu korkean tason virtuaalikone, johon monien ohjelmointikielten toteutus nykyään perustuu. Tutkielmassa esitellään alun perin suorituskykyisen C- ja C++-kääntäjän toteuttamiseksi luotu LLVM-järjestelmä ja arvioidaan, miten hyvin LLVM-infrastruktuuri tukee Java-virtuaalikoneen toteuttamista. Tämän lisäksi tutkielmassa pohditaan, miten dynaamisten kielten usein tarvitsemaa suoritusaikaista ja lähdekieliriippuvaista optimointia voidaan tukea lähdekieliriippumattomassa LLVM-järjestelmässä. Lopuksi tutkielmassa esitellään kehitysehdotelma yleisen roskienkeruuinfrastruktuurin toteuttamiseksi LLVM:ssä, mikä tukisi dynaamista muistia automaattisesti hallitsevien kielten, kuten Javan ja sen virtuaalikoneen toteuttamista.
Resumo:
Data-assimilaatio on tekniikka, jossa havaintoja yhdistetään dynaamisiin numeerisiin malleihin tarkoituksena tuottaa optimaalista esitystä esimerkiksi ilmankehän muuttuvasta tilasta. Data-assimilaatiota käytetään muun muassa operaativisessa sään ennustamisessa. Tässä työssä esitellään eri data-assimilaatiomenetelmiä, jotka jakautuvat pääpiirteittäin Kalmanin suotimiin ja variaatioanaalisiin menetelmiin. Lisäksi esitellään erilaisia data-assimilaatiossa tarvittavia apuvälineitä kuten optimointimenetelmiä. Eri data-assimilaatiomenetelmien toimintaa havainnollistetaan esimerkkien avulla. Tässä työssä data-assimilaatiota sovelletaan muun muassa Lorenz95-malliin. Käytännön data-assimilaatio-ongelmana on GOMOS-instrumentista saatavan otsonin assimiloiminen käyttäen hyväksi ROSE-kemiakuljetusmallia.
Resumo:
Tutkimuksen tarkoituksena oli selvittää ja kuvailla sairaanhoitajaopiskelijoiden matemaattisia taitoja ennen ja jälkeen lääkelaskennan opetuksen. Tutkimuksessa selvitettiin, johtuvatko sairaanhoitajaopiskelijoiden lääkelaskennan kokeessa tapahtuvat virheet opiskelijoiden puutteellisista matemaattisista taidoista vai matematiikasta lääkelaskennan yhteydessä, ilmenikö ammattikoulu- ja ylioppilastutkinnon suorittaneiden opiskelijoiden välillä eroa tehtävissä suoriutumisen ja kokeesta läpipääsyn suhteen. Tutkimus suoritettiin kahdessa vaiheessa. Ennen lääkelaskennan opetusta opiskelijat täyttivät laskutaitojen kartoitus lähtö-tasotestin ja lääkelaskennan opetuksen päätteeksi arvioitiin opiskelijoiden koevastauspapereita. Tutkimuksessa oli mukana sekä ammattikoulun että lukion suorittaneita sairaanhoitajaopiskelijoita. Analysoidessa käytettiin keskiarvoja, hajontaa, frekvenssejä ja graafisia kuvioita kuvaamaan aineistoa. Tutkimuksen mukaan sairaanhoitajaopiskelijoilla on puutteelliset peruslaskutaidot. Lähtötasotestin vastauksista keskimäärin kaksi kolmasosaa oli oikein, muihin opiskelijat olivat jättäneet vastaamatta tai olivat laskeneet väärin. Eniten vastaamatta jätettiin desimaali- ja murtolukujen jakolaskuihin sekä prosentin, desimaaliluvun ja murtoluvun yhteyttä käsittelevään tehtävään. Ratkaistuista tehtävistä viidennes oli väärin. Vain yksi opiskelija laski kaikki lähtötasotestin tehtävät oikein. Paras neljännes sai vähintään 78 prosenttia vastauksistaan oikein. Ongelmia tuottivat desimaali- ja murtolukulaskut sekä yksikönmuunnoksista mikrogramman muuttaminen grammoiksi. Peruslaskutoimituksista yhteenlaskut sujuivat opiskelijoilta parhaiten, jakolaskut tuottivat opiskelijoille eniten vaikeuksia. Sanallisiin tehtävissä neljännes teki virheen. Virheistä yli puolet johtui siitä, ettei yhtälöä oltu osattu muodostaa lainkaan tai se oli muodostettu väärin. Kaksi viidesosaa käytti sanallisten tehtävien ratkaisutapanaan verrantoa ja kaksi viidesosaa annoskaava- tai prosenttikerroinajattelua. Päättelemällä tehtävät ratkaisi vajaa viidennes opiskelijoista. Lääkelaskennan kokeet läpäisi neljännes opiskelijoista. Kolmannes virheistä johtui siitä, ettei tehtävää oltu aloitettu oikein. Neljännes niistä, ettei opiskelijat osanneet antaa vastausta halutussa muodossa, tai jokin tehtävän oleellinen tieto oli jäänyt huomioimatta ja siten vastaus jäänyt vaillinaiseksi. Viidennes virheistä johtui kerto- tai jakolaskuvirheestä. Kaksi kolmasosaa virheistä oli käsitteellisiä, neljännes laskuvirheitä ja joka kymmenes liittyi yksikönmuunnoksiin. Lääkelaskennan kokeissa puolet käytti ratkaisutapanaan verrantoa. Koulutustaustalla ei ilmennyt vaikutusta tehtävissä suoriutumiseen ja kokeiden läpipääsyyn. Opettajia suositellaan käyttämään lääkelaskennan opetuksessa matematiikan apuvälineitä tehtävien havainnollistamiseksi.
Resumo:
Event-based systems are seen as good candidates for supporting distributed applications in dynamic and ubiquitous environments because they support decoupled and asynchronous many-to-many information dissemination. Event systems are widely used, because asynchronous messaging provides a flexible alternative to RPC (Remote Procedure Call). They are typically implemented using an overlay network of routers. A content-based router forwards event messages based on filters that are installed by subscribers and other routers. The filters are organized into a routing table in order to forward incoming events to proper subscribers and neighbouring routers. This thesis addresses the optimization of content-based routing tables organized using the covering relation and presents novel data structures and configurations for improving local and distributed operation. Data structures are needed for organizing filters into a routing table that supports efficient matching and runtime operation. We present novel results on dynamic filter merging and the integration of filter merging with content-based routing tables. In addition, the thesis examines the cost of client mobility using different protocols and routing topologies. We also present a new matching technique called temporal subspace matching. The technique combines two new features. The first feature, temporal operation, supports notifications, or content profiles, that persist in time. The second feature, subspace matching, allows more expressive semantics, because notifications may contain intervals and be defined as subspaces of the content space. We also present an application of temporal subspace matching pertaining to metadata-based continuous collection and object tracking.
Resumo:
This thesis studies human gene expression space using high throughput gene expression data from DNA microarrays. In molecular biology, high throughput techniques allow numerical measurements of expression of tens of thousands of genes simultaneously. In a single study, this data is traditionally obtained from a limited number of sample types with a small number of replicates. For organism-wide analysis, this data has been largely unavailable and the global structure of human transcriptome has remained unknown. This thesis introduces a human transcriptome map of different biological entities and analysis of its general structure. The map is constructed from gene expression data from the two largest public microarray data repositories, GEO and ArrayExpress. The creation of this map contributed to the development of ArrayExpress by identifying and retrofitting the previously unusable and missing data and by improving the access to its data. It also contributed to creation of several new tools for microarray data manipulation and establishment of data exchange between GEO and ArrayExpress. The data integration for the global map required creation of a new large ontology of human cell types, disease states, organism parts and cell lines. The ontology was used in a new text mining and decision tree based method for automatic conversion of human readable free text microarray data annotations into categorised format. The data comparability and minimisation of the systematic measurement errors that are characteristic to each lab- oratory in this large cross-laboratories integrated dataset, was ensured by computation of a range of microarray data quality metrics and exclusion of incomparable data. The structure of a global map of human gene expression was then explored by principal component analysis and hierarchical clustering using heuristics and help from another purpose built sample ontology. A preface and motivation to the construction and analysis of a global map of human gene expression is given by analysis of two microarray datasets of human malignant melanoma. The analysis of these sets incorporate indirect comparison of statistical methods for finding differentially expressed genes and point to the need to study gene expression on a global level.
Resumo:
The metabolism of an organism consists of a network of biochemical reactions that transform small molecules, or metabolites, into others in order to produce energy and building blocks for essential macromolecules. The goal of metabolic flux analysis is to uncover the rates, or the fluxes, of those biochemical reactions. In a steady state, the sum of the fluxes that produce an internal metabolite is equal to the sum of the fluxes that consume the same molecule. Thus the steady state imposes linear balance constraints to the fluxes. In general, the balance constraints imposed by the steady state are not sufficient to uncover all the fluxes of a metabolic network. The fluxes through cycles and alternative pathways between the same source and target metabolites remain unknown. More information about the fluxes can be obtained from isotopic labelling experiments, where a cell population is fed with labelled nutrients, such as glucose that contains 13C atoms. Labels are then transferred by biochemical reactions to other metabolites. The relative abundances of different labelling patterns in internal metabolites depend on the fluxes of pathways producing them. Thus, the relative abundances of different labelling patterns contain information about the fluxes that cannot be uncovered from the balance constraints derived from the steady state. The field of research that estimates the fluxes utilizing the measured constraints to the relative abundances of different labelling patterns induced by 13C labelled nutrients is called 13C metabolic flux analysis. There exist two approaches of 13C metabolic flux analysis. In the optimization approach, a non-linear optimization task, where candidate fluxes are iteratively generated until they fit to the measured abundances of different labelling patterns, is constructed. In the direct approach, linear balance constraints given by the steady state are augmented with linear constraints derived from the abundances of different labelling patterns of metabolites. Thus, mathematically involved non-linear optimization methods that can get stuck to the local optima can be avoided. On the other hand, the direct approach may require more measurement data than the optimization approach to obtain the same flux information. Furthermore, the optimization framework can easily be applied regardless of the labelling measurement technology and with all network topologies. In this thesis we present a formal computational framework for direct 13C metabolic flux analysis. The aim of our study is to construct as many linear constraints to the fluxes from the 13C labelling measurements using only computational methods that avoid non-linear techniques and are independent from the type of measurement data, the labelling of external nutrients and the topology of the metabolic network. The presented framework is the first representative of the direct approach for 13C metabolic flux analysis that is free from restricting assumptions made about these parameters.In our framework, measurement data is first propagated from the measured metabolites to other metabolites. The propagation is facilitated by the flow analysis of metabolite fragments in the network. Then new linear constraints to the fluxes are derived from the propagated data by applying the techniques of linear algebra.Based on the results of the fragment flow analysis, we also present an experiment planning method that selects sets of metabolites whose relative abundances of different labelling patterns are most useful for 13C metabolic flux analysis. Furthermore, we give computational tools to process raw 13C labelling data produced by tandem mass spectrometry to a form suitable for 13C metabolic flux analysis.
Resumo:
Employees and students in University of Helsinki use various services which require authentication. Some of these services require strong authentication. Traditionally this has been realized by meeting in person and presenting an official identification card. Some of these online services can be automatized by implementing existing techniques for strong authentication. Currently strong authentication is implemented by VETUMA-service. Mobile authentication is interesting alternative method. The purpose of this paper is to study the Mobile Signature Service technology and to find out the benefits and possibilities of its use for mobile authentication in University of Helsinki. Mobile authentication is suitable method for implementing strong authentication and for signing documents digitally. Mobile authentication can be used in many different ways in Helsinki university.
Resumo:
Tutkielmassa vertaillaan kahta käyttöliittymien arviointimenetelmää, käytettävyystestausta (usability testing) ja käyttöliittymän läpikäyntiä (pluralistic usability walkthrough). Vertailu tehdään tutkimalla kummallakin menetelmällä samaa käyttöliittymää, opettajien kurssinhallintatyökalua OpeOodia. Arvioinneissa käytettävät testitehtävät perustuvat haastatteluilla selvitettyihin todellisiin käyttötilanteisiin. Käyttöliittymän ongelmat luokitellaan käytettävyystekijöiden ja vakavuuden mukaan. Ongelmat esitetään myös näytöittäin. Työssä etsitään menetelmillä löytyvien ongelmien eroja ja pohditaan syitä niihin. Tutkimuksen perusteella menetelmät näyttävät täydentävän toisiaan, käyttöliittymän läpikäynnillä saadaan yksityiskohtaista tietoa käsitellyistä näytöistä, mutta käytettävyystestauksella voidaan tutkia suurempi osa järjestelmästä.
Resumo:
The vastly increased popularity of the Internet as an effective publication and distribution channel of digital works has created serious challenges to enforcing intellectual property rights. Works are widely disseminated on the Internet, with and without permission. This thesis examines the current problems with licence management and copy protection and outlines a new method and system that solve these problems. The WARP system (Works, Authors, Royalties, and Payments) is based on global registration and transfer monitoring of digital works, and accounting and collection of Internet levy funded usage fees payable to the authors and right holders of the works. The detection and counting of downloads is implemented with origrams, short and original parts picked from the contents of the digital work. The origrams are used to create digests, digital fingerprints that identify the piece of work transmitted over the Internet without the need to embed ID tags or any other easily removable metadata in the file.