132 resultados para OWL <Informatik>
Resumo:
This paper is focusing IT-supported real-time formative feedback in a classroom context. The development of a Student and Teacher Response System (STRS) is described. Since there are a number of obstacles for effective interaction in large classes, IT can be used to support the teachers aim to find out if students understand the lecture and accordingly adjust the content and design of the lecture. The system can be used for formative assessment before, during, and after a lecture. It is also possible for students to initiate interaction during lectures by posing questions anonymously. The main contributions of the paper are a) the description of the interactive real-time system and b) the development process behind it.
Resumo:
With the rapid advancement of the webtechnology, more and more educationalresources, including software applications forteaching/learning methods, are available acrossthe web, which enables learners to access thelearning materials and use various ways oflearning at any time and any place. Moreover,various web-based teaching/learning approacheshave been developed during the last decade toenhance the capability of both educators andlearners. Particularly, researchers from bothcomputer science and education are workingtogether, collaboratively focusing ondevelopment of pedagogically enablingtechnologies which are believed to improve theinfrastructure of education systems andprocesses, including curriculum developmentmodels, teaching/learning methods, managementof educational resources, systematic organizationof communication and dissemination ofknowledge and skills required by and adapted tousers. Despite of its fast development, however,there are still great gaps between learningintentions, organization of supporting resources,management of educational structures,knowledge points to be learned and interknowledgepoint relationships such as prerequisites,assessment of learning outcomes, andtechnical and pedagogic approaches. Moreconcretely, the issues have been widelyaddressed in literature include a) availability andusefulness of resources, b) smooth integration ofvarious resources and their presentation, c)learners’ requirements and supposed learningoutcomes, d) automation of learning process interms of its schedule and interaction, and e)customization of the resources and agilemanagement of the learning services for deliveryas well as necessary human interferences.Considering these problems and bearing in mindthe advanced web technology of which weshould make full use, in this report we willaddress the following two aspects of systematicarchitecture of learning/teaching systems: 1)learning objects – a semantic description andorganization of learning resources using the webservice models and methods, and 2) learningservices discovery and learning goals match foreducational coordination and learning serviceplanning.
Resumo:
De flesta har i sin närhet någon som drabbats av cancer och sjukdomsfallen har ökat genom åren. Den yrkesgrupp som ställer diagnos av denna sjukdom är patologer. Bristen på patologer är idagsläget stor och det finns därför ett behov av att finna effektiva lösningar för att möta denna brist och en ökande mängd patienter. För att digitalisera vävnadsproven som diagnostiseras, scannas dessa in med en glasscanner. Dessa digitala bildfiler kan sedan visas i ett bildvisningsprogram och delas digitalt mellan patologer på distans. Detta begrepp kallas för telepatologi. Studien utgår utifrån följande frågeställningar: Vilka krav är väsentliga och bör ingå i en utvärdering för bildvisningsprogram avsedda för diagnostik inom telepatologi? Vilket bildvisningsprogram är mest lämpat att implementeras i ett webbaserat system baserat på dessa väsentliga krav? Syftet med studien är att undersöka vilka krav som är väsentliga och bör ingå i en utvärdering av bildvisningsprogram avsedda för diagnostik inom telepatologi, samt att utföra en utvärdering av ett urval bildvisningsprogramvaror med hjälp av dessa krav. En fallstudie genomfördes med datainsamlingsmetoderna: intervjuer med två personer från studiens samarbetspartner CGM, Frågeformulär där Sveriges patologer var respondenter samt dokumentstudier för att samla in information gällande bildvisningsprogrammen. Studien tillämpar utvalda delar ur Anders G. Nilssons SIV-metod som tillvägagångsätt för att samla in krav samt för att göra ett urval av bildvisningsprogram som sedan utvärderas gentemot dessa krav. Resultaten av datainsamlingarna analyserades och ledde till ett kravdokument med väsentliga krav.Tre så kallade utslagsgivande faktorer bland dessa krav var att bildvisningsprogrammet måste vara webbaserat utan installation på klient, funktioner för in- och ut-zoomning samt panorering måste finnas. Utvärderingen av utvalda bildvisningsprogram visade slutligen att OpenSlide var mest lämpad att implementeras i ett webbaserat system.
Resumo:
An administrative border might hinder the optimal allocation of a given set of resources by restricting the flow of goods, services, and people. In this paper we address the question: Do administrative borders lead to poor accessibility to public service such as hospitals? In answering the question, we have examined the case of Sweden and its regional borders. We have used detailed data on the Swedish road network, its hospitals, and its geo-coded population. We have assessed the population’s spatial accessibility to Swedish hospitals by computing the inhabitants’ distance to the nearest hospital. We have also elaborated several scenarios ranging from strongly confining regional borders to no confinements of borders and recomputed the accessibility. Our findings imply that administrative borders are only marginally worsening the accessibility.
Resumo:
To finance transportation infrastructure and to address social and environmental negative externalities of road transports, several countries have recently introduced or consider a distance based tax on trucks. In the competitive retail market such tax can be expected to lower the demand and thereby reduce CO2 emissions of road transports. However, as we show in this paper, such tax might also slow down the transition towards e-tailing. Considering that previous research indicates that a consumer switching from brick-and-mortar shopping to e-tailing reduces her CO2 emissions substantially, the direction and magnitude of the environmental net effect of the tax is unclear. In this paper, we assess the net effect in a Swedish regional retail market where the tax not yet is in place. We predict the net effect on CO2 emissions to be positive, but off-set by about 50% because of a slower transition to e-tailing.
Resumo:
Forskningen visar att förändringar av informationsteknologin och en ökande anskaffning av nya programvaror har lett till underliggande problem som kan drabba heterogena programvarulicensmiljöer och stora organisationer. Underliggande problem i den stora kontexten är mjukvaruhantering. Licenshantering av programvaror är just en förgrening av det stora problemet. Stora organisationer som en kommunal verksamhet är drabbad av det här underliggande problemet på grund av komplexitet hos organisationens miljö. Att tillämpa förändringar i området programvarulicens är omöjligt utan att göra förändringar i hela den organisationsprocess som följer med det. Fallstudiens uppdrag är ett nytt omfattande område kring licenshantering av programvaror som kan vara väldigt lärorikt och en bra erfarenhet att ta del av. Uppsatsen beskriver hur en kommunal verksamhets licenshantering av programvaror ser ut och de problem som finns med den nuvarande licenshanteringsprocessen. Förarbetet med en litteraturstudie tillsammans med datagenereringsmetoderna intervjuer, dokumentstudier och observationer används för att studera fallet på djupet. Målet är att kunna ta fram de nuvarande problem som finns, analysera dem och ge rekommendation för åtgärder som det studerade fallobjektet, Falu Kommuns IT-kontor, kan använda. En rekommendation för en tydlig licenshanteringsprocessmodell anses vara ett bra akademiskt bidrag eftersom problemet med licenshanteringen av programvaror är ett generellt problem. Uppsatsens resultat är en processmodell om licenshantering av programvaror för organisationer med IT-tjänstkunder. Det är en generisk lösning som skulle kunna användas av andra kommunverksamheter och liknande organisationer.
Resumo:
Semantiska webben är ett begrepp som handlar om att göra data tillgängligt på ett sätt som gör att datorer kan söka, tolka och sätta data i ett sammanhang. Då mycket av datalagring idag sker i relationsdatabaser behövs nya sätt att omvandla och lagra data för att det ska vara tillgängligt för den semantiska webben.Forskning som genomförts har visat att transformering av data från relationsdatabaser till RDF som är det format som gör data sökbart på semantiska webben är möjlig men det finns idag ingen standardisering för hur detta ska ske.För att data som transformeras ska få rätt betydelse i RDF så krävs ontologier som beskriver olika begrepps relationer. Nationella vägdatabasen (NVDB) är en relationsdatabas som hantera geospatiala data som används i olika geografiska informationssystem (GIS). För samarbetspartnern Triona var det intressant att beskriva hur denna typ av data kan omvandlas för att passa den semantiska webben.Syftet var att analysera hur man överför geospatiala data från en relationsdatabas till den semantiska webben. Målet med studien var att skapa en modell för hur man överför geospatiala data till i en relationsdatabas till en RDF-lagring och hur man skapar en ontologi som passar för NVDB’s data och datastruktur.En fallstudie genomfördes med dokumentstudier utifrån en inledande litteraturstudie.En ontologi skapades för det specifika fallet och utifrån detta skapades en modell för hur man överför geospatiala data från NVDB till RDF via programvaran TripleGeo. Analysen har skett genom att transformerad data har analyserats med hjälp av befintlig teori om RDF och dess struktur och sedan jämföra och se så att data får rätt betydelse. Resultatet har också validerats genom att använda W3C’s tjänst för att validera RDF.Resultatet visar hur man transformerar data från en relationsdatabas med geospatiala data till RDF samt hur en ontologi för detta skapats. Resultatet visar också en modell som beskriver hur detta utförs och kan ses som ett försök till att generalisera och standardisera en metod för att överföra geospatiala data till RDF.
Resumo:
Internet of Things är ett samlingsbegrepp för den utveckling som innebär att olika typer av enheter kan förses med sensorer och datachip som är uppkopplade mot internet. En ökad mängd data innebär en ökad förfrågan på lösningar som kan lagra, spåra, analysera och bearbeta data. Ett sätt att möta denna förfrågan är att använda sig av molnbaserade realtidsanalystjänster. Multi-tenant och single-tenant är två typer av arkitekturer för molnbaserade realtidsanalystjänster som kan användas för att lösa problemen med hanteringen av de ökade datamängderna. Dessa arkitekturer skiljer sig åt när det gäller komplexitet i utvecklingen. I detta arbete representerar Azure Stream Analytics en multi-tenant arkitektur och HDInsight/Storm representerar en single-tenant arkitektur. För att kunna göra en jämförelse av molnbaserade realtidsanalystjänster med olika arkitekturer, har vi valt att använda oss av användbarhetskriterierna: effektivitet, ändamålsenlighet och användarnöjdhet. Vi kom fram till att vi ville ha svar på följande frågor relaterade till ovannämnda tre användbarhetskriterier: • Vilka likheter och skillnader kan vi se i utvecklingstider? • Kan vi identifiera skillnader i funktionalitet? • Hur upplever utvecklare de olika analystjänsterna? Vi har använt en design and creation strategi för att utveckla två Proof of Concept prototyper och samlat in data genom att använda flera datainsamlingsmetoder. Proof of Concept prototyperna inkluderade två artefakter, en för Azure Stream Analytics och en för HDInsight/Storm. Vi utvärderade dessa genom att utföra fem olika scenarier som var för sig hade 2-5 delmål. Vi simulerade strömmande data genom att låta en applikation kontinuerligt slumpa fram data som vi analyserade med hjälp av de två realtidsanalystjänsterna. Vi har använt oss av observationer för att dokumentera hur vi arbetade med utvecklingen av analystjänsterna samt för att mäta utvecklingstider och identifiera skillnader i funktionalitet. Vi har även använt oss av frågeformulär för att ta reda på vad användare tyckte om analystjänsterna. Vi kom fram till att Azure Stream Analytics initialt var mer användbart än HDInsight/Storm men att skillnaderna minskade efter hand. Azure Stream Analytics var lättare att arbeta med vid simplare analyser medan HDInsight/Storm hade ett bredare val av funktionalitet.
Resumo:
I dagens samhälle är det allt viktigare för företag att behålla sina existerande kunder då konkurrensen blir allt hårdare. Detta medför att företag försöker vidta åtgärder för att vårda relationer med sina kunder. Detta problem är även högst relevant inom IT-branschen. Inom IT-branschen är det vanligt att arbeta agilt i IT-projekt. Vår samarbetspartner har sett ett ökat behov av att mäta servicekvalitet på ett återkommande sätt inom IT-projekt, detta för att mäta relevanta variabler som sträcker sig utanför kravspecifikationen. För att mäta framgång gällande detta arbetssätt vill man kunna mäta Nöjd Kund Index (NKI) för att kunna jämföra IT-projekt internt i företaget. Då tidigare forskning visat avsaknad av modeller innehållande både mätning av servicekvalitet samt NKI har lämplig litteratur studerats där det framkommit att modellen SERVQUAL är vedertagen för mätning av servicekvalitet och modellen American Customer Satisfaction Index (ACSI) är vedertagen för mätning av NKI. Detta har legat till grund för arbetets problemformulering och syfte. Syftet med arbetet är att skapa en vidareutvecklad modell för mätning av NKI för att jämföra IT-projekt internt samt återkommande mätning av servicekvalitet inom IT-projekt. Framtagande av denna modell har sedan skett genom forskningsstrategin Design and Creation. Intervjuer har genomförts för kravfångst till den vidareutvecklade modellen. Resultatet av denna forskningsstrategi blev sedan en vidareutvecklad modell baserad på ovan nämnda modeller med återkommande förhållningssätt för mätning av servicekvalitet inom IT-projekt och mätning av NKI för att jämföra IT-projekt internt i företaget. Den framtagna modellen har sedan verifierats genom ytterligare intervjuer med respondenter som innehar god erfarenhet från kundsidan av IT-projekt. Från dessa intervjuer kunde sedan slutsats dras att denna modell är att anse som applicerbar i empirin gällande IT-projekt.
Resumo:
Rollbaserad åtkomstkontroll är en standardiserad och väl etablerad modell för att hantera åtkomsträttigheter i informationssystem. Den vedertagna ANSI-standarden 359-2004 saknar dock stöd för att geografiskt avgränsa rollbehörigheter. Informationssystem som behandlar geografiska data och de senaste årens ökade spridning av mobila enheter påkallar ett behov av att sådana rumsliga aspekter diskuteras inom kontexten av rollbaserad åtkomstkontroll. Arbetet syftar till att bringa klarhet i hur det befintliga kunskapstillståndet inom ämnesområdet rollbaserad åtkomst kontroll med geografisk avgränsning ser ut, och vilka aspekter hos detta som står i behov av vidare utveckling. Genom de teoretiska referensramar som skapats vid inledande litteraturstudier har en efterföljande systematisk litteraturgenomgång möjliggjorts, där vetenskapligt material selekterats genom fördefinierade urvalskriterier. Sammanställningen och analysen av den systematiska litteraturgenomgångens resultat har i samverkan med de teoretiska referensramarna lett fram till arbetets huvudsakliga kunskapsbidrag: en områdesöversikt där ämnets state-of-the-art presenteras och en strukturerad lista över angelägna forsknings- och utvecklingsbehov inom området.
Resumo:
Allt eftersom utvecklingen går framåt inom applikationer och system så förändras också sättet på vilket vi interagerar med systemet på. Hittills har navigering och användning av applikationer och system mestadels skett med händerna och då genom mus och tangentbord. På senare tid så har navigering via touch-skärmar och rösten blivit allt mer vanligt. Då man ska styra en applikation med hjälp av rösten är det viktigt att vem som helst kan styra applikationen, oavsett vilken dialekt man har. För att kunna se hur korrekt ett röstigenkännings-API (Application Programming Interface) uppfattar svenska dialekter så initierades denna studie med dokumentstudier om dialekters kännetecken och ljudkombinationer. Dessa kännetecken och ljudkombinationer låg till grund för de ord vi valt ut till att testa API:et med. Varje dialekt fick alltså ett ord uppbyggt för att vara extra svårt för API:et att uppfatta när det uttalades av just den aktuella dialekten. Därefter utvecklades en prototyp, närmare bestämt en android-applikation som fungerade som ett verktyg i datainsamlingen. Då arbetet innehåller en prototyp och en undersökning så valdes Design and Creation Research som forskningsstrategi med datainsamlingsmetoderna dokumentstudier och observationer för att få önskat resultat. Data samlades in via observationer med prototypen som hjälpmedel och med hjälp av dokumentstudier. Det empiriska data som registrerats via observationerna och med hjälp av applikationen påvisade att vissa dialekter var lättare för API:et att uppfatta korrekt. I vissa fall var resultaten väntade då vissa ord uppbyggda av ljudkombinationer i enlighet med teorin skulle uttalas väldigt speciellt av en viss dialekt. Ibland blev det väldigt låga resultat på just dessa ord men i andra fall förvånansvärt höga. Slutsatsen vi drog av detta var att de ord vi valt ut med en baktanke om att de skulle få låga resultat för den speciella dialekten endast visade sig stämma vid två tillfällen. Det var istället det ord innehållande sje- och tje-ljud som enligt teorin var gemensamma kännetecken för alla dialekter som fick lägst resultat överlag.
Resumo:
Viljan att hålla en hög kvalitet på den kod som skrivs vid utveckling av system och applikationerär inte något nytt i utvecklingsvärlden. Flera större företag använder sig av olika mått för attmäta kvaliteten på koden i sina system med målet att hålla en hög driftsäkerhet.Trafikverket är en statlig myndighet som ansvarar för driften av bland annat de system somhåller igång Sveriges järnvägsnät. Eftersom systemen fyller en viktig del i att säkra driften ochse till att tågpositioner, planering av avgångar och hantering av driftstörningar fungerar dygnetrunt för hela landet anser de att det är viktigt att sträva efter att hålla en hög kvalitet påsystemen.Syftet med det här examensarbetet var att ta reda på vilka mått som kan vara möjliga attanvända under systemutvecklingsprocessen för att mäta kvaliteten på kod och hur måtten kananvändas för att öka kvaliteten på IT-lösningar. Detta för att redan på ett tidigt stadie kunnamäta kvaliteten på den kod som skrivs i både befintliga och nyutvecklade system.Studien är en fallstudie som utfördes på Trafikverket, de olika måtten som undersöktes varcode coverage, nivån på maintainability index och antalet inrapporterade incidenter för varjesystem. Mätningar utfördes på sju av Trafikverkets system som i analysen jämfördes motantalet rapporterade incidenter. Intervjuer utfördes för att ge en bild över hur arbetssättet vidutveckling kan påverka kvaliteten. Genom litteraturstudier kom det fram ett mått som inte kundeanvändas praktiskt i det här fallet men är högst intressant, detta är cyclomatic complexity somfinns som en del av maintainability index men som även separat påverkar möjligheten att skrivaenhetstest.Resultaten av studien visar att måtten är användbara för ändamålet men bör inte användassom enskilda mått för att mäta kvalitet eftersom de fyller olika funktioner. Det är viktigt attarbetssättet runt utveckling genomförs enligt en tydlig struktur och att utvecklarna både harkunskap om hur man arbetar med enhetstest och följer kodprinciper för strukturen. Tydligakopplingar mellan nivån på code coverage och inflödet av incidenter kunde ses i de undersöktasystemen där hög code coverage ger ett lägre inflöde av incidenter. Ingen korrelation mellanmaintainability index och incidenter kunde hittas.
Resumo:
Användandet av mobila applikationer har växt radikalt de senaste åren och de samverkar med många system. Därför ställs det högre krav på kvaliteten och att applikationen ska anpassas till många olika enheter, operativsystem samt plattformar. Detta gör att test av mobila applikationer blivit viktigare och större. Detta arbete har bedrivits som en jämförande fallstudie inom området test av mobila applikationer samt testverktyg. Syftet har varit att beskriva hur testning av mobila applikationer sker idag vilket gjorts genom litteraturstudier och intervjuer med IT-företag. Ett annat syfte har varit att utvärdera fyra testverktyg, deras för- och nackdelar samt hur de kan användas vid testning av mobila applikationer och jämföras mot manuell testning utan testverktyg. Detta har gjorts genom att skapa förstahandserfarenheter baserat på användandet av testverktygen. Under arbetet har vi utgått från mobila applikationer som vi fått tillgång till av Triona, som varit vår samarbetspartner.Idag finns många olika testverktyg som kan användas som stöd för testningen men få företag har implementerat något eftersom det kräver både tid och kompetens samt valet av testverktyg kan vara svårt. Testverktygen har olika för- och nackdelar vilket gör att de passar olika bra beroende på typ av projekt och applikation. Fördelar med att använda testverktyg är möjligheten att kunna automatisera, testa på flera enheter samtidigt samt få tillgång till enheter via molnet. Utmaningarna är att det kan vara svårt att installera och lära sig testverktyget samt att licenserna kan vara dyra. Det är därför viktigt att redan innan implementationen veta vilka tester och applikationer testverktygen ska användas till samt vem som ska använda det. Utifrån vår studie kan slutsatsen dras att inget testverktyg är helt komplett men de kan bidra med olika funktioner vilket effektiviserar delar av testningen av mobila applikationer.
Clean Code vs Dirty Code : Ett fältexperiment för att förklara hur Clean Code påverkar kodförståelse
Resumo:
Stora och komplexa kodbaser med bristfällig kodförståelse är ett problem som blir allt vanligare bland företag idag. Bristfällig kodförståelse resulterar i längre tidsåtgång vid underhåll och modifiering av koden, vilket för ett företag leder till ökade kostnader. Clean Code anses enligt somliga vara lösningen på detta problem. Clean Code är en samling riktlinjer och principer för hur man skriver kod som är enkel att förstå och underhålla. Ett kunskapsglapp identifierades vad gäller empirisk data som undersöker Clean Codes påverkan på kodförståelse. Studiens frågeställning var: Hur påverkas förståelsen vid modifiering av kod som är refaktoriserad enligt Clean Code principerna för namngivning och att skriva funktioner? För att undersöka hur Clean Code påverkar kodförståelsen utfördes ett fältexperiment tillsammans med företaget CGM Lab Scandinavia i Borlänge, där data om tidsåtgång och upplevd förståelse hos testdeltagare samlades in och analyserades. Studiens resultat visar ingen tydlig förbättring eller försämring av kodförståelsen då endast den upplevda kodförståelsen verkar påverkas. Alla testdeltagare föredrar Clean Code framför Dirty Code även om tidsåtgången inte påverkas. Detta leder fram till slutsatsen att Clean Codes effekter kanske inte är omedelbara då utvecklare inte hunnit anpassa sig till Clean Code, och därför inte kan utnyttja det till fullo. Studien ger en fingervisning om Clean Codes potential att förbättra kodförståelsen.
Resumo:
Some 50% of the people in the world live in rural areas, often under harsh conditions and in poverty. The need for knowledge of how to improve living conditions is well documented. In response to this need, new knowledge of how to improve living conditions in rural areas and elsewhere is continuously being developed by researchers and practitioners around the world. People in rural areas, in particular, would certainly benefit from being able to share relevant knowledge with each other, as well as with stakeholders (e.g. researchers) and other organizations (e.g. NGOs). Central to knowledge management is the idea of knowledge sharing. This study is based on the assumption that knowledge management can support sustainable development in rural and remote regions. It aims to present a framework for knowledge management in sustainable rural development, and an inventory of existing frameworks for that. The study is interpretive, with interviews as the primary source for the inventory of stakeholders, knowledge categories and Information and Communications Technology (ICT) infrastructure. For the inventory of frameworks, a literature study was carried out. The result is a categorization of the stakeholders who act as producers and beneficiaries of explicit and indigenous development knowledge. Stakeholders are local government, local population, academia, NGOs, civil society and donor agencies. Furthermore, the study presents a categorization of the development knowledge produced by the stakeholders together with specifications for the existing ICT infrastructure. Rural development categories found are research, funding, agriculture, ICT, gender, institutional development, local infrastructure development, and marketing & enterprise. Finally, a compiled framework is presented, and it is based on ten existing frameworks for rural development that were found in the literature study, and the empirical findings of the Gilgit-Baltistan case. Our proposed framework is divided in four levels where level one consists of the identified stakeholders, level two consists of rural development categories, level three of the knowledge management system and level four of sustainable rural development based on the levels below. In the proposed framework we claim that the sustainability of rural development can be achieved through a knowledge society in which knowledge of the rural development process is shared among all relevant stakeholders.