20 resultados para automaattinen lypsy
Resumo:
Maatalousyrittäjä toimii muuttuvassa toimintaympäristössä, jonka muutokset asettavat yrittäjälle ja yritykselle haasteita ja vaatimuksia. Tuotantoteorian mukaisesti maatalousyrittäjän oletetaan maksimoivan voittoa ja/tai minimoimaan kustannuksia. Tavoitteen saavuttamiseksi yrittäjä sopeuttaa tuotosmääriään ja panoskäyttöään vallitsevien olosuhteiden mukaan. Tuotantoteknologialla voidaan puolestaan vaikuttaa siihen, millaisia panoksia tuotoksen aikaansaamiseksi tarvitaan. Maidontuotannossa lypsyjärjestelmä on yksi keskeinen teknologiavalinta. Kannattavuus on Suomessa kriittinen tekijä maataloustuotannon kilpailukykyä ja pitkän ajan toimintaedellytyksiä ajatellen. Yhtenä merkittävänä tuotantokustannuksiin vaikuttavana tekijänä maidontuotannossa voidaan pitää keskimäärin korkeaa työkustannusta tuoteyksikköä kohden. Rakennekehityksellä tavoitellaan suurtuotannon etuja ja yksikkökustannusten alentamista. Yrityskoon kasvattamisen yhteyteen liittyy usein uuden tuotantoteknologian käyttöönotto. Uudella teknologialla ja siihen sijoitetulla pääomalla korvataan yhä kallistuvaa työpanosta. Uutta teknologiaa edustavat mm. automaattinen lypsyjärjestelmä. Keskeisintä kehityksessä on, että viljelijöiden on ollut mahdollista vähentää työn määrää tuotettua yksikköä kohti. Tämä on helpottanut tilakoon kasvua ja samalla on ollut mahdollista kasvattaa työmenekin silti olennaisesti kasvamatta. Ensimmäiset automaattilypsyjärjestelmät otettiin Suomessa käyttöön vuonna 2000 ja vuoden 2009 lopussa niitä oli jo 563 laitetta yhteensä 465 maidontuotantotilalla. Tutkimuksen tarkoituksena oli tutkia asema- ja automaattilypsyä käyttävien tilojen tuottavuus- ja kannattavuuseroja ja miten investoinneilla pystytään korvaamaan työtä. Aineistona käytettiin maatalouden kannattavuuskirjanpitoaineistoa vuosilta 2005- 2008. Tutkimusaineistossa olivat mukana kaikki tilat, joilla tutkimusjakson alussa oli automaattinen lypsyjärjestelmä tai jotka siirtyivät siihen ajanjakson aikana. Automaattilypsytilojen vertailuryhmänä olivat maidontuotantoon keskittyneet samaan kokoluokkaan kuuluvat asemalypsytilat. Lypsyjärjestelmän valinnan maidontuottaja tekee omista lähtökohdistaan. Tässä tutkimuksessa tehty lypsyjärjestelmän taloudellinen valintaperusteiden tarkastelu osoittaa, että uuden teknologian käyttöönotto on haasteellista. Valinnan taustalla olevat odotukset eivät välttämättä toteudu ainakaan heti investoinnin jälkeisinä vuosina. Työn tuottavuus, määriteltynä työtuntia kohden tuotettuina maitokiloina, oli automaattilypsytiloilla parempi kuin asematiloilla. Pääoman tuottavuus, määriteltynä lypsykarjatalouden pääomaa (1000 €) kohti tuotettuina maitokiloina oli puolestaan asemalypsytiloilla parempi kuin automaattilypsytiloilla. Asemalypsytiloilla nettotuottavuus, työn sekä pääoman nettotuottavuudet olivat parempia kuin automaattitiloilla. Automaattitilojen kokonaistuottavuuden muutos oli 7,49 %, kun asematiloilla se oli vain 2,30 % tutkimusajanjakson aikana. Lehmää kohti työkustannukset pienenivät ja maksettujen korkojen määrät kasvoivat kummallakin lypsytavalla. Verrattaessa työkustannusten ja maksettujen korkomenojen muutosta voitiin havaita, että työkustannukset eivät automaattilypsytiloilla kuitenkaan pienentyneet niin paljon, että ne olisivat kattaneet maksettujen korkomenojen lisäyksen. Kannattavuuskertoimen perusteella kumpikaan tilaryhmä ei saavuttanut asettamiaan tavoitteita oman työn palkkavaatimuksen eikä oman pääoman korkovaatimuksen suhteen. Asemalypsytiloilla kannattavuus oli parempi ja yrittäjäntappio oli alhaisempi kuin automaattitiloilla.
Resumo:
Tutkielma käsittelee kiinan kielen automaattista käsittelyä ja kieliteknologiaa. Kieliteknologian osa-alueista keskitytään kiinan kielelle tyypilliseen sanarajatunnistus- eli segmentointiongelmaan, joka kumpuaa kiinan kielen kirjoitusjärjestelmän erityispiirteistä. Tutkielma on aihepiiriä esittelevä pilottitutkimus, jonka tarkoitettu lukijaryhmä on kiinan kieliteknologisesta tutkimuksesta kiinnostuneet opiskelijat ja tutkijat. Lähdemateriaali koostuu englannin- ja kiinankielisestä kirjallisuudesta, lähinnä konferenssiartikkeleista. Tutkielma esittelee kiinan kirjoitusjärjestelmää automaattisen käsittelyn näkökulmasta, käsittelee perinteisten ja yksinkertaistettujen merkkien eroja, merkkikoodauksia sekä erilaisia lähestymistapoja käyttäviä syöttöjärjestelmiä. Kirjoitusjärjestelmän esittely tarjoaa esitietoja kielen rakenteen ymmärtämiseksi sekä rakentaa pohjaa sanarajatunnistusta käsitteleviä osuuksia varten. Sanarajatunnistus- eli segmentointiongelma johtuu kiinan kirjoitusjärjestelmästä, jossa sanojen välejä ei merkitä välilyönneillä. Kielen kieliteknologista käsittelyä varten sanojen rajat tulee kuitenkin selvittää. Sanarajatunnistusjärjestelmät ovat tietokoneohjelmia, jotka etsivät ja merkitsevät nämä rajat automaattisesti. Tehtävä ei kuitenkaan ole yksinkertainen kielen monitulkintaisuuksien ja ns. tuntemattomien sanojen vuoksi. Joissain tilanteissa ei ole olemassa yksiselitteisen oikeaa segmentointia. Tutkielmassa esitellään kaksi segmentointijärjestelmää, keskittyen erityisesti niiden toiminnan kuvaukseen lukijalle ymmärrettävässä muodossa. Tärkeää on menetelmien ymmärtäminen, ei tekniset yksityiskohdat. Lopuksi paneudutaan segmentointijärjestelmien evaluaation ongelmiin. Sanarajatunnistusta suorittavien ohjelmien vertailu on usein hankalaa, koska monissa tapauksissa järjestelmät eivät tuota yhteismitallisia tuloksia. Tutkielmassa esitellään yritys saada aikaan yhteismitallisia evaluaatiomenetelmiä segmentointiohjelmien Chinese Word Segmentation Bakeoff -kilpailujen muodossa. Tutkielmassa todetaan sanarajatunnistusongelman olevan tärkeä tutkimuskohde. Ratkaisemattomia ongelmia on kuitenkin edelleen, tärkeimpänä evaluaatio. Avainsanat – Nyckelord – Keywords kiinan kieli, sanarajatunnistus, segmentointi,kirjoitusmerkit, merkkikoodaukset, kiinan syöttötavat
Resumo:
Tutkielman aiheena on kirjoitetun digitaalisessa muodossa olevan tekstin kielen automaattinen tunnistaminen. Tekstin kieli on usein tarpeellista identifioida, jotta tekstin jatkokäsittelyssä osataan toimia käyttäen oikeita menetelmiä. Tekstin kielen automaattinen tunnistaminen on internetissä olevan tekstimäärän ja kielivalikoiman kasvaessa tullut tärkeäksi näiden dokumenttien automaattisen käsittelyn esivaiheeksi. Kielen tunnistaminen on kieleltään tuntemattoman tekstin vertaamista joukkoon annettuja kieliä. Samoja tai hyvin läheisiä menetelmiä voidaan käyttää myös tekstin lajitteluun esimerkiksi aihealueiden suhteen. Tässä tutkielmassa esitellään tutkielmaa varten rakennetun kielentunnistimen kehitysvaiheet sekä sen suorituskyvyn evaluointia. Aluksi tutkielmassa paneudutaan muutamaan eri kielentunnistamisen menetelmään, sekä esitellään myös eräiden toteutettujen kielentunnistinten rakennetta niistä kirjoitettujen artikkelien perusteella. Tämän jälkeen tutkielmassa kerrotaan kuinka kielentunnistimen rakentamiseen luotiin harjoituskorpuksia. Harjoituskorpukset luotiin Wikipedian artikkeleista yhteensä 103 kielelle. Eri kielten harjoituskorpusten yhteenlasketuksi kooksi tuli yli miljardi sanetta. Jokaisesta harjoituskorpuksesta luotiin 7 kielimallia kullekin kielelle. Kielimallit ovat kielten sanojen n-grammien (yhdestä kuuteen) listoja sekä listoja kielten koko-naisista sananmuodoista. Harjoituskorpuksista luotuja kielimalleja ja muutamia eri menetelmiä yhdistelemällä rakennettiin useita erilaisia kielentunnistimia, joiden suoriutumista vertailtiin keskenään laajojen testitunnistusten avulla. Testien suorittamista varten muodostettiin Europarl-korpuksesta noin 200 miljoonan sanan testikorpuksia kymmenelle eurooppalaiselle kielelle. Testitunnistuksia tehtiin automatisoidusti useita miljoonia. Näiden testien tulosten perusteella päädyttiin kielentunnistimeen, joka käyttää hyväkseen kaikkia kielimalleja sekä kahta eri menetelmää. Tutkielmassa kehitetyn kielentunnistimen suoriutumista vertailtiin vielä joidenkin artikkeleissa esiteltyjen kielentunnistimien suoriutumiseen ja lopuksi tutkielmassa esitellään mahdollisuuksia tunnistimen jatkokehittämiseen.
Resumo:
Automatic monitoring of water quality - a literature review.
Resumo:
Tämän diplomityön tavoitteena on ollut kehittää adaptiivista testausta hyödyntävä menetelmä, jonka tuottaman datan avulla voidaan havaita ja ennakoida oppimisvaikeuksia perusopetuksen peruskoulun sekä lukion matematiikan ja tietotekniikan opetuksessa. Tietojen analysointi toteutetaan ohjelmallisesti tilastollisia menetelmiä hyödyntäen anonymisoidusta aineistosta. Adaptiivisuutta hyödynnetään tällöin tehtävien asettelun apuvälineenä sekä tehtäviä suoritettavaksi tarjoavana menetelmänä muiden käytössä olevien tehtäväasettelujen ohella. Opiskelijan osaamista selvitetään joko aikaisempien tehtävien perusteella tai opiskelijan ominaisuuksien perusteella arvioidun tyypillisen profiilin mukaisesti. Tehtävien kategorisointi tasoarviointitehtävien ja yleisten tehtävien välillä tehdään osittain automaattisesti, mutta tehtävien lajittelu käytettävissä olevien tehtävien joukkoon vaatii käsityötä. Selvitettävän aineiston tutkimisen avuksi tarvitaan kategorisoivaa aineistonvalintaa, joka voidaan toteuttaa osin ohjelmallisesti mutta johon tarvitaan myös käyttäjän arviointia. Lähtökohtana käytetään primitiivisiä työvälineitä, joiden jatkokehittämisen tarve tulevaisuudessa on välttämätöntä aineistojen muuttuessa ja tutkittavan joukon laajentuessa.
Resumo:
Web-hakukoneiden merkitys tiedonhaussa on noussut merkittävään asemaan viimeisten vuosikymmenten aikana. Vaikka tiedonhaku hakukoneella on hyvin suoraviivaista, ihmiset käyttäytyvät hakukoneissa eri tavoilla. Tämän tutkielman aiheena on tutkia ihmisten hakukonekäyttäytymistä ja yrittää löytää tapoja hyödyntää näitä tutkimustuloksia. Tutkielmassa käytetään aineistona keskeisiä hakukoneiden perusteita käsitteleviä teoksia, joiden avulla käydään läpi hakukoneiden toimintalogiikkaa sekä hakukonetilastojen hyödyntämismahdollisuuksista löytyvää kirjallisuutta. Tutkielman tutkimusosuus hyödyntää Googlen tarjoamia työkaluja, joiden avulla päästään käsiksi ihmisten hakukonekäyttäytymiseen avainsanojen ja näiden hakuajankohtien osalta. Tutkimusosuudessa aiheena on ennustaa vuoden 2015 eduskuntavaalien viiden suurimman puolueen ääniosuudet. Ennustus tehtiin tutkimalla ihmisten hakukonekäyttäytymistä viiden edeltävän vaalin aikana ja suhteuttamalla nämä käyttäytymismallit tiedettyihin vaalituloksiin. Tehtiin hypoteesi, että suurempi hakuvolyymi johtaa suurempaan ääniosuuteen ja valittiin lineaarinen regressio ennustusmalliksi. Ennustusmalli toimi hyvin ja keskimääräinen virhemarginaali ääniosuuden ennustuksessa oli 2,90 %-yksikköä. Perussuomalaisten tulos oli yllätyksellinen ja ilman sitä ennustuksen keskimääräinen virhemarginaali oli 1,34 %-yksikköä. Tutkimustulosten perusteella nähdään hakukonetutkimusten potentiaali. Vaikka vaalitulosten ennustamiseen käytetty tietomäärä oli hyvin suppea, saatiin silti aikaan julkaisukelpoisia tuloksia. Näiden tulosten mukaan näyttää siltä, että Googlen hakutilastojen avulla on mahdollista ennustaa ihmisten valinnoista riippuvia nykymaailman tapahtumia lähitulevaisuuteen.
Resumo:
Tämän diplomityön tavoitteena on ollut kehittää adaptiivista testausta hyödyntävä menetelmä, jonka tuottaman datan avulla voidaan havaita ja ennakoida oppimisvaikeuksia perusopetuksen peruskoulun sekä lukion matematiikan ja tietotekniikan opetuksessa. Tietojen analysointi toteutetaan ohjelmallisesti tilastollisia menetelmiä hyödyntäen anonymisoidusta aineistosta. Adaptiivisuutta hyödynnetään tällöin tehtävien asettelun apuvälineenä sekä tehtäviä suoritettavaksi tarjoavana menetelmänä muiden käytössä olevien tehtäväasettelujen ohella. Opiskelijan osaamista selvitetään joko aikaisempien tehtävien perusteella tai opiskelijan ominaisuuksien perusteella arvioidun tyypillisen profiilin mukaisesti. Tehtävien kategorisointi tasoarviointitehtävien ja yleisten tehtävien välillä tehdään osittain automaattisesti, mutta tehtävien lajittelu käytettävissä olevien tehtävien joukkoon vaatii käsityötä. Selvitettävän aineiston tutkimisen avuksi tarvitaan kategorisoivaa aineistonvalintaa, joka voidaan toteuttaa osin ohjelmallisesti mutta johon tarvitaan myös käyttäjän arviointia. Lähtökohtana käytetään primitiivisiä työvälineitä, joiden jatkokehittämisen tarve tulevaisuudessa on välttämätöntä aineistojen muuttuessa ja tutkittavan joukon laajentuessa.
Resumo:
A 26-hour English reading comprehension course was taught to two groups of second year Finnish Pharmacy students: a virtual group (33 students) and a teacher-taught group (25 students). The aims of the teaching experiment were to find out: 1.What has to be taken into account when teaching English reading comprehension to students of pharmacy via the Internet and using TopClass? 2. How will the learning outcomes of the virtual group and the control group differ? 3. How will the students and the Department of Pharmacy respond to the different and new method, i.e. the virtual teaching method? 4. Will it be possible to test English reading comprehension learning material using the groupware tool TopClass? The virtual exercises were written within the Internet authoring environment, TopClass. The virtual group was given the reading material and grammar booklet on paper, but they did the reading comprehension tasks (written by the teacher), autonomously via the Internet. The control group was taught by the same teacher in 12 2-hour sessions, while the virtual group could work independently within the given six weeks. Both groups studied the same material: ten pharmaceutical articles with reading comprehension tasks as well as grammar and vocabulary exercises. Both groups took the same final test. Students in both groups were asked to evaluate the course using a 1 to 5 rating scale and they were also asked to assess their respective courses verbally. A detailed analysis of the different aspects of the student evaluation is given. Conclusions: 1.The virtual students learned pharmaceutical English relatively well but not significantly better than the classroom students 2. The overall student satisfaction in the virtual pharmacy English reading comprehension group was found to be higher than that in the teacher-taught control group. 3. Virtual learning is easier for linguistically more able students; less able students need more time with the teacher. 4. The sample in this study is rather small, but it is a pioneering study. 5. The Department of Pharmacy in the University of Helsinki wishes to incorporate virtual English reading comprehension teaching in its curriculum. 6. The sophisticated and versatile TopClass system is relatively easy for a traditional teacher and quite easy for the students to learn. It can be used e.g. for automatic checking of routine answers and document transfer, which both lighten the workloads of both parties. It is especially convenient for teaching reading comprehension. Key words: English reading comprehension, teacher-taught class, virtual class, attitudes of students, learning outcomes
Resumo:
A lack of conceptual clarity and multivariate studies has impeded research on paranormal, superstitious, and magical beliefs. In this series of studies a new conceptual framework of these beliefs was presented. A general belief in the paranormal was shown to lead to specific paranormal, superstitious, and magical beliefs. The beliefs were defined equally as category mistakes where the core attributes of psychological, physical, and biological phenomena are confused with each other. This definition was supported by an empirical examination: Paranormal believers confused more core knowledge than skeptics. A multivariate study revealed that the best predictors of paranormal beliefs were intuitive thinking and a humanistic world view, while low analytical thinking was a less important predictor. Another study showed that women s greater belief in the paranormal compared to men was partially explained by women s higher intuitive and lower analytical thinking. Additionally, it was shown that university students were originally more skeptical than vocational school students, but university studies did not increase skepticism. The finding that paranormal beliefs mainly arise from an intuitive system, instead of a malfunctioning analytical system, explains why the beliefs do not vanish with the increase of education, scientific knowledge, and rational thinking. Religious and paranormal beliefs share important qualities and generally, they were positively related. The most religious people, however, abandoned paranormal beliefs. Religious people and paranormal believers differed from the skeptics similarly by being more intuitive, having experienced more mystical phenomena, and having peers and parents with more positive attitudes toward the supernatural. Religious people had, however, higher conservation and benevolence values than paranormal believers. The new conceptual framework presented in this series of studies integrates research on paranormal, superstitious, magical, and religious beliefs. Hopefully it will enable researchers to develop more elaborated hypotheses and theoretical statements about paranormal beliefs in the future.
Resumo:
When experts construct mental images, they do not rely only on perceptual features; they also access domain-specific knowledge and skills in long-term memory, which enables them to exceed the capacity limitations of the short-term working memory system. The central question of the present dissertation was whether the facilitating effect of long-term memory knowledge on working memory imagery tasks is primarily based on perceptual chunking or whether it relies on higher-level conceptual knowledge. Three domains of expertise were studied: chess, music, and taxi driving. The effects of skill level, stimulus surface features, and the stimulus structure on incremental construction of mental images were investigated. A method was developed to capture the chunking mechanisms that experts use in constructing images: chess pieces, street names, and visual notes were presented in a piecemeal fashion for later recall. Over 150 experts and non-experts participated in a total of 13 experiments, as reported in five publications. The results showed skill effects in all of the studied domains when experts performed memory and problem solving tasks that required mental imagery. Furthermore, only experts' construction of mental images benefited from meaningful stimuli. Manipulation of the stimulus surface features, such as replacing chess pieces with dots, did not significantly affect experts' performance in the imagery tasks. In contrast, the structure of the stimuli had a significant effect on experts' performance in every task domain. For example, taxi drivers recalled more street names from lists that formed a spatially continuous route than from alphabetically organised lists. The results suggest that the mechanisms of conceptual chunking rather than automatic perceptual pattern matching underlie expert performance, even though the tasks of the present studies required perception-like mental representations. The results show that experts are able to construct skilled images that surpass working memory capacity, and that their images are conceptually organised and interpreted rather than merely depictive.
Resumo:
The aim of this thesis is to develop a fully automatic lameness detection system that operates in a milking robot. The instrumentation, measurement software, algorithms for data analysis and a neural network model for lameness detection were developed. Automatic milking has become a common practice in dairy husbandry, and in the year 2006 about 4000 farms worldwide used over 6000 milking robots. There is a worldwide movement with the objective of fully automating every process from feeding to milking. Increase in automation is a consequence of increasing farm sizes, the demand for more efficient production and the growth of labour costs. As the level of automation increases, the time that the cattle keeper uses for monitoring animals often decreases. This has created a need for systems for automatically monitoring the health of farm animals. The popularity of milking robots also offers a new and unique possibility to monitor animals in a single confined space up to four times daily. Lameness is a crucial welfare issue in the modern dairy industry. Limb disorders cause serious welfare, health and economic problems especially in loose housing of cattle. Lameness causes losses in milk production and leads to early culling of animals. These costs could be reduced with early identification and treatment. At present, only a few methods for automatically detecting lameness have been developed, and the most common methods used for lameness detection and assessment are various visual locomotion scoring systems. The problem with locomotion scoring is that it needs experience to be conducted properly, it is labour intensive as an on-farm method and the results are subjective. A four balance system for measuring the leg load distribution of dairy cows during milking in order to detect lameness was developed and set up in the University of Helsinki Research farm Suitia. The leg weights of 73 cows were successfully recorded during almost 10,000 robotic milkings over a period of 5 months. The cows were locomotion scored weekly, and the lame cows were inspected clinically for hoof lesions. Unsuccessful measurements, caused by cows standing outside the balances, were removed from the data with a special algorithm, and the mean leg loads and the number of kicks during milking was calculated. In order to develop an expert system to automatically detect lameness cases, a model was needed. A probabilistic neural network (PNN) classifier model was chosen for the task. The data was divided in two parts and 5,074 measurements from 37 cows were used to train the model. The operation of the model was evaluated for its ability to detect lameness in the validating dataset, which had 4,868 measurements from 36 cows. The model was able to classify 96% of the measurements correctly as sound or lame cows, and 100% of the lameness cases in the validation data were identified. The number of measurements causing false alarms was 1.1%. The developed model has the potential to be used for on-farm decision support and can be used in a real-time lameness monitoring system.
Resumo:
Matematiikan opetuksen kehittämiseen korkeakoulutasolla on monia tapoja. Tavoitteena on parantaa opiskelijoiden opiskelukokemuksia, jotta he oppisivat paremmin. Oppimisen arvioinnin on todettu vaikuttavan oppimiseen merkittävästi. Arviointi tapahtuu yleensä sen perusteella, kuinka hyvin opiskelija menestyy kokeissa. Näihin kokeisiin liittyy kuitenkin useita ongelmia; ne koostuvat usein muutamasta tehtävästä, eivätkä siten kata koko koealuetta. Lisäksi perinteinen koetilanne on kaukana siitä ympäristöstä, jossa opittuja taitoja on tarkoitus käyttää. Tässä työssä tutkittiin Aalto-yliopiston Teknillisen korkeakoulun kurssin Diskreetin matematiikan perusteet (DMP) arviointikäytännön uudistamista. Kurssi toteutettiin sulautuvan oppimisen mallin mukaisesti osin verkossa. Arvioinnissa painotettiin jatkuvaa harjoitustehtävien tekemistä ja suurin osa näistä tehtävistä toteutetiin tietokoneavusteisina verkkotehtävinä. Käytössä oli automaattisen tarkistamisen mahdollistava STACK-järjestelmä. Työ jakaantui kahteen osaan: arvioinnissa käytettävien STACK-tehtävien laatimiseen ja empiiriseen osuuteen, jossa tutkittiin kurssin onnistumista. Tutkimuksessa keskityttiin toisaalta siihen, miten käytetty arviointimenetelmä toimi ja toisaalta siihen, millaiseksi opiskelijat menetelmän kokivat. Kurssia varten toteutettiin yhteensä 67 STACK-tehtävää, joista 46 oli käytössä kurssilla. Lisäksi kurssilla oli 26 perinteistä kirjallista tehtävää. Käytetyn arviointimenetelmän toimivuutta tutkittiin vertaamalla kurssin tuloksia vuosien 2008 ja 2009 DMP-kurssien tuloksiin. Vertailun perusteella huomattiin, että opiskelijat olivat vuonna 2010 ratkaisseet selvästi enemmän harjoitustehtäviä kuin edellisinä vuosina. Myös arvosanan 0 prosentuaalinen osuus suhteessa kaikkiin annettuihin arvosanoihin pieneni. Opiskelijoiden kokemuksien tutkimista varten laadittiin kurssikokemuskysely. Kyselyssä esitettiin väittämiä liittyen STACK-tehtävien laatuun, tavoitteiden ja vaatimusten selkeyteen, arvioinnin asianmukaisuuteen, työmäärän asianmukaisuuteen, opiskelijoiden sitoutuneisuuteen, käytännön järjestelyihin ja sulautuvaan oppimiseen liittyen. Tulokset olivat erittäin positiivisia. Kaikenkaikkiaan kokeilukurssi sujui hyvin; arvointimenetelmä toimi ja opiskelijat olivat tyytyväisiä. Vertailun ja kyselyn perusteella tärkeimmiksi kehityksen kohteiksi nousivat STACK-tehtävien automaattinen palaute, perinteisten tehtävien pisteyttäminen ja jako perinteisten tehtävien ja STACK-tehtävien välillä.
Resumo:
Topic detection and tracking (TDT) is an area of information retrieval research the focus of which revolves around news events. The problems TDT deals with relate to segmenting news text into cohesive stories, detecting something new, previously unreported, tracking the development of a previously reported event, and grouping together news that discuss the same event. The performance of the traditional information retrieval techniques based on full-text similarity has remained inadequate for online production systems. It has been difficult to make the distinction between same and similar events. In this work, we explore ways of representing and comparing news documents in order to detect new events and track their development. First, however, we put forward a conceptual analysis of the notions of topic and event. The purpose is to clarify the terminology and align it with the process of news-making and the tradition of story-telling. Second, we present a framework for document similarity that is based on semantic classes, i.e., groups of words with similar meaning. We adopt people, organizations, and locations as semantic classes in addition to general terms. As each semantic class can be assigned its own similarity measure, document similarity can make use of ontologies, e.g., geographical taxonomies. The documents are compared class-wise, and the outcome is a weighted combination of class-wise similarities. Third, we incorporate temporal information into document similarity. We formalize the natural language temporal expressions occurring in the text, and use them to anchor the rest of the terms onto the time-line. Upon comparing documents for event-based similarity, we look not only at matching terms, but also how near their anchors are on the time-line. Fourth, we experiment with an adaptive variant of the semantic class similarity system. The news reflect changes in the real world, and in order to keep up, the system has to change its behavior based on the contents of the news stream. We put forward two strategies for rebuilding the topic representations and report experiment results. We run experiments with three annotated TDT corpora. The use of semantic classes increased the effectiveness of topic tracking by 10-30\% depending on the experimental setup. The gain in spotting new events remained lower, around 3-4\%. The anchoring the text to a time-line based on the temporal expressions gave a further 10\% increase the effectiveness of topic tracking. The gains in detecting new events, again, remained smaller. The adaptive systems did not improve the tracking results.
Resumo:
This doctoral dissertation introduces an algorithm for constructing the most probable Bayesian network from data for small domains. The algorithm is used to show that a popular goodness criterion for the Bayesian networks has a severe sensitivity problem. The dissertation then proposes an information theoretic criterion that avoids the problem.
Resumo:
The aim of the studies was to improve the diagnostic capability of electrocardiography (ECG) in detecting myocardial ischemic injury with a future goal of an automatic screening and monitoring method for ischemic heart disease. The method of choice was body surface potential mapping (BSPM), containing numerous leads, with intention to find the optimal recording sites and optimal ECG variables for ischemia and myocardial infarction (MI) diagnostics. The studies included 144 patients with prior MI, 79 patients with evolving ischemia, 42 patients with left ventricular hypertrophy (LVH), and 84 healthy controls. Study I examined the depolarization wave in prior MI with respect to MI location. Studies II-V examined the depolarization and repolarization waves in prior MI detection with respect to the Minnesota code, Q-wave status, and study V also with respect to MI location. In study VI the depolarization and repolarization variables were examined in 79 patients in the face of evolving myocardial ischemia and ischemic injury. When analyzed from a single lead at any recording site the results revealed superiority of the repolarization variables over the depolarization variables and over the conventional 12-lead ECG methods, both in the detection of prior MI and evolving ischemic injury. The QT integral, covering both depolarization and repolarization, appeared indifferent to the Q-wave status, the time elapsed from MI, or the MI or ischemia location. In the face of evolving ischemic injury the performance of the QT integral was not hampered even by underlying LVH. The examined depolarization and repolarization variables were effective when recorded in a single site, in contrast to the conventional 12-lead ECG criteria. The inverse spatial correlation of the depolarization and depolarization waves in myocardial ischemia and injury could be reduced into the QT integral variable recorded in a single site on the left flank. In conclusion, the QT integral variable, detectable in a single lead, with optimal recording site on the left flank, was able to detect prior MI and evolving ischemic injury more effectively than the conventional ECG markers. The QT integral, in a single-lead or a small number of leads, offers potential for automated screening of ischemic heart disease, acute ischemia monitoring and therapeutic decision-guiding as well as risk stratification.