35 resultados para Television bandwidth compression
em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland
Resumo:
The subject of the thesis is automatic sentence compression with machine learning, so that the compressed sentences remain both grammatical and retain their essential meaning. There are multiple possible uses for the compression of natural language sentences. In this thesis the focus is generation of television program subtitles, which often are compressed version of the original script of the program. The main part of the thesis consists of machine learning experiments for automatic sentence compression using different approaches to the problem. The machine learning methods used for this work are linear-chain conditional random fields and support vector machines. Also we take a look which automatic text analysis methods provide useful features for the task. The data used for machine learning is supplied by Lingsoft Inc. and consists of subtitles in both compressed an uncompressed form. The models are compared to a baseline system and comparisons are made both automatically and also using human evaluation, because of the potentially subjective nature of the output. The best result is achieved using a CRF - sequence classification using a rich feature set. All text analysis methods help classification and most useful method is morphological analysis. Tutkielman aihe on suomenkielisten lauseiden automaattinen tiivistäminen koneellisesti, niin että lyhennetyt lauseet säilyttävät olennaisen informaationsa ja pysyvät kieliopillisina. Luonnollisen kielen lauseiden tiivistämiselle on monta käyttötarkoitusta, mutta tässä tutkielmassa aihetta lähestytään television ohjelmien tekstittämisen kautta, johon käytännössä kuuluu alkuperäisen tekstin lyhentäminen televisioruudulle paremmin sopivaksi. Tutkielmassa kokeillaan erilaisia koneoppimismenetelmiä tekstin automaatiseen lyhentämiseen ja tarkastellaan miten hyvin erilaiset luonnollisen kielen analyysimenetelmät tuottavat informaatiota, joka auttaa näitä menetelmiä lyhentämään lauseita. Lisäksi tarkastellaan minkälainen lähestymistapa tuottaa parhaan lopputuloksen. Käytetyt koneoppimismenetelmät ovat tukivektorikone ja lineaarisen sekvenssin mallinen CRF. Koneoppimisen tukena käytetään tekstityksiä niiden eri käsittelyvaiheissa, jotka on saatu Lingsoft OY:ltä. Luotuja malleja vertaillaan Lopulta mallien lopputuloksia evaluoidaan automaattisesti ja koska teksti lopputuksena on jossain määrin subjektiivinen myös ihmisarviointiin perustuen. Vertailukohtana toimii kirjallisuudesta poimittu menetelmä. Tutkielman tuloksena paras lopputulos saadaan aikaan käyttäen CRF sekvenssi-luokittelijaa laajalla piirrejoukolla. Kaikki kokeillut teksin analyysimenetelmät auttavat luokittelussa, joista tärkeimmän panoksen antaa morfologinen analyysi.
Resumo:
Tässä opinnäytetyössä käsittelen tavallisia ihmisiä televisiouutisten jutuissa käyttäen esimerkkeinä uutisjuttuja Nelosen ja MTV3:n kotimaan uutisista. Tavoitteeni on tutkia tavallisen ihmisen rooleja ja tehtäviä television uutisjutuissa, sekä tarkastella ”rivikansalaisten” käyttämistä uutisjutuissa toimittajantyön kannalta. Valotan sitä, mitä MTV3 ja Nelonen uutisillaan tavoittelevat, millaisista lähtökohdista kanavat toimivat ja miten kanavien arvot vaikuttavat tavallisten ihmisen esiintymiseen uutisjutuissa. Esittelen ja analysoin erilaisia juttutyyppejä, joissa tavallisia ihmisiä uutisissa esiintyy, pohdin millaisia tarinoita ja sisältöjä heidän kannaltaan kerrotaan ja millaisissa rooleissa he esiintyvät. Pohdin myös sitä, mitä lisäarvoa tavallisilla ihmisillä uutisjuttuihin haetaan ja sitä, voisiko arjen näkökulmaa laajentaa niistä juttutyypeistä, joissa se nyt jo esiintyy. Tarkastelen omien kokemuksieni pohjalta myös, millaisia käytännöllisiä, moraalisia ja journalistisia pulmia ja mahdollisuuksia tavallisten ihmisten käyttämiseen television uutisjutuissa liittyy. Käsittelen myös sitä, mihin tavalliset ihmiset asettuvat uutisten hierarkiassa, ja miten heidän esiintymisensä uutisjutuissa vaikuttaa uutisen objektiivisuuteen. Tavallinen ihminen on uutisjutussa elävöittävä kokija, toimija tai passiivinen toiminnan kohde. Hän voi esiintyä lähes minkä tahansa tyyppisessä uutisjutussa kuvittajana, kommentoijana, uutiskuorman keventäjänä tai jutulle rakenteen antavana tapauksena. Tavalliset ihmiset esiintyvät televisiouutisten gallupeissa tai avaamassa keskustelunaiheita elämäntilanteellaan. Usein he esiintyvät toimittajan tai toimituksen alter egoina, ottavat kantaa asioihin vapaina uutishuoneen objektiivisen totuuden oletusarvosta. Televisio on arkinen, perhekeskeinen ja tasa-arvoinen väline, joka joutuu taistelemaan huomiosta kodin muiden tapahtumien kanssa. Viihtymisen kannalta on olennaista kuvata ihmiskasvoja, tehdä uutisista tarinoita ja tarjota samaistuttavia elementtejä katsojalle. Vaikka monet tutkijat sijoittavat tavallisen ihmisen uutishierarkian alimmalle portaalle, heillä on uutisjutuissa viihdyttäjän osan ohella tärkeä tehtävä totuudenpuhujina.
Resumo:
Puhe
Resumo:
Puhe
Resumo:
Abstract
Resumo:
Abstract
Resumo:
Menestyäkseen nykymaailmassa ihmiset ovat turvautuneet toisiinsa muodostaen samallaerilaisia yhteisöjä ja verkostoja. Näille yhteisöille on tunnusomaista, että niissä vaikuttavien jäsenien ajatustavat yhtyvät keskenään. Yhteisöissä syntyy uusia ideoita ja keksintöjä. Niiden välittäminen maailmalle on usein kuitenkin ongelmallista. Digitaalisuus, Internet ja monet muut uudet teknologiat tuovat yhden ratkaisun ongelmaan. Eräs uuden teknologian mahdollistama kanava on yhteisötelevisio, jonka kautta yhteisön viestintää voidaan tehokkaasti välittää. Yhteisöilläei kuitenkaan ole teknistä taitoa toteuttaa tällaista palvelua. Yhteisöille, kuten pk-yrityksille, kouluille, seuroille, yhdistyksille ja jopa yksittäisille ihmisille, tuleekin pystyä tarjoamaan valmis konsepti, joka on helposti heidän käytettävissään. Tämä diplomityö toimii teknisenä pohjana Finnish Satellite Television Oy:n yhteisö-tv -palvelukonseptille, joka tullaan ottamaan laajamittaiseen käyttöön vuoden 2007 aikana. Työssä käydään läpi yhteisön ja yhteisöllisyyden tunnusmerkit ja peruspiirteet, luodaan katsaus yhteisötelevision alkutaipaleisiin, nykytilaan ja sen eri ratkaisuihin. Lisäksi tutustutaan yhteisö-tv:n kansainvälisiin ja kotimaisiin kokeiluihin ja pilottiprojekteihin. Työn teknisessä osassa tutkitaan yhteisötelevision mahdollistaviin teknologioihin, siirtoteihin sekä digitaalisiin tuotantojärjestelmiin. Lopuksi työssä kootaan yhteen käytettävyydeltään, liikutettavuudeltaan ja kustannustehokkuudeltaan sopivimmat tekniset toteutusvaihtoehdot konseptin käyttöönottoa varten.
Resumo:
Testaus on tänä päivänä olennainen osa tuotekehitysprosessia koko tuotteen elinkaaren ajan, myös tietoliikennetekniikassa. Tietoverkoille asetetut tiukat vaatimukset ympärivuorokautisen toimivuuden suhteen nostavatmyös niiden testauksen tason ja laadun merkitystä. Erityisesti verkkojen uudet toiminnallisuudet, joilla ei ole vielä vuosia kestäneen käytön ja kehityksen tuomaa varmuus- ja laatutasoa, tuovat haasteita testauksen toteutukselle. Televisiokuvan välityksen Internetin yli mahdollistavat ominaisuudet ovat esimerkki tällaisista toiminnallisuuksista. Tässä diplomityössä käsitellään Tellabs Oy:n tuotekehitysosastolla vuosina 2005 ja 2006 toteutetun, erään operaattorin laajakaistaliityntäverkon päivitysprojektin testausosuutta. Kattavamman tarkastelun kohteena ovat erityisesti verkkoon lisättyjen laajakaistatelevisio- eli IPTV-toiminnallisuuksien integraatio- ja systeemitestausmenetelmät.
Resumo:
The problem of selecting anappropriate wavelet filter is always present in signal compression based on thewavelet transform. In this report, we propose a method to select a wavelet filter from a predefined set of filters for the compression of spectra from a multispectral image. The wavelet filter selection is based on the Learning Vector Quantization (LVQ). In the training phase for the test images, the best wavelet filter for each spectrum has been found by a careful compression-decompression evaluation. Certain spectral features are used in characterizing the pixel spectra. The LVQ is used to form the best wavelet filter class for different types of spectra from multispectral images. When a new image is to be compressed, a set of spectra from that image is selected, the spectra are classified by the trained LVQand the filter associated to the largest class is selected for the compression of every spectrum from the multispectral image. The results show, that almost inevery case our method finds the most suitable wavelet filter from the pre-defined set for the compression.
Resumo:
Multispectral images contain information from several spectral wavelengths and currently multispectral images are widely used in remote sensing and they are becoming more common in the field of computer vision and in industrial applications. Typically, one multispectral image in remote sensing may occupy hundreds of megabytes of disk space and several this kind of images may be received from a single measurement. This study considers the compression of multispectral images. The lossy compression is based on the wavelet transform and we compare the suitability of different waveletfilters for the compression. A method for selecting a wavelet filter for the compression and reconstruction of multispectral images is developed. The performance of the multidimensional wavelet transform based compression is compared to other compression methods like PCA, ICA, SPIHT, and DCT/JPEG. The quality of the compression and reconstruction is measured by quantitative measures like signal-to-noise ratio. In addition, we have developed a qualitative measure, which combines the information from the spatial and spectral dimensions of a multispectral image and which also accounts for the visual quality of the bands from the multispectral images.
Resumo:
Technological progress has made a huge amount of data available at increasing spatial and spectral resolutions. Therefore, the compression of hyperspectral data is an area of active research. In somefields, the original quality of a hyperspectral image cannot be compromised andin these cases, lossless compression is mandatory. The main goal of this thesisis to provide improved methods for the lossless compression of hyperspectral images. Both prediction- and transform-based methods are studied. Two kinds of prediction based methods are being studied. In the first method the spectra of a hyperspectral image are first clustered and and an optimized linear predictor is calculated for each cluster. In the second prediction method linear prediction coefficients are not fixed but are recalculated for each pixel. A parallel implementation of the above-mentioned linear prediction method is also presented. Also,two transform-based methods are being presented. Vector Quantization (VQ) was used together with a new coding of the residual image. In addition we have developed a new back end for a compression method utilizing Principal Component Analysis (PCA) and Integer Wavelet Transform (IWT). The performance of the compressionmethods are compared to that of other compression methods. The results show that the proposed linear prediction methods outperform the previous methods. In addition, a novel fast exact nearest-neighbor search method is developed. The search method is used to speed up the Linde-Buzo-Gray (LBG) clustering method.
Resumo:
Vaatimus kuvatiedon tiivistämisestä on tullut entistä ilmeisemmäksi viimeisen kymmenen vuoden aikana kuvatietoon perustuvien sovellutusten myötä. Nykyisin kiinnitetään erityistä huomiota spektrikuviin, joiden tallettaminen ja siirto vaativat runsaasti levytilaa ja kaistaa. Aallokemuunnos on osoittautunut hyväksi ratkaisuksi häviöllisessä tiedontiivistämisessä. Sen toteutus alikaistakoodauksessa perustuu aallokesuodattimiin ja ongelmana on sopivan aallokesuodattimen valinta erilaisille tiivistettäville kuville. Tässä työssä esitetään katsaus tiivistysmenetelmiin, jotka perustuvat aallokemuunnokseen. Ortogonaalisten suodattimien määritys parametrisoimalla on työn painopisteenä. Työssä todetaan myös kahden erilaisen lähestymistavan samanlaisuus algebrallisten yhtälöiden avulla. Kokeellinen osa sisältää joukon testejä, joilla perustellaan parametrisoinnin tarvetta. Erilaisille kuville tarvitaan erilaisia suodattimia sekä erilaiset tiivistyskertoimet saavutetaan eri suodattimilla. Lopuksi toteutetaan spektrikuvien tiivistys aallokemuunnoksen avulla.
Resumo:
The purpose of this thesis is to present a new approach to the lossy compression of multispectral images. Proposed algorithm is based on combination of quantization and clustering. Clustering was investigated for compression of the spatial dimension and the vector quantization was applied for spectral dimension compression. Presenting algo¬rithms proposes to compress multispectral images in two stages. During the first stage we define the classes' etalons, another words to each uniform areas are located inside the image the number of class is given. And if there are the pixels are not yet assigned to some of the clusters then it doing during the second; pass and assign to the closest eta¬lons. Finally a compressed image is represented with a flat index image pointing to a codebook with etalons. The decompression stage is instant too. The proposed method described in this paper has been tested on different satellite multispectral images from different resources. The numerical results and illustrative examples of the method are represented too.
Resumo:
Main purpose of this thesis is to introduce a new lossless compression algorithm for multispectral images. Proposed algorithm is based on reducing the band ordering problem to the problem of finding a minimum spanning tree in a weighted directed graph, where set of the graph vertices corresponds to multispectral image bands and the arcs’ weights have been computed using a newly invented adaptive linear prediction model. The adaptive prediction model is an extended unification of 2–and 4–neighbour pixel context linear prediction schemes. The algorithm provides individual prediction of each image band using the optimal prediction scheme, defined by the adaptive prediction model and the optimal predicting band suggested by minimum spanning tree. Its efficiency has been compared with respect to the best lossless compression algorithms for multispectral images. Three recently invented algorithms have been considered. Numerical results produced by these algorithms allow concluding that adaptive prediction based algorithm is the best one for lossless compression of multispectral images. Real multispectral data captured from an airplane have been used for the testing.