992 resultados para gaussian process
Resumo:
This paper presents a validation study on statistical nonsupervised brain tissue classification techniques in magnetic resonance (MR) images. Several image models assuming different hypotheses regarding the intensity distribution model, the spatial model and the number of classes are assessed. The methods are tested on simulated data for which the classification ground truth is known. Different noise and intensity nonuniformities are added to simulate real imaging conditions. No enhancement of the image quality is considered either before or during the classification process. This way, the accuracy of the methods and their robustness against image artifacts are tested. Classification is also performed on real data where a quantitative validation compares the methods' results with an estimated ground truth from manual segmentations by experts. Validity of the various classification methods in the labeling of the image as well as in the tissue volume is estimated with different local and global measures. Results demonstrate that methods relying on both intensity and spatial information are more robust to noise and field inhomogeneities. We also demonstrate that partial volume is not perfectly modeled, even though methods that account for mixture classes outperform methods that only consider pure Gaussian classes. Finally, we show that simulated data results can also be extended to real data.
Resumo:
Abstract
Resumo:
This paper deals with the goodness of the Gaussian assumption when designing second-order blind estimationmethods in the context of digital communications. The low- andhigh-signal-to-noise ratio (SNR) asymptotic performance of the maximum likelihood estimator—derived assuming Gaussiantransmitted symbols—is compared with the performance of the optimal second-order estimator, which exploits the actualdistribution of the discrete constellation. The asymptotic study concludes that the Gaussian assumption leads to the optimalsecond-order solution if the SNR is very low or if the symbols belong to a multilevel constellation such as quadrature-amplitudemodulation (QAM) or amplitude-phase-shift keying (APSK). On the other hand, the Gaussian assumption can yield importantlosses at high SNR if the transmitted symbols are drawn from a constant modulus constellation such as phase-shift keying (PSK)or continuous-phase modulations (CPM). These conclusions are illustrated for the problem of direction-of-arrival (DOA) estimation of multiple digitally-modulated signals.
Resumo:
The well-known structure of an array combiner along with a maximum likelihood sequence estimator (MLSE) receiveris the basis for the derivation of a space-time processor presentinggood properties in terms of co-channel and intersymbol interferencerejection. The use of spatial diversity at the receiver front-endtogether with a scalar MLSE implies a joint design of the spatialcombiner and the impulse response for the sequence detector. Thisis faced using the MMSE criterion under the constraint that thedesired user signal power is not cancelled, yielding an impulse responsefor the sequence detector that is matched to the channel andcombiner response. The procedure maximizes the signal-to-noiseratio at the input of the detector and exhibits excellent performancein realistic multipath channels.
Resumo:
The software development industry is constantly evolving. The rise of the agile methodologies in the late 1990s, and new development tools and technologies require growing attention for everybody working within this industry. The organizations have, however, had a mixture of various processes and different process languages since a standard software development process language has not been available. A promising process meta-model called Software & Systems Process Engineering Meta- Model (SPEM) 2.0 has been released recently. This is applied by tools such as Eclipse Process Framework Composer, which is designed for implementing and maintaining processes and method content. Its aim is to support a broad variety of project types and development styles. This thesis presents the concepts of software processes, models, traditional and agile approaches, method engineering, and software process improvement. Some of the most well-known methodologies (RUP, OpenUP, OpenMethod, XP and Scrum) are also introduced with a comparison provided between them. The main focus is on the Eclipse Process Framework and SPEM 2.0, their capabilities, usage and modeling. As a proof of concept, I present a case study of modeling OpenMethod with EPF Composer and SPEM 2.0. The results show that the new meta-model and tool have made it possible to easily manage method content, publish versions with customized content, and connect project tools (such as MS Project) with the process content. The software process modeling also acts as a process improvement activity.
Resumo:
Diplomityön tarkoituksena oli löytää keino korkean mangaanipitoisuuden hallintaan ECF-valkaisussa. Kirjallisuusosassa käsiteltiin eri metallien ja kuidun vuorovaikutuksia sekä niiden vaikutuksia prosessiin. Lisäksi käytiin läpi sellunvalmituksen yleisimpiä metallienhallintamenetelmiä. Työn kokeellisessa osassa tehtiin esikokeina laboratoriokokeita, jotta löydettiin oikeat kelatointistrategiat tehdasmittakaavan koeajoille. Laboratoriovalkaisut suoritettiin kuudella eri kemikaalilla käyttäen DD3-pesurin jälkeistä massaa ja samanlaisia parametrejä kuin tehdasvalkaisussa. Kolmesta eri valkaisusekvenssistä paras tulos saavutettiin D0-QEP-sekvenssillä. Tehdasmittakaavan koeajojen tavoitteena oli saavuttaa alle 1 mg/kg jäännösmangaanipitoisuus valkaistussa massassa ja korkeampi vaaleus EOP-vaiheessa pienemmällä klooridioksidin kulutuksella. Koeajoissa käytettiinDTPA:ta ja EDTA:ta kahdeksassa eri koepisteessä. Pienimpiin jäännöspitoisuuksiin päästiin koepisteissä, joissa kelatointiaine annosteltiin ennen valkaisun viimeistä pesuvaihetta tai sen jälkeen. Samanlaisia tuloksia saavutettiin koepisteissä, joissa kelatointiaine lisättiin suoraan EOP-vaiheeseen. Tällöin kelatointiaineen käyttö johti myös korkeampaan vaaleuteen EOP-vaiheessa pienemmällä kappakertoimella kuin referenssissä. Säästöt klooridioksidin kulutuksessa eivät olleet kuitenkaan tarpeeksi suuret kattaakseen kelatointiaineiden käytön kustannuksia. Kustannustehokkain tapa kontrolloida jäännösmangaanipitoisuutta oli EDTA:n annostelu D2 DD-pesurin jälkeen. Haittapuolena tälläisessä kelatoinnissa oli metallikompleksien palautuminen valkaisuun kuivauskoneen kiertoveden mukana. Tärkeimmät onnistuneeseen kelatointiin vaikuttavat parametrit olivat lajittelussa käytetyn rikkihapon annos, D0-vaiheen pH ja D0 DD-pesurin pesutehokkuus.
Resumo:
Työn päätavoitteena oli tuoda esiin tärkeimmät julkistamisprosessin tehokkuuteen vaikuttavat tekijät. Tutkimuksessa tarkasteltiin aihetta julkistamisprojektien vetäjän näkökulmasta. Kirjallinen selvitys kattaa keskeisimmät ohjelmistoprosessin, palvelun laadun sekä projektihallinnan teoriat. Kokeellisena aineistona käytettiin asiakkailta ja myynnin sekä käyttöönoton organisaatioilta tullutta palautetta ja asiantuntijahaastatteluita. Case-tuotteena tarkasteltiin suuren kansainvälisen yrityksen jälleenmyymää leikkaussalihallinnan ohjelmistoa. Tärkeimpiä julkistamisprosessin tehokkuuteen vaikuttavia tekijöitä ovat tiekartan ja julkistamispakettien sisällön hallinta, projektin aikataulujen pitäminen, rehellinen ja nopea kommunikaatio myyntikanavaan ja asiakkaille, sekä hyvin toteutettu testaus. Työssä käydään läpi esimerkkistrategioita kehittymiseen näillä alueilla.
Resumo:
Työn tavoitteena oli tutkia hyvän asiakasreferenssin ominaisuuksia suodatinvalmistaja Laroxin myynnin ja huollon sekä yrityksen asiakkaiden näkökulmasta. Larox voi käyttää saatua tietoa referenssien tehokkaampaan valintaan ja hyödyntämiseen. Kaksi internet-kyselyä toteutettiin, välineenä Webropol. Alustava kysely sunnattiin Laroxin myynnille ja huollolle. Kysely koostui viidestä kategoriasta asiakasreferenssejä, joiden tärkeyttä arvioitiin, sekä vapaista vastauksista. Tunnistettuja hyvän asiakasreferenssin ominaisuuksia ovat hyvä suhde referenssiasiakkaaseen, positiiviset jarehelliset suosittelut asiakkaalta, referenssilaitteen hyvä toimintakyky ja asiakas joka ymmärtää huollon tärkeyden. Pääkysely suunnattiin Laroxin asiakkaille. Tilastollisilla analyyseilla tutkittiin koetun riskin mallinmuuttujien välisiä yhteyksiä. Analyysit eivät paljastaneet merkittäviä riippuvuuksia asiakasreferenssin ominaisuuksien tärkeydessä eritaustaisten vastaajien tai tilannetekijöiden välillä, mutta asiakasreferenssin ominaisuuksien faktorit tukevat mallia. Referenssilaitteiden toimintakyky vaikuttaa tärkeimmältä ja huollon tärkeys on myös merkittävä.
Resumo:
Työn tavoitteena oli selvittää SBU:n varastovaraosien logistinen prosessin tämänhetkinen tilanne verrattuna muihin ja sitä kautta oppia uusia tehokkaita tapoja hallita sitä sekä parantaa sen kilpailukykyä. Selvittäminen tapahtui benchmarkkaamalla SBU:n varastovaraosien logistinen prosessi kahteen sen kilpailijaan ja viiteen muuhun ei kilpailija yritykseen. Bechmarking -aineiston kerääminen tapahtui pääasiassa Inter netin, haastattelujen, bechmarking -kyselyn ja yritysvierailujen avulla. Tulosten vertailu ja analysointi perustui kerättyyn aineistoon. Kriteereiksi lopullista vertailua varten valittiin seikat, joihin liittyvä tieto oli saatavilta suurimmalta osalta bechmarking -yrityksistä. Tuloksena lopullisesta vertailusta muodostettiin "ranking" lista, jossa yritykset on laitettu paremmuus-järjestykseen. Tässä vertailussa SBU sijoittui viimeiseksi ja SBU varastovaraosien logistisessa prosessissa havaittiin olevan useita parannuskohteita. Joka tapauksessa SBU sai paljon tietoa siitä, kuinka muut yritykset hallitsevat prosessinsa ja kuinka SBU:n tulisi tulevaisuudessa hallita oma logistinen prosessinsa ja kuinka se voisi sitä kautta lisätä kilpailukykyään.