130 resultados para satellite applications

em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland


Relevância:

30.00% 30.00%

Publicador:

Resumo:

This work presents new, efficient Markov chain Monte Carlo (MCMC) simulation methods for statistical analysis in various modelling applications. When using MCMC methods, the model is simulated repeatedly to explore the probability distribution describing the uncertainties in model parameters and predictions. In adaptive MCMC methods based on the Metropolis-Hastings algorithm, the proposal distribution needed by the algorithm learns from the target distribution as the simulation proceeds. Adaptive MCMC methods have been subject of intensive research lately, as they open a way for essentially easier use of the methodology. The lack of user-friendly computer programs has been a main obstacle for wider acceptance of the methods. This work provides two new adaptive MCMC methods: DRAM and AARJ. The DRAM method has been built especially to work in high dimensional and non-linear problems. The AARJ method is an extension to DRAM for model selection problems, where the mathematical formulation of the model is uncertain and we want simultaneously to fit several different models to the same observations. The methods were developed while keeping in mind the needs of modelling applications typical in environmental sciences. The development work has been pursued while working with several application projects. The applications presented in this work are: a winter time oxygen concentration model for Lake Tuusulanjärvi and adaptive control of the aerator; a nutrition model for Lake Pyhäjärvi and lake management planning; validation of the algorithms of the GOMOS ozone remote sensing instrument on board the Envisat satellite of European Space Agency and the study of the effects of aerosol model selection on the GOMOS algorithm.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Stratospheric ozone can be measured accurately using a limb scatter remote sensing technique at the UV-visible spectral region of solar light. The advantages of this technique includes a good vertical resolution and a good daytime coverage of the measurements. In addition to ozone, UV-visible limb scatter measurements contain information about NO2, NO3, OClO, BrO and aerosols. There are currently several satellite instruments continuously scanning the atmosphere and measuring the UVvisible region of the spectrum, e.g., the Optical Spectrograph and Infrared Imager System (OSIRIS) launched on the Odin satellite in February 2001, and the Scanning Imaging Absorption SpectroMeter for Atmospheric CartograpHY (SCIAMACHY) launched on Envisat in March 2002. Envisat also carries the Global Ozone Monitoring by Occultation of Stars (GOMOS) instrument, which also measures limb-scattered sunlight under bright limb occultation conditions. These conditions occur during daytime occultation measurements. The global coverage of the satellite measurements is far better than any other ozone measurement technique, but still the measurements are sparse in the spatial domain. Measurements are also repeated relatively rarely over a certain area, and the composition of the Earth’s atmosphere changes dynamically. Assimilation methods are therefore needed in order to combine the information of the measurements with the atmospheric model. In recent years, the focus of assimilation algorithm research has turned towards filtering methods. The traditional Extended Kalman filter (EKF) method takes into account not only the uncertainty of the measurements, but also the uncertainty of the evolution model of the system. However, the computational cost of full blown EKF increases rapidly as the number of the model parameters increases. Therefore the EKF method cannot be applied directly to the stratospheric ozone assimilation problem. The work in this thesis is devoted to the development of inversion methods for satellite instruments and the development of assimilation methods used with atmospheric models.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Selostus: Terveyttä ja ruoan turvallisuutta edistävät maitohappobakteerien biotekniset sovellukset

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Selostus: Syötävien gluteenikalvojen valmistus, ominaisuudt ja eräät käyttösovellukset

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Selostus: Aikaisen ja tavanomaisen kasvunsäädekäsittelyn vaikutus kevätviljojen kasvustoon ja satoon

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Granular flow phenomena are frequently encountered in the design of process and industrial plants in the traditional fields of the chemical, nuclear and oil industries as well as in other activities such as food and materials handling. Multi-phase flow is one important branch of the granular flow. Granular materials have unusual kinds of behavior compared to normal materials, either solids or fluids. Although some of the characteristics are still not well-known yet, one thing is confirmed: the particle-particle interaction plays a key role in the dynamics of granular materials, especially for dense granular materials. At the beginning of this thesis, detailed illustration of developing two models for describing the interaction based on the results of finite-element simulation, dimension analysis and numerical simulation is presented. The first model is used to describing the normal collision of viscoelastic particles. Based on some existent models, more parameters are added to this model, which make the model predict the experimental results more accurately. The second model is used for oblique collision, which include the effects from tangential velocity, angular velocity and surface friction based on Coulomb's law. The theoretical predictions of this model are in agreement with those by finite-element simulation. I n the latter chapters of this thesis, the models are used to predict industrial granular flow and the agreement between the simulations and experiments also shows the validation of the new model. The first case presents the simulation of granular flow passing over a circular obstacle. The simulations successfully predict the existence of a parabolic steady layer and show how the characteristics of the particles, such as coefficients of restitution and surface friction affect the separation results. The second case is a spinning container filled with granular material. Employing the previous models, the simulation could also reproduce experimentally observed phenomena, such as a depression in the center of a high frequency rotation. The third application is about gas-solid mixed flow in a vertically vibrated device. Gas phase motion is added to coherence with the particle motion. The governing equations of the gas phase are solved by using the Large eddy simulation (LES) and particle motion is predicted by using the Lagrangian method. The simulation predicted some pattern formation reported by experiment.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nanotiltration is a membrane separation method known for its special characteristic of rejecting multivalent ions and passing monovalent ions. Thus, it is commonly applied with dilute aqueous solutions in partial salt removal, like in drinking water production. The possibilities of nanofiltration have been studied and the technique applied in a wide branch of industries, e.g. the pulp and paper, the textile and the chemical processing industry. However, most present applications and most of the potential applications studied involve dilute solutions, the permeating stream being generally water containing monovalent salts. In this study nanotiltration is investigated more as a fractionation method. A well-known application in the dairy industry is concentration and partial salt removal from whey. Concentration and partial demineralization is beneficial for futher processing of whey as whey concentrates are used e.g. in baby foods. In the experiments of this study nanotiltration effectively reduced the monovalent salts in the whey concentrate. The main concern in this application is lactose leakage into the permeate. With the nanofiltration membranes used the lactose retentions were practically ? 99%. Another dairy application studied was the purification and reuse of cleaning solutions. This is an environmentally driven application. An 80% COD reduction by nanofiltration was observed for alkaline cleaning-in-place solution. Nanofiltration is not as commonly applied in the sugar and sweeteners industry as in the dairy industry. In this study one potential application was investigated, namely xylose purification from hemicellulose hydrolyzate. Xylose is raw material for xylitol production. Xylose separation from glucose was initially studied with xylose-glucose model solutions. The ability of nanofiltration to partially separate xylose into the permeate from rather concentrated xylose-glucose solutions (10 w-% and 30 w-%) became evident. The difference in size between xylose and glucose molecules according to any size measure is small, e.g. the Stokes diameter of glucose is 0.73 nm compared to 0.65 nm for xylose. In further experiments, xylose was purified into nanoliltration permeate from a hemicellulose hydrolyzate solution. The xylose content in the total solids was increased by 1.4—1.7 fold depending on temperature, pressure and feed composition.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Web-portaalien aiheenmukaista luokittelua voidaan hyödyntää tunnistamaan käyttäjän kiinnostuksen kohteet keräämällä tilastotietoa hänen selaustottumuksistaan eri kategorioissa. Tämä diplomityö käsittelee web-sovelluksien osa-alueita, joissa kerättyä tilastotietoa voidaan hyödyntää personalisoinnissa. Yleisperiaatteet sisällön personalisoinnista, Internet-mainostamisesta ja tiedonhausta selitetään matemaattisia malleja käyttäen. Lisäksi työssä kuvaillaan yleisluontoiset ominaisuudet web-portaaleista sekä tilastotiedon keräämiseen liittyvät seikat.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The main objective of this study was todo a statistical analysis of ecological type from optical satellite data, using Tipping's sparse Bayesian algorithm. This thesis uses "the Relevence Vector Machine" algorithm in ecological classification betweenforestland and wetland. Further this bi-classification technique was used to do classification of many other different species of trees and produces hierarchical classification of entire subclasses given as a target class. Also, we carried out an attempt to use airborne image of same forest area. Combining it with image analysis, using different image processing operation, we tried to extract good features and later used them to perform classification of forestland and wetland.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Menestyäkseen nykymaailmassa ihmiset ovat turvautuneet toisiinsa muodostaen samallaerilaisia yhteisöjä ja verkostoja. Näille yhteisöille on tunnusomaista, että niissä vaikuttavien jäsenien ajatustavat yhtyvät keskenään. Yhteisöissä syntyy uusia ideoita ja keksintöjä. Niiden välittäminen maailmalle on usein kuitenkin ongelmallista. Digitaalisuus, Internet ja monet muut uudet teknologiat tuovat yhden ratkaisun ongelmaan. Eräs uuden teknologian mahdollistama kanava on yhteisötelevisio, jonka kautta yhteisön viestintää voidaan tehokkaasti välittää. Yhteisöilläei kuitenkaan ole teknistä taitoa toteuttaa tällaista palvelua. Yhteisöille, kuten pk-yrityksille, kouluille, seuroille, yhdistyksille ja jopa yksittäisille ihmisille, tuleekin pystyä tarjoamaan valmis konsepti, joka on helposti heidän käytettävissään. Tämä diplomityö toimii teknisenä pohjana Finnish Satellite Television Oy:n yhteisö-tv -palvelukonseptille, joka tullaan ottamaan laajamittaiseen käyttöön vuoden 2007 aikana. Työssä käydään läpi yhteisön ja yhteisöllisyyden tunnusmerkit ja peruspiirteet, luodaan katsaus yhteisötelevision alkutaipaleisiin, nykytilaan ja sen eri ratkaisuihin. Lisäksi tutustutaan yhteisö-tv:n kansainvälisiin ja kotimaisiin kokeiluihin ja pilottiprojekteihin. Työn teknisessä osassa tutkitaan yhteisötelevision mahdollistaviin teknologioihin, siirtoteihin sekä digitaalisiin tuotantojärjestelmiin. Lopuksi työssä kootaan yhteen käytettävyydeltään, liikutettavuudeltaan ja kustannustehokkuudeltaan sopivimmat tekniset toteutusvaihtoehdot konseptin käyttöönottoa varten.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tämä diplomityö tehtiin Convergens Oy:lle. Convergens on elektroniikan suunnittelutoimisto, joka on erikoistunut sulautettuihin järjestelmiin sekä tietoliikennetekniikkaan. Diplomityön tavoitteena oli suunnitella tietokonekortti tietoliikennesovelluksia varten asiakkaalle, jolta vaatimusmäärittelyt tulivat. Työ on rajattu koskemaan laitteen prototyypin suunnittelua. Työssä suunnitellaan pääasiassa WLAN-tukiaseman tietokone. Tukiasema onasennettavissa toimistoihin, varastoihin, kauppoihin sekä myös liikkuvaan ajoneuvoon. Suunnittelussa on otettu nämä asiat huomioon, ja laitteen akun pystyy lataamaan muun muassa auton akulla. Langattomat tekniikat ovat voimakkaasti yleistymässä, ja tämän työn tukiasema tarjoaakin varteenotettavan vaihtoehdon lukuisilla ominaisuuksillaan. Mukana on mm. GPS, Bluetooth sekä Ethernet-valmius. Langattomien tekniikoiden lisäksi myös sulautetut järjestelmät ovat voimakkaasti yleistymässä, ja nykyään mikroprosessoreita löytääkin lähesmistä vain. Tässä projektissa käytetty prosessori on nopeutensa puolesta kilpailukykyinen, ja siitä löytyy useita eri rajapintoja. Jatkossa tietokonekortille on myös tulossa WiMAX-tuki, joka lisää tukiaseman tulevaisuuden arvoa asiakkaalle. Projektiin valittu Freescalen MPC8321E-prosessori on PowerPC-arkkitehtuuriin perustuva ja juuri markkinoille ilmestynyt. Tämä toi mukanaan lisähaasteen, sillä kyseisestä prosessorista ei ollut vielä kaikkea tietoa saatavilla. Mekaniikka toi omat haasteensa mukanaan, sillä se rajoitti piirilevyn koonniin, että ylimääräistä piirilevytilaa ei juurikaan jäänyt. Tämän takia esimerkiksi DDR-muistit olivat haastavia reitittää, sillä muistivetojen on oltava melko samanpituisia keskenään. Käyttöjärjestelmänä projektissa käytetään Linuxia. Suunnittelu alkoi keväällä 2007 ja toimiva prototyyppi oli valmis alkusyksystä. Prototyypin testaus osoitti, että tietokonekortti kykenee täyttämään kaikki asiakkaan vaatimukset. Prototyypin testauksessa löytyneet viat ja optimoinnit on tarkoitus korjata tuotantomalliin, joten se antaa hyvän pohjan jatkosuunnittelua varten.