876 resultados para 2447: modelling and forecasting


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In recent years there has been an explosive growth in the development of adaptive and data driven methods. One of the efficient and data-driven approaches is based on statistical learning theory (Vapnik 1998). The theory is based on Structural Risk Minimisation (SRM) principle and has a solid statistical background. When applying SRM we are trying not only to reduce training error ? to fit the available data with a model, but also to reduce the complexity of the model and to reduce generalisation error. Many nonlinear learning procedures recently developed in neural networks and statistics can be understood and interpreted in terms of the structural risk minimisation inductive principle. A recent methodology based on SRM is called Support Vector Machines (SVM). At present SLT is still under intensive development and SVM find new areas of application (www.kernel-machines.org). SVM develop robust and non linear data models with excellent generalisation abilities that is very important both for monitoring and forecasting. SVM are extremely good when input space is high dimensional and training data set i not big enough to develop corresponding nonlinear model. Moreover, SVM use only support vectors to derive decision boundaries. It opens a way to sampling optimization, estimation of noise in data, quantification of data redundancy etc. Presentation of SVM for spatially distributed data is given in (Kanevski and Maignan 2004).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Aquest treball és la culminació de les pràctiques realitzades al sincrotró ALBA. Situat a Cerdanyola del Vallès, ALBA és un accelerador de 3a generació que permet emmagatzemar un feix d'electrons confinat de fins a 400 mA a 3GeV d'energia, amb l'objectiu d'obtenir llum a partir dels girs provocats al feix. Els sincrotrons moderns com el d'ALBA, el que pretenen és aconseguir un major control i estabilitat de la llum. Per aconseguir-ho, cal que el feix d'electrons que creen la llum estigui controlat al màxim i la seva òrbita sigui estable. Amb aquest objectiu els sincrotrons estant implementant sistemes de Fast Orbit FeedBack (FOFB) o sistemes realimentats de correcció ràpida de l'òrbita, per realitzar correccions d'almenys 100Hz que estabilitzin el feix d'electrons amb menys d'un 10% de l'amplada del feix (5-10μm). El treball exposa el desenvolupament d'una part del sistema de correcció ràpida de l'òrbita dels electrons (FOFB) que s'està duent a terme al sincrotró ALBA. Concretament, s’han revisat els estudis previs realitzats durant la fase de disseny del sincrotró, s’han recalculat funcions de transferència i retards de tots els elements involucrats al sistema. També s’han realitzat simulacions per confirmar la viabilitat del sistema amb les noves dades i finalment s’ha desenvolupat part de la unitat de control determinant el Hardware i s'ha adquirit dades que permetran analitzar el soroll de l'òrbita que en futurs treballs determinaran millor l'algorisme de la unitat de control.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The current operational very short-term and short-term quantitative precipitation forecast (QPF) at the Meteorological Service of Catalonia (SMC) is made by three different methodologies: Advection of the radar reflectivity field (ADV), Identification, tracking and forecasting of convective structures (CST) and numerical weather prediction (NWP) models using observational data assimilation (radar, satellite, etc.). These precipitation forecasts have different characteristics, lead time and spatial resolutions. The objective of this study is to combine these methods in order to obtain a single and optimized QPF at each lead time. This combination (blending) of the radar forecast (ADV and CST) and precipitation forecast from NWP model is carried out by means of different methodologies according to the prediction horizon. Firstly, in order to take advantage of the rainfall location and intensity from radar observations, a phase correction technique is applied to the NWP output to derive an additional corrected forecast (MCO). To select the best precipitation estimation in the first and second hour (t+1 h and t+2 h), the information from radar advection (ADV) and the corrected outputs from the model (MCO) are mixed by using different weights, which vary dynamically, according to indexes that quantify the quality of these predictions. This procedure has the ability to integrate the skill of rainfall location and patterns that are given by the advection of radar reflectivity field with the capacity of generating new precipitation areas from the NWP models. From the third hour (t+3 h), as radar-based forecasting has generally low skills, only the quantitative precipitation forecast from model is used. This blending of different sources of prediction is verified for different types of episodes (convective, moderately convective and stratiform) to obtain a robust methodology for implementing it in an operational and dynamic way.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Drug development has improved over recent decades, with refinements in analytical techniques, population pharmacokinetic-pharmacodynamic (PK-PD) modelling and simulation, and new biomarkers of efficacy and tolerability. Yet this progress has not yielded improvements in individualization of treatment and monitoring, owing to various obstacles: monitoring is complex and demanding, many monitoring procedures have been instituted without critical assessment of the underlying evidence and rationale, controlled clinical trials are sparse, monitoring procedures are poorly validated and both drug manufacturers and regulatory authorities take insufficient account of the importance of monitoring. Drug concentration and effect data should be increasingly collected, analyzed, aggregated and disseminated in forms suitable for prescribers, along with efficient monitoring tools and evidence-based recommendations regarding their best use. PK-PD observations should be collected for both novel and established critical drugs and applied to observational data, in order to establish whether monitoring would be suitable. Methods for aggregating PK-PD data in systematic reviews should be devised. Observational and intervention studies to evaluate monitoring procedures are needed. Miniaturized monitoring tests for delivery at the point of care should be developed and harnessed to closed-loop regulated drug delivery systems. Intelligent devices would enable unprecedented precision in the application of critical treatments, i.e. those with life-saving efficacy, narrow therapeutic margins and high interpatient variability. Pharmaceutical companies, regulatory agencies and academic clinical pharmacologists share the responsibility of leading such developments, in order to ensure that patients obtain the greatest benefit and suffer the least harm from their medicines.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The present research deals with an application of artificial neural networks for multitask learning from spatial environmental data. The real case study (sediments contamination of Geneva Lake) consists of 8 pollutants. There are different relationships between these variables, from linear correlations to strong nonlinear dependencies. The main idea is to construct a subsets of pollutants which can be efficiently modeled together within the multitask framework. The proposed two-step approach is based on: 1) the criterion of nonlinear predictability of each variable ?k? by analyzing all possible models composed from the rest of the variables by using a General Regression Neural Network (GRNN) as a model; 2) a multitask learning of the best model using multilayer perceptron and spatial predictions. The results of the study are analyzed using both machine learning and geostatistical tools.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Due to the advances in sensor networks and remote sensing technologies, the acquisition and storage rates of meteorological and climatological data increases every day and ask for novel and efficient processing algorithms. A fundamental problem of data analysis and modeling is the spatial prediction of meteorological variables in complex orography, which serves among others to extended climatological analyses, for the assimilation of data into numerical weather prediction models, for preparing inputs to hydrological models and for real time monitoring and short-term forecasting of weather.In this thesis, a new framework for spatial estimation is proposed by taking advantage of a class of algorithms emerging from the statistical learning theory. Nonparametric kernel-based methods for nonlinear data classification, regression and target detection, known as support vector machines (SVM), are adapted for mapping of meteorological variables in complex orography.With the advent of high resolution digital elevation models, the field of spatial prediction met new horizons. In fact, by exploiting image processing tools along with physical heuristics, an incredible number of terrain features which account for the topographic conditions at multiple spatial scales can be extracted. Such features are highly relevant for the mapping of meteorological variables because they control a considerable part of the spatial variability of meteorological fields in the complex Alpine orography. For instance, patterns of orographic rainfall, wind speed and cold air pools are known to be correlated with particular terrain forms, e.g. convex/concave surfaces and upwind sides of mountain slopes.Kernel-based methods are employed to learn the nonlinear statistical dependence which links the multidimensional space of geographical and topographic explanatory variables to the variable of interest, that is the wind speed as measured at the weather stations or the occurrence of orographic rainfall patterns as extracted from sequences of radar images. Compared to low dimensional models integrating only the geographical coordinates, the proposed framework opens a way to regionalize meteorological variables which are multidimensional in nature and rarely show spatial auto-correlation in the original space making the use of classical geostatistics tangled.The challenges which are explored during the thesis are manifolds. First, the complexity of models is optimized to impose appropriate smoothness properties and reduce the impact of noisy measurements. Secondly, a multiple kernel extension of SVM is considered to select the multiscale features which explain most of the spatial variability of wind speed. Then, SVM target detection methods are implemented to describe the orographic conditions which cause persistent and stationary rainfall patterns. Finally, the optimal splitting of the data is studied to estimate realistic performances and confidence intervals characterizing the uncertainty of predictions.The resulting maps of average wind speeds find applications within renewable resources assessment and opens a route to decrease the temporal scale of analysis to meet hydrological requirements. Furthermore, the maps depicting the susceptibility to orographic rainfall enhancement can be used to improve current radar-based quantitative precipitation estimation and forecasting systems and to generate stochastic ensembles of precipitation fields conditioned upon the orography.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Interviewer performance with respect to convincing sample members to participate in surveys is an important dimension of survey quality. However, unlike in CAPI surveys where each sample case 'belongs' to one interviewer, there are hardly any good measures of interview performance for centralised CATI surveys, where even single contacts are assigned to interviewers at random. If more than one interviewer works one sample case, it is not clear how to attribute success or failure to the interviewers involved. In this article, we propose two correlated methods to measure interviewer contact performance in centralised CATI surveys. Their modelling must take complex multilevel clustering effects, which need not be hierarchical, into account. Results are consistent with findings from CAPI data modelling, and we find that when comparing effects with a direct ('naive') measure of interviewer contact results, interviewer random effects are largely underestimated using the naive measure.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Työn tarkoituksena oli selvittää, miten näkymien hallintaa voidaanhelpottaa. Näkymien hallintaa lähestyttiin sekä organisaatiolle tärkeän tiedon hallinnan että konfiguraationhallintajärjestelmä ClearCasen ylläpidon kannalta. Työssä käytettiin menetelminä kirjallisuustutkimusta, mallinnusta ja konstruktiivista menetelmää. Työn alussa tutustuttiin ohjelmistojen konfiguraationhallintaan yleisesti ja työtilan hallintaan liittyviin termeihin. Työnaikana mallinnettiin ClearCasen dynaamisten näkymien hallintaprosessi ja sen pohjalta tehtiin näkymien hallintaa helpottava sovellus. Työssä kuvattiin sovelluksen muokkautuminen mallista sovellukseksi ja tarkasteltiin, miten sovelluksesta hyödytään käytännössä. Lopuksi pohdittiin näkymien hallinnan tulevaisuutta ja miten näkymien hallintaa voitaisiin jatkossa kehittää. Työn tuloksena syntyi näkymien hallintaan tarkoitettu tekstipohjainen sovellus, joka helpottaa näkymien hallintaan liittyviä ylläpitotoimia ja vuorovaikutusta ClearCasen käyttäjien kanssa. Työn aikana muodostui myös ajatuksia siitä, kuinka näkymien hallintaavoitaisiin jatkossa kehittää.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Diplomityössä tutkitaan kolmea erilaista virtausongelmaa CFD-mallinnuksella. Yhteistä näille ongelmille on virtaavana aineena oleva ilma. Lisäksi tapausten perinteinen mittaus on erittäin vaikeaa tai mahdotonta. Ensimmäinen tutkimusongelma on tarrapaperirainan kuivain, jonka tuotantomäärä halutaan nostaa kaksinkertaiseksi. Tämä vaatii kuivatustehon kaksinkertaistamista, koska rainan viipymäaika kuivausalueella puolittuu. Laskentayhtälöillä ja CFD-mallinnuksella tutkitaan puhallussuihkun nopeuden ja lämpötilan muutoksien vaikutusta rainan pinnan lämmön- ja massansiirtokertoimiin. Tuloksena saadaan varioitujen suureiden sekä massan- ja lämmönsiirtokertoimien välille riippuvuuskäyrät, joiden perusteella kuivain voidaan säätää parhaallamahdollisella tavalla. Toinen ongelma käsittelee suunnitteilla olevan kuparikonvertterin sekundaarihuuvan sieppausasteen optimointia. Ilman parannustoimenpiteitä käännetyn konvertterin päästöistä suurin osa karkaa ohi sekundaarihuuvan. Tilannetta tutkitaan konvertterissa syntyvän konvektiivisen nostevirtauksen eli päästöpluumin sekä erilaisten puhallussuihkuratkaisujen CFD-mallinnuksella. Tuloksena saadaan puhallussuihkuilla päästöpluumia poikkeuttava ilmaverho. Suurin osa nousevasta päästöpluumista indusoituu ilmaverhoon ja kulkeutuu poistokanavaan. Kolmas tutkittava kohde on suunnitteilla oleva kuparielektrolyysihalli, jossa ilmanvaihtoperiaatteena on luonnollinen ilmanvaihto ja mekaaninen happosumun keräysjärjestelmä. Ilmanvaihtosysteemin tehokkuus ja sisäilman virtaukset halutaan selvittää ennen hallin rakentamista. CFD-mallinnuksella ja laskentayhtälöillä tutkitaan lämpötila- ja virtauskentät sekä hallin läpi virtaava ilmamäärä ja ilmanvaihtoaste. Tulo- ja poistoilma-aukkojen mitoitukseen ja sijoitukseen liittyvät suunnitteluarvot varmennetaan sekä löydetään ilmanvaihdon ongelmakohdat. Ongelmakohtia tutkitaan ja niille esitetään parannusehdotukset.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Diplomityön tavoitteena oli tutkia UPM-Kymmene Oyj:n keskusvalvomossa tapahtuvaa vesivoiman ajosuunnittelua. Pääkohdat tarkastelussa olivat vesistöjen säännöstely, erilaiset vesivuodet ja sähkömarkkinatilanteet. Vesivoiman ajosuunnittelua tarkasteltiin pääasiassa erilaisten vesivuosien ja sähkömarkkinatilanteiden näkökulmasta. Lähtötietoina käytettiin Suomen ympäristökeskuksen vesistömallijärjestelmän ja UPM-Kymmene Oyj:n energianhallintajärjestelmän numeerisia historia-arvoja. Työssäselvitettiin UPM-Kymmene Oyj:n vesivarannoista hyödynnettävissä olevat energiamäärät. Energiamäärien avulla määritettiin skenaario UPM-Kymmene Oyj:n vesivoimantuotannon vaihtelusta. Lisäksi tarkasteltiin vesivoimaa sähkötaseen säätövoimana. Teoreettisessa osassa perehdyttiin Suomen sähköntuotantorakenteeseen, vesivoiman asemaan sähköntuotannossa ja vesivoiman ohjausmekanismeihin. Lisäksi tarkasteltiin UPM-Kymmene Oyj:n sähkön käyttöä ja vesivarantoja. Soveltavassa osassa tarkasteltiin, miten vesivoiman ohjausmekanismit toimivat käytännössä. Lisäksi analysoitiin sähkömarkkinatilanteiden vaikutuksia ja vesivoimalaitosten ajon tehostamismahdollisuuksia. Työn tuloksena laadittiin ennuste-simulaattori, jolla voidaan optimoida vesivoimanja lauhdevoiman ajoa. Tulevaisuudessa simulaattorin avulla voidaan ennustaa poikkeuksellisia sähkömarkkinatilanteita.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Koneet voidaan usein jakaa osajärjestelmiin, joita ovat ohjaus- ja säätöjärjestelmät, voimaa tuottavat toimilaitteet ja voiman välittävät mekanismit. Eri osajärjestelmiä on simuloitu tietokoneavusteisesti jo usean vuosikymmenen ajan. Osajärjestelmien yhdistäminen on kuitenkin uudempi ilmiö. Usein esimerkiksi mekanismien mallinnuksessa toimilaitteen tuottama voimaon kuvattu vakiona, tai ajan funktiona muuttuvana voimana. Vastaavasti toimilaitteiden analysoinnissa mekanismin toimilaitteeseen välittämä kuormitus on kuvattu vakiovoimana, tai ajan funktiona työkiertoa kuvaavana kuormituksena. Kun osajärjestelmät on erotettu toisistaan, on niiden välistenvuorovaikutuksien tarkastelu erittäin epätarkkaa. Samoin osajärjestelmän vaikutuksen huomioiminen koko järjestelmän käyttäytymissä on hankalaa. Mekanismien dynamiikan mallinnukseen on kehitetty erityisesti tietokoneille soveltuvia numeerisia mallinnusmenetelmiä. Useimmat menetelmistä perustuvat Lagrangen menetelmään, joka mahdollistaa vapaasti valittaviin koordinaattimuuttujiin perustuvan mallinnuksen. Numeerista ratkaisun mahdollistamiseksi menetelmän avulla muodostettua differentiaali-algebraaliyhtälöryhmää joudutaan muokkaamaan esim. derivoimalla rajoiteyhtälöitä kahteen kertaan. Menetelmän alkuperäisessä numeerisissa ratkaisuissa kaikki mekanismia kuvaavat yleistetyt koordinaatit integroidaan jokaisella aika-askeleella. Tästä perusmenetelmästä johdetuissa menetelmissä riippumattomat yleistetyt koordinaatit joko integroidaan ja riippuvat koordinaatit ratkaistaan rajoiteyhtälöiden perusteella tai yhtälöryhmän kokoa pienennetään esim. käyttämällä nopeus- ja kiihtyvyysanalyyseissä eri kiertymäkoordinaatteja kuin asema-analyysissä. Useimmat integrointimenetelmät on alun perin tarkoitettu differentiaaliyhtälöiden (ODE) ratkaisuunjolloin yhtälöryhmään liitetyt niveliä kuvaavat algebraaliset rajoiteyhtälöt saattavat aiheuttaa ongelmia. Nivelrajoitteiden virheiden korjaus, stabilointi, on erittäin tärkeää mekanismien dynamiikan simuloinnin onnistumisen ja tulosten oikeellisuuden kannalta. Mallinnusmenetelmien johtamisessa käytetyn virtuaalisen työn periaatteen oletuksena nimittäin on, etteivät rajoitevoimat tee työtä, eli rajoitteiden vastaista siirtymää ei tapahdu. Varsinkaan monimutkaisten järjestelmien pidemmissä analyyseissä nivelrajoitteet eivät toteudu tarkasti. Tällöin järjestelmän energiatasapainoei toteudu ja järjestelmään muodostuu virtuaalista energiaa, joka rikkoo virtuaalisen työn periaatetta, Tästä syystä tulokset eivät enää pidäpaikkaansa. Tässä raportissa tarkastellaan erityyppisiä mallinnus- ja ratkaisumenetelmiä, ja vertaillaan niiden toimivuutta yksinkertaisten mekanismien numeerisessa ratkaisussa. Menetelmien toimivuutta tarkastellaan ratkaisun tehokkuuden, nivelrajoitteiden toteutumisen ja energiatasapainon säilymisen kannalta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Over 70% of the total costs of an end product are consequences of decisions that are made during the design process. A search for optimal cross-sections will often have only a marginal effect on the amount of material used if the geometry of a structure is fixed and if the cross-sectional characteristics of its elements are property designed by conventional methods. In recent years, optimalgeometry has become a central area of research in the automated design of structures. It is generally accepted that no single optimisation algorithm is suitable for all engineering design problems. An appropriate algorithm, therefore, mustbe selected individually for each optimisation situation. Modelling is the mosttime consuming phase in the optimisation of steel and metal structures. In thisresearch, the goal was to develop a method and computer program, which reduces the modelling and optimisation time for structural design. The program needed anoptimisation algorithm that is suitable for various engineering design problems. Because Finite Element modelling is commonly used in the design of steel and metal structures, the interaction between a finite element tool and optimisation tool needed a practical solution. The developed method and computer programs were tested with standard optimisation tests and practical design optimisation cases. Three generations of computer programs are developed. The programs combine anoptimisation problem modelling tool and FE-modelling program using three alternate methdos. The modelling and optimisation was demonstrated in the design of a new boom construction and steel structures of flat and ridge roofs. This thesis demonstrates that the most time consuming modelling time is significantly reduced. Modelling errors are reduced and the results are more reliable. A new selection rule for the evolution algorithm, which eliminates the need for constraint weight factors is tested with optimisation cases of the steel structures that include hundreds of constraints. It is seen that the tested algorithm can be used nearly as a black box without parameter settings and penalty factors of the constraints.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tämä diplomityö määrittelee teknologiaseurantaprosessin, jolla korkean teknologian yritys voi ohjata toimintaansa. Korkean teknologian yrityksille on olennaista seurata teknologian kehitystä. Tällaiset yritykset tarvitsevat hyvin määritellyn järjestelmän, jolla ne voivat seurata ja ennustaa teknologista kehitystä.Työssä esitetään, että teknologiaseuranta ja kilpailuseuranta (competitive intelligence) ovat business intelligencen osa-alueita, jotka täydentävät ja tukevat toisiaan. Tärkeä havainto on, että business intelligence -prosessi on ennen kaikkea organisaation oppimisprosessi. Tästä seuraa, että minkä tahansa BI-prosessin tulisi perustua niihin prosesseihin, joiden avulla organisaatiot oppivat. Työssä esitetään myös, miten business intelligence, tietojohtaminen (knowledge management) ja organisaatioiden oppiminen liittyvät toisiinsa.Teknologiaseuranta on elintärkeä toiminto korkean teknologian yritykselle; sitä tarvitaan monella strategisen johtamisen osa-alueella, ainakin teknologia-, markkinointi- ja henkilöstöjohtamisessa. Teknologiaseurannan havaitaan myös olevan korkean teknologian yritykselle erittäin tärkeä ydinosaamisalue, jota ei voi kokonaan ulkoistaa.Työssä esitellään teknologiaseurantaprosessi, joka perustuu yleiselle business intelligence -prosessille ja siitä johdetulle kilpailuseurantaprosessille. Työssä myös esitetään ehdotus siitä, kuinka teknologiaseuranta voitaisiin järjestää korkean teknologian yrityksessä. Esitetty ratkaisu perustuu Community of practice -käsitteeseen. Community of practice on vapaaehtoisuuteen perustuva tiimi, jonka jäseniä yhdistää kiinnostus johonkin asiaan ja oppimishalu. Esimerkkiyrityksessä on tunnistettu selkeä tarve yhtenäiseen ja koordinoituun teknologiaseurantaan. Työssä esitetään alustava teknologiaseurantaprosessi esimerkkiyritykselle ja tunnistetaan teknologiaseurantaprosessin asiakkaat ja tekijät.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Logistiikan kehittämisen merkitys on suuri rakennusalan yritysten kilpailukyvylle. Tutkimuksen kohdeyrityksessä ei tunnettu logistiikkakustannuksia ja tämän takia eri toimitusketjuvaihtoehtojen kustannusvaikutuksia ei voitu vertailla. Ilman kustannustietoja toiminnan kehittäminen ja kilpailukyky kärsivät. Rakentamisen kehittämisen nopein tehostamis- ja kustannussäästöpotentiaali onkin logistiikassa. Tutkimuksen tavoite oli luoda helppokäyttöinen, nopea, ymmärrettävä ja luotettavaa informaatiota tarjoava toimitusketjuratkaisija, jonka avulla voidaan löytää kustannustehokkain toimitusketju projektitietojen perusteella. Alustava mallinnus ja testaus suoritettiin Excel-ohjelmalla. Malli laski logistiset kustannukset kustannustekijäkohtaisesti yhteen huomioiden tutkimuksen rajaukset. Osa rakennusalan tuotteista aiheuttaa huomattavan määrän kokonais- sekä logistisista kustannuksista, kun taas tiettyjen tuotteiden kustannukset ovat vain pieniä. Eri talotyypeille voidaan löytää yleisiä ohjesääntöjä toimitusketjujen käytöstä, mutta työmailla on aina myös tuotteita, jotka kannattaa tuoda joko terminaali- tai suorana toimituksena. Työmaiden olosuhteet ja toimitusmäärät ovatkin varsin ratkaisevassa asemassa toimitustapaa valittaessa. Edellä mainittuja tutkimustuloksia tukivat alan kirjallisuus sekä mallin testaustulokset.