31 resultados para time history analysis
Resumo:
Megillat ha-Megalleh av Abraham bar Hijja (Spanien, 12. årh.) är bäst känd som en samling av messianska beräkningar. Men boken som helhet innehåller, vid sidan om beräkningarna, varierande innehåll såsom filosofi, bibeltolkning och astrologi. Bar Hijja framför en argumentering, inför det växande inflytandet på judarna från de kristna, för att den judiska religionen, och särskilt judarnas väntan på den messianska tiden, fortfarande är giltiga. Bar Hijja utvecklar, med hjälp av den judiska traditionen, arabiska vetenskapliga och andra källor samt omdefinierade kristna ideér, en syn på historien som en determinisk händelselopp som består av goda och dåliga tider men eventuellt skall kulminera i en messiansk tid för judarna. Boken innehåller även en omfattande astrologisk kommentar på historien, som bland annat beskriver uppkomsten och historien av de kristna och muslimska världsmakterna, samt deras förhållanden med judar. Boken är tydligt avsett att övertyga judarna att förbli judar, genom att argumentera med hjälp av både judiskt och ickejudiskt material, att oavsett läget i exil har de den framtid som de väntat för. I det medeltida sammanhanget syns detta inte enbart som en religiös fråga utan också som en politisk strävan till att säkerställa det judiska samfundets framtid.
Resumo:
[Abstract]
Resumo:
Chaotic behaviour is one of the hardest problems that can happen in nonlinear dynamical systems with severe nonlinearities. It makes the system's responses unpredictable. It makes the system's responses to behave similar to noise. In some applications it should be avoided. One of the approaches to detect the chaotic behaviour is nding the Lyapunov exponent through examining the dynamical equation of the system. It needs a model of the system. The goal of this study is the diagnosis of chaotic behaviour by just exploring the data (signal) without using any dynamical model of the system. In this work two methods are tested on the time series data collected from AMB (Active Magnetic Bearing) system sensors. The rst method is used to nd the largest Lyapunov exponent by Rosenstein method. The second method is a 0-1 test for identifying chaotic behaviour. These two methods are used to detect if the data is chaotic. By using Rosenstein method it is needed to nd the minimum embedding dimension. To nd the minimum embedding dimension Cao method is used. Cao method does not give just the minimum embedding dimension, it also gives the order of the nonlinear dynamical equation of the system and also it shows how the system's signals are corrupted with noise. At the end of this research a test called runs test is introduced to show that the data is not excessively noisy.
Resumo:
Longitudinal surveys are increasingly used to collect event history data on person-specific processes such as transitions between labour market states. Surveybased event history data pose a number of challenges for statistical analysis. These challenges include survey errors due to sampling, non-response, attrition and measurement. This study deals with non-response, attrition and measurement errors in event history data and the bias caused by them in event history analysis. The study also discusses some choices faced by a researcher using longitudinal survey data for event history analysis and demonstrates their effects. These choices include, whether a design-based or a model-based approach is taken, which subset of data to use and, if a design-based approach is taken, which weights to use. The study takes advantage of the possibility to use combined longitudinal survey register data. The Finnish subset of European Community Household Panel (FI ECHP) survey for waves 1–5 were linked at person-level with longitudinal register data. Unemployment spells were used as study variables of interest. Lastly, a simulation study was conducted in order to assess the statistical properties of the Inverse Probability of Censoring Weighting (IPCW) method in a survey data context. The study shows how combined longitudinal survey register data can be used to analyse and compare the non-response and attrition processes, test the missingness mechanism type and estimate the size of bias due to non-response and attrition. In our empirical analysis, initial non-response turned out to be a more important source of bias than attrition. Reported unemployment spells were subject to seam effects, omissions, and, to a lesser extent, overreporting. The use of proxy interviews tended to cause spell omissions. An often-ignored phenomenon classification error in reported spell outcomes, was also found in the data. Neither the Missing At Random (MAR) assumption about non-response and attrition mechanisms, nor the classical assumptions about measurement errors, turned out to be valid. Both measurement errors in spell durations and spell outcomes were found to cause bias in estimates from event history models. Low measurement accuracy affected the estimates of baseline hazard most. The design-based estimates based on data from respondents to all waves of interest and weighted by the last wave weights displayed the largest bias. Using all the available data, including the spells by attriters until the time of attrition, helped to reduce attrition bias. Lastly, the simulation study showed that the IPCW correction to design weights reduces bias due to dependent censoring in design-based Kaplan-Meier and Cox proportional hazard model estimators. The study discusses implications of the results for survey organisations collecting event history data, researchers using surveys for event history analysis, and researchers who develop methods to correct for non-sampling biases in event history data.
Resumo:
The amount of installed wind power has been growing exponentially during the past ten years. As wind turbines have become a significant source of electrical energy, the interactions between the turbines and the electric power network need to be studied more thoroughly than before. Especially, the behavior of the turbines in fault situations is of prime importance; simply disconnecting all wind turbines from the network during a voltage drop is no longer acceptable, since this would contribute to a total network collapse. These requirements have been a contributor to the increased role of simulations in the study and design of the electric drive train of a wind turbine. When planning a wind power investment, the selection of the site and the turbine are crucial for the economic feasibility of the installation. Economic feasibility, on the other hand, is the factor that determines whether or not investment in wind power will continue, contributing to green electricity production and reduction of emissions. In the selection of the installation site and the turbine (siting and site matching), the properties of the electric drive train of the planned turbine have so far been generally not been taken into account. Additionally, although the loss minimization of some of the individual components of the drive train has been studied, the drive train as a whole has received less attention. Furthermore, as a wind turbine will typically operate at a power level lower than the nominal most of the time, efficiency analysis in the nominal operating point is not sufficient. This doctoral dissertation attempts to combine the two aforementioned areas of interest by studying the applicability of time domain simulations in the analysis of the economicfeasibility of a wind turbine. The utilization of a general-purpose time domain simulator, otherwise applied to the study of network interactions and control systems, in the economic analysis of the wind energy conversion system is studied. The main benefits of the simulation-based method over traditional methods based on analytic calculation of losses include the ability to reuse and recombine existing models, the ability to analyze interactions between the components and subsystems in the electric drive train (something which is impossible when considering different subsystems as independent blocks, as is commonly done in theanalytical calculation of efficiencies), the ability to analyze in a rather straightforward manner the effect of selections other than physical components, for example control algorithms, and the ability to verify assumptions of the effects of a particular design change on the efficiency of the whole system. Based on the work, it can be concluded that differences between two configurations can be seen in the economic performance with only minor modifications to the simulation models used in the network interaction and control method study. This eliminates the need ofdeveloping analytic expressions for losses and enables the study of the system as a whole instead of modeling it as series connection of independent blocks with no lossinterdependencies. Three example cases (site matching, component selection, control principle selection) are provided to illustrate the usage of the approach and analyze its performance.
Resumo:
Prediction of the stock market valuation is a common interest to all market participants. Theoretically sound market valuation can be achieved by discounting future earnings of equities to present. Competing valuation models seek to find variables that affect the equity market valuation in a way that the market valuation can be explained and also variables that could be used to predict market valuation. In this paper we test the contemporaneous relationship between stock prices, forward looking earnings and long-term government bond yields. We test this so-called Fed model in a long- and short-term time series analysis. In order to test the dynamics of the relationship, we use the cointegration framework. The data used in this study spans over four decades of various market conditions between 1964-2007, using data from United States. The empirical results of our analysis do not give support for the Fed model. We are able to show that the long-term government bonds do not play statistically significant role in this relationship. The effect of forward earnings yield on the stock market prices is significant and thus we suggest the use of standard valuation ratios when trying to predict the future paths of equity prices. Also, changes in the long-term government bond yields do not have significant short-term impact on stock prices.
Resumo:
Electricity spot prices have always been a demanding data set for time series analysis, mostly because of the non-storability of electricity. This feature, making electric power unlike the other commodities, causes outstanding price spikes. Moreover, the last several years in financial world seem to show that ’spiky’ behaviour of time series is no longer an exception, but rather a regular phenomenon. The purpose of this paper is to seek patterns and relations within electricity price outliers and verify how they affect the overall statistics of the data. For the study techniques like classical Box-Jenkins approach, series DFT smoothing and GARCH models are used. The results obtained for two geographically different price series show that patterns in outliers’ occurrence are not straightforward. Additionally, there seems to be no rule that would predict the appearance of a spike from volatility, while the reverse effect is quite prominent. It is concluded that spikes cannot be predicted based only on the price series; probably some geographical and meteorological variables need to be included in modeling.
Resumo:
Diplomityössä kehitettiin menetelmiä teollisuusprosessien signaalien automaattiseen havainnointiin ja luotiin työkalu tulosten esittämiseen. Työn tarkoituksena on nopeuttaa ja helpottaa prosessin ongelmien ratkaisua luokittelemalla signaalit matemaattisten menetelmien avulla. Koska prosessin mittaussignaalit ovat pääasiassa stokastisia, eli niitä ei voida etukäteen ennustaa, käsitellään signaaleita tilastomatemaattisin keinoin. Työstä rajattiin mittaushistorian käyttö, joten värähtelyiden tunnistus toteutettiin taajuusanalyysin avulla. Korrelaation avulla löydetään samankaltaiset signaalit. Testeissä todettiin, että työssä kehitetyt havainnoinnit toimivat eri näytteenottotaajuuksilla ja työkalun suoritusnopeus todettiin hyväksi. Lopuksi esiteltiin todellinen teollisuusprosessin ongelma ja siihen mahdollisia ratkaisuja.
Resumo:
Time series analysis can be categorized into three different approaches: classical, Box-Jenkins, and State space. Classical approach makes a basement for the analysis and Box-Jenkins approach is an improvement of the classical approach and deals with stationary time series. State space approach allows time variant factors and covers up a broader area of time series analysis. This thesis focuses on parameter identifiablity of different parameter estimation methods such as LSQ, Yule-Walker, MLE which are used in the above time series analysis approaches. Also the Kalman filter method and smoothing techniques are integrated with the state space approach and MLE method to estimate parameters allowing them to change over time. Parameter estimation is carried out by repeating estimation and integrating with MCMC and inspect how well different estimation methods can identify the optimal model parameters. Identification is performed in probabilistic and general senses and compare the results in order to study and represent identifiability more informative way.
Resumo:
Tässä tutkielmassatarkastellaan maakaasun hinnoittelussa käytettyjen sidonnaisuustekijöiden hintadynamiikkaa ja niiden vaikutusta maakaasun hinnanmuodostukseen. Pääasiallisena tavoitteena on arvioida eri aikasarjamenetelmien soveltuvuutta sidonnaisuustekijöiden ennustamisessa. Tämä toteutettiin analysoimalla eri mallien ja menetelmien ominaisuuksia sekä yhteen sovittamalla nämä eri energiamuotojen hinnanmuodostuksen erityispiirteisiin. Tutkielmassa käytetty lähdeaineisto on saatu Gasum Oy:n tietokannasta. Maakaasun hinnoittelussa käytetään kolmea sidonnaisuustekijää seuraavilla painoarvoilla: raskaspolttoöljy 50%, indeksi E40 30% ja kivihiili 20%. Kivihiilen ja raskaan polttoöljyn hinta-aineisto koostuu verottomista dollarimääräisistä kuukausittaisista keskiarvoista periodilta 1.1.1997 - 31.10.2004. Kotimarkkinoiden perushintaindeksin alaindeksin E40 indeksi-aineisto, joka kuvaa energian tuottajahinnan kehitystä Suomessa ja koostuu tilastokeskuksen julkaisemista kuukausittaisista arvoista periodilta 1.1.2000 - 31.10.2004. Tutkimuksessa tarkasteltujen mallien ennustuskyky osoittautui heikoksi. Kuitenkin tuloksien perusteella voidaan todeta, että lyhyellä aikavälillä EWMA-malli antoi harhattomimman ennusteen. Muut testatuista malleista eivät kyenneet antamaan riittävän luotettavia ja tarkkoja ennusteita. Perinteinen aikasarja-analyysi kykeni tunnistamaan aikasarjojen kausivaihtelut sekä trendit. Lisäksi liukuvan keskiarvon menetelmä osoittautui jossain määrin käyttökelpoiseksi aikasarjojen lyhyen aikavälin trendien identifioinnissa.
Resumo:
Luottolaitosten pääoman valvonta on tärkeä osa talouden tasapainon säilyttämisessä. Tässä tutkielmassa tutkitaan miten luottolaitosten pääoman sääntelyn Basel II:n säännönmuutokset vuonna 2007 ovat vaikuttaneet luottolaitosten oman pääoman määrään. Muuttuneiden säännösten vaikutuksia selvitetään tutkimalla eurooppalaisten luottolaitosten omavaraisuusasteita ajalla 1999 – 2009 yleistetyllä lineaarisella regressiolla ja autoregressiivisellä aikasarjamallinnuksella. Talouden suhdanteiden ja vuonna 2007 alkaneen finanssikriisin vaikutukset pääoman määrään huomioidaan bruttokansantuotteen kasvun avulla analyysissa. Tuloksena todetaan, että oman pääoman määrä luottolaitoksissa on vähentynyt merkitsevästi Basel II:n voimaan astumisen jälkeen, mutta muutos on luultavasti aiheutunut talouden laskusuhdanteesta.
Resumo:
This work is devoted to the analysis of signal variation of the Cross-Direction and Machine-Direction measurements from paper web. The data that we possess comes from the real paper machine. Goal of the work is to reconstruct the basis weight structure of the paper and to predict its behaviour to the future. The resulting synthetic data is needed for simulation of paper web. The main idea that we used for describing the basis weight variation in the Cross-Direction is Empirical Orthogonal Functions (EOF) algorithm, which is closely related to Principal Component Analysis (PCA) method. Signal forecasting in time is based on Time-Series analysis. Two principal mathematical procedures that we used in the work are Autoregressive-Moving Average (ARMA) modelling and Ornstein–Uhlenbeck (OU) process.
Resumo:
Tämän työn tavoitteena oli kehittää esikäsittelymenetelmä, jolla voidaan reaaliaikaisesti vähentää hydrolysaatin ligniinipitoisuutta ja näin vähentää fluoresenssia hemiselluloosan analysoimisessa. Työn kirjallisuusosassa käsitellään hemiselluloosien rakennetta sekä niiden erottamista puusta, sekä käydään läpi hemiselluloosien käyttömahdollisuuksia ja niiden reaaliaikaiseen analysointiin soveltuvia tekniikoita. Kokeellisessa osassa tutkittiin ultrasuodatusta sekä adsorptiohartsikäsittelyä hydrolysaatin esikäsittelynä ennen Raman-analyysiä. Esikäsittelyn tavoitteena oli vähentää Raman-analyysia häiritsevää ligniinistä johtuvaa fluoresenssia. Suodatukset tehtiin Amicon-suodatuslaitteistolla käyttäen viittä eri suodatuskalvoa. Hartsikäsittelyissä käytettiin Amberliten XAD16 ja XAD7HP adsorbtiohartseja. Hartsisuhteina käytettiin 1/80, 1/40, 1/19 ja 1/13. Käytetyt ultrauodatuskalvot osoittautuivat suodatusnäytteistä tehtyjen HPLC-analyysien perusteella cut-off-luvultaan liian pieniksi, sillä hemiselluloosien ja ligniinin erotus ei onnistunut, vaan molemmat väkevöityivät konsentraattiin. Hartsikäsittelyillä saatiin ligniiniä poistettua aiheuttamatta hemiselluloosahäviöitä. Parhaimmillaan ligniinin poistumista kuvaava UV-absorbanssi pieneni hartsilla XAD16 37 % ja hartsilla XAD7 25 %. Vaikka ligniinipitoisuus aleni, näytteet fluoresoivat edelleen voimakkaasti Raman-mittauksessa. Tulosten perusteella näyttäisi siltä, että hartsikäsittelyä optimoimalla analyysiä häiritsevää fluoresenssia olisi edelleen mahdollista vähentää.
Resumo:
Tutkimuksen tavoitteena oli kartoittaa alueellisen jäteyhtiön Kymenlaakson Jäte Oy:n mahdollisuuksia rakeistaa ja termisesti kuivata mekaanisesti kuivattua mädätysjäännöstä sekä mahdollisuuksia toimittaa termisesti kuivattua materiaalia energiahyötykäyttöön. Tutkimuksessa selvitettiin myös kokemuksia lattialämmityksen käyttämisestä mädätysjäännöksen kuivaukseen. Tutkimuksessa perehdyttiin erilaisiin rakeistus- ja kuivausmenetelmiin sekä termisen kuivurin valintaan vaikuttaviin asioihin. Kuvaukset perustuvat kirjallisuudesta ja internetistä saatuihin tietoihin. Tekniikkakuvausten pohjalta lähdettiin kyselemään tarjouksia termisiä kuivauslaitteistoja myyviltä yrityksiltä. Tarjoukset pyydettiin kuiva-ainepitoisuuden muutokselle 30 %:sta 90 %:iin ja oletettiin, että kuivaukseen on käytettävissä lämpöä viideltä kaatopaikkakaasua käyttävältä mikroturbiinilta. Tutkimuksen aikana saatiin tarjous kuudelta yritykseltä. Saadut tarjoukset esiteltiin tiivistetysti raportissa ja kokonaisuudessaan ne sisällytettiin Kymenlaakson Jäte Oy:n laajempaan raporttiin, joka ei ole julkinen. Yritykset antoivat hyvin erilaisia tietoja siitä, mitä tarjoukseen sisältyy, joten tarjoukset eivät olleet suoraan vertailukelpoisia. Tarjouksista myös havaittiin, että jos Mäkikylän biokaasulaitokselta vastaanotettaisiin enimmäismäärä (19 500 t/a) mädätysjäännöstä, mikroturbiineilta saatava lämpömäärä ei riittäisi kuivaamaan kaikkea mädätysjäännöstä 90 % kuiva-ainepitoisuuteen. Tutkimuksen aikana huomattiin myös, että sitovan tarjouksen saamiseksi mädätysjäännös tulee toimittaa testattavaksi, jolloin saadaan vahvistus kuivausmenetelmän soveltuvuudesta kyseiselle materiaalille. Tutkimuksessa selvitettiin myös, minkälaisia kokemuksia löytyy lattialämmityksen käyttämisestä kuivaukseen niin Suomesta kuin maailmalta ja voiko menetelmää käyttää mädätysjäännöksen kuivaukseen. Kyseistä menetelmää on käytetty tehostamaan aurinkokuivausta, joten tutkimuksen aikana perehdyttiin erityisesti aurinkokuivaukseen liittyviin tieteellisiin artikkeleihin. Lattialämmityksen käytöstä löytyi niin heikkouksia kuin vahvuuksia. Suomessa aurinkokuivauksen ja lattialämmityksen yhdistelmä ei ole kuitenkaan päätynyt laajaan käyttöön ja syynä voidaan nähdä muun muassa kylmät ja pimeät vuodenajat sekä suuri pinta-alan tarve. Tutkimusraportissa selvitettiin lisäksi polttolaitosten edustajien kiinnostusta ja rajoituksia ottaa vastaan termisesti kuivattua mädätysjäännöstä. Tutkimuksen aikana otettiin yhteyttä alle 100 km etäisyydellä Kymenlaakson Jäte Oy:stä sijaitsevien jätteenpolttoluvan omaavien yritysten edustajiin. Saatuja vastauksia käsiteltiin tiivistetysti raportissa ja vastaukset sisällytettiin kokonaisuudessaan Kymenlaakson Jäte Oy:n laajempaan raporttiin, joka ei ole julkinen. Puhelinhaastattelujen pohjalta nähtiin, että yrityksillä on kiinnostusta materiaalia kohtaan, mutta samalla vastauksiin vaikuttavat mädätysjäännöksen analyysitulokset. Poltto-ominaisuuksiin liittyvät analyysit tullaan toteuttamaan vuoden 2012 aikana. Laitoksilla oli myös vaihtelevia rajoituksia materiaalia kohtaan, mutta analyysituloksista riippuen materiaalia voidaan hyödyntää energiana tuhansia tai jopa kymmeniä tuhansia tonneja vuodessa alle 100 km etäisyydellä Kymenlaakson Jäte Oy:stä.