6 resultados para hierarchical generalized linear model
em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland
Resumo:
Luottolaitosten pääoman valvonta on tärkeä osa talouden tasapainon säilyttämisessä. Tässä tutkielmassa tutkitaan miten luottolaitosten pääoman sääntelyn Basel II:n säännönmuutokset vuonna 2007 ovat vaikuttaneet luottolaitosten oman pääoman määrään. Muuttuneiden säännösten vaikutuksia selvitetään tutkimalla eurooppalaisten luottolaitosten omavaraisuusasteita ajalla 1999 – 2009 yleistetyllä lineaarisella regressiolla ja autoregressiivisellä aikasarjamallinnuksella. Talouden suhdanteiden ja vuonna 2007 alkaneen finanssikriisin vaikutukset pääoman määrään huomioidaan bruttokansantuotteen kasvun avulla analyysissa. Tuloksena todetaan, että oman pääoman määrä luottolaitoksissa on vähentynyt merkitsevästi Basel II:n voimaan astumisen jälkeen, mutta muutos on luultavasti aiheutunut talouden laskusuhdanteesta.
Resumo:
Tässä työssä tutkitaan ohjelmistoarkkitehtuurisuunnitteluominaisuuksien vaikutusta erään client-server –arkkitehtuuriin perustuvan mobiilipalvelusovelluksen suunnittelu- ja toteutusaikaan. Kyseinen tutkimus perustuu reaalielämän projektiin, jonka kvalitatiivinen analyysi paljasti arkkitehtuurikompponenttien välisten kytkentöjen merkittävästi vaikuttavan projektin työmäärään. Työn päätavoite oli kvantitatiivisesti tutkia yllä mainitun havainnon oikeellisuus. Tavoitteen saavuttamiseksi suunniteltiin ohjelmistoarkkitehtuurisuunnittelun mittaristo kuvaamaan kyseisen järjestelmän alijärjestelmien arkkitehtuuria ja luotiin kaksi suunniteltua mittaristoa käyttävää, työmäärää (komponentin suunnittelu-, toteutus- ja testausaikojen summa) arvioivaa mallia, joista toinen on lineaarinen ja toinen epälineaarinen. Näiden mallien kertoimet sovitettiin optimoimalla niiden arvot epälineaarista gloobaalioptimointimenetelmää, differentiaalievoluutioalgoritmia, käyttäen, niin että mallien antamat arvot vastasivat parhaiten mitattua työmäärää sekä kaikilla ominaisuuksilla eli attribuuteilla että vain osalla niistä (yksi jätettiin vuorotellen pois). Kun arkkitehtuurikompenttien väliset kytkennät jätettiin malleista pois, mitattujen ja arvoitujen työmäärien välinen ero (ilmaistuna virheenä) kasvoi eräässä tapauksessa 367 % entisestä tarkoittaen sitä, että näin muodostettu malli vastasi toteutusaikoja huonosti annetulla ainestolla. Tämä oli suurin havaitu virhe kaikkien poisjätettyjen ominaisuuksien kesken. Saadun tuloksen perusteella päätettiin, että kyseisen järjestelmän toteutusajat ovat vahvasti riippuvaisia kytkentöjen määrästä, ja näin ollen kytkentöjen määrä oli mitä todennäköisemmin kaikista tärkein työmäärään vaikuttava tekijä tutkitun järjestelmän arkkitehtuurisuunnittelussa.
Resumo:
Tutkimuksen aiheena on yleistynyt luottamus. Väitöskirjassa tutkitaan mistä tuntemattomien kansalaisten toisiinsa kohdistama luottamus kumpuaa ja haetaan vastauksia tähän kysymykseen sekä maakohtaisen että vertailevan tutkimuksen avulla. Tutkimus koostuu yhteenvedon lisäksi viidestä tutkimusartikkelista, joissa luottamuksen syntyä tarkastellaan sekä yksilöiden mikrotason vuorovaikutuksen että maiden välisten eroavaisuuksien näkökulmasta. Yleistyneen luottamuksen synnystä on esitetty useita eri teorioita. Tässä tutkimuksessa tarkastellaan näistä kahta keskeisintä. Osa tutkijoista korostaa kansalaisyhteiskunnan ja ruohonjuuritason verkostojen roolia yleistyneen luottamuksen synnyn taustalla. Tämän hypoteesin mukaan kansalaiset, jotka viettävät aikaansa yhdistyksissä tai muissa sosiaalisissa verkostoissa, oppivat muita helpommin luottamaan paitsi täysin tuntemattomiin ihmisiin myös yhteiskunnallisiin instituutioihin (kansalaisyhteiskuntakeskeinen hypoteesi). Toiset taas painottavat yhteiskunnan julkisten instituutioiden merkitystä. Tämä hypoteesi korostaa instituutioiden reiluutta ja oikeudenmukaisuutta (instituutiokeskeinen hypoteesi). Ihmiset pystyvät luottamaan toisiinsa ja ratkaisemaan kollektiivisia ongelmiaan yhdessä silloin kun esimerkiksi poliittiset ja lainsäädännölliset instituutiot pystyvät luomaan tähän tarvittavan toimintaympäristön. Aineistoina käytetään kansallisia (Hyvinvointi- ja palvelut) sekä kansainvälisiä vertailevia kyselytutkimuksia (European Social Survey ja ISSP). Yksilö- ja makrotason analyyseja yhdistämällä selvitetään yleistynyttä luottamusta selittäviä tekijöitä sekä mekanismeja joiden kautta yleistynyt luottamus muodostuu. Väitöskirjan tulokset tukevat suurimmaksi osaksi instituutiokeskeiseen suuntaukseen sisältyviä hypoteeseja yleistyneen luottamuksen kasautumisesta. Kuitenkin myös esimerkiksi yhdistystoiminnalla havaittiin olevan joitakin yhdistysjäsenien ulkopuolelle ulottuvia myönteisiä vaikutuksia kansalaisten luottamukseen, mikä taas tukee kansalaisyhteiskuntakeskeistä hypoteesia. Tutkimuksen keskeinen tulos on, että kaiken kaikkiaan luottamus näyttäisi kukoistavan maissa, joissa kansalaiset kokevat julkiset instituutiot oikeudenmukaisina sekä reiluina, kansalaisyhteiskunnan roolin luottamuksen synnyttämisessä ollessa tälle alisteinen. Syyksi tähän on oletettu, että näissä maissa (erityisesti pohjoismaiset hyvinvointivaltiot) harjoitettu universaali hyvinvointipolitiikka ja palvelut ovat keskeisiä korkeaa yleistynyttä luottamusta selittäviä tekijöitä. Toisaalta maavertailuissa tätä yhteyttä on selitetty myös sillä, että näissä yhteiskunnassa ei ole paikannettavissa selkeää kulttuurisesti erottuvaa alaluokkaa. Tämän tutkimuksen tulokset tukevat enemmän universaalin hyvinvointivaltion oikeudenmukaisuuteen liittyviä ominaisuuksia alaluokkaistumishypoteesin sijaan. Toisaalta mikrotasolla tarkasteltuna yleistyneen luottamuksen ja hyvinvointipalvelujen välinen yhteys liittyy enemmän palveluiden riittävyyteen kuin niiden universaalisuuden asteeseen. Niin ikään maavertailuissa esimerkiksi verotuksen oikeudenmukaisena kokeminen näyttäisi olevan palvelujen saatavuutta tai niihin liittyviä oikeudenmukaisuuden kokemuksia tärkeämpi seikka yleistyneen luottamuksen kannalta.
Resumo:
Time series analysis can be categorized into three different approaches: classical, Box-Jenkins, and State space. Classical approach makes a basement for the analysis and Box-Jenkins approach is an improvement of the classical approach and deals with stationary time series. State space approach allows time variant factors and covers up a broader area of time series analysis. This thesis focuses on parameter identifiablity of different parameter estimation methods such as LSQ, Yule-Walker, MLE which are used in the above time series analysis approaches. Also the Kalman filter method and smoothing techniques are integrated with the state space approach and MLE method to estimate parameters allowing them to change over time. Parameter estimation is carried out by repeating estimation and integrating with MCMC and inspect how well different estimation methods can identify the optimal model parameters. Identification is performed in probabilistic and general senses and compare the results in order to study and represent identifiability more informative way.
Resumo:
Time series analysis has gone through different developmental stages before the current modern approaches. These can broadly categorized as the classical time series analysis and modern time series analysis approach. In the classical one, the basic target of the analysis is to describe the major behaviour of the series without necessarily dealing with the underlying structures. On the contrary, the modern approaches strives to summarize the behaviour of the series going through its underlying structure so that the series can be represented explicitly. In other words, such approach of time series analysis tries to study the series structurally. The components of the series that make up the observation such as the trend, seasonality, regression and disturbance terms are modelled explicitly before putting everything together in to a single state space model which give the natural interpretation of the series. The target of this diploma work is to practically apply the modern approach of time series analysis known as the state space approach, more specifically, the dynamic linear model, to make trend analysis over Ionosonde measurement data. The data is time series of the peak height of F2 layer symbolized by hmF2 which is the height of high electron density. In addition, the work also targets to investigate the connection between solar activity and the peak height of F2 layer. Based on the result found, the peak height of the F2 layer has shown a decrease during the observation period and also shows a nonlinear positive correlation with solar activity.
Resumo:
One challenge on data assimilation (DA) methods is how the error covariance for the model state is computed. Ensemble methods have been proposed for producing error covariance estimates, as error is propagated in time using the non-linear model. Variational methods, on the other hand, use the concepts of control theory, whereby the state estimate is optimized from both the background and the measurements. Numerical optimization schemes are applied which solve the problem of memory storage and huge matrix inversion needed by classical Kalman filter methods. Variational Ensemble Kalman filter (VEnKF), as a method inspired the Variational Kalman Filter (VKF), enjoys the benefits from both ensemble methods and variational methods. It avoids filter inbreeding problems which emerge when the ensemble spread underestimates the true error covariance. In VEnKF this is tackled by resampling the ensemble every time measurements are available. One advantage of VEnKF over VKF is that it needs neither tangent linear code nor adjoint code. In this thesis, VEnKF has been applied to a two-dimensional shallow water model simulating a dam-break experiment. The model is a public code with water height measurements recorded in seven stations along the 21:2 m long 1:4 m wide flume’s mid-line. Because the data were too sparse to assimilate the 30 171 model state vector, we chose to interpolate the data both in time and in space. The results of the assimilation were compared with that of a pure simulation. We have found that the results revealed by the VEnKF were more realistic, without numerical artifacts present in the pure simulation. Creating a wrapper code for a model and DA scheme might be challenging, especially when the two were designed independently or are poorly documented. In this thesis we have presented a non-intrusive approach of coupling the model and a DA scheme. An external program is used to send and receive information between the model and DA procedure using files. The advantage of this method is that the model code changes needed are minimal, only a few lines which facilitate input and output. Apart from being simple to coupling, the approach can be employed even if the two were written in different programming languages, because the communication is not through code. The non-intrusive approach is made to accommodate parallel computing by just telling the control program to wait until all the processes have ended before the DA procedure is invoked. It is worth mentioning the overhead increase caused by the approach, as at every assimilation cycle both the model and the DA procedure have to be initialized. Nonetheless, the method can be an ideal approach for a benchmark platform in testing DA methods. The non-intrusive VEnKF has been applied to a multi-purpose hydrodynamic model COHERENS to assimilate Total Suspended Matter (TSM) in lake Säkylän Pyhäjärvi. The lake has an area of 154 km2 with an average depth of 5:4 m. Turbidity and chlorophyll-a concentrations from MERIS satellite images for 7 days between May 16 and July 6 2009 were available. The effect of the organic matter has been computationally eliminated to obtain TSM data. Because of computational demands from both COHERENS and VEnKF, we have chosen to use 1 km grid resolution. The results of the VEnKF have been compared with the measurements recorded at an automatic station located at the North-Western part of the lake. However, due to TSM data sparsity in both time and space, it could not be well matched. The use of multiple automatic stations with real time data is important to elude the time sparsity problem. With DA, this will help in better understanding the environmental hazard variables for instance. We have found that using a very high ensemble size does not necessarily improve the results, because there is a limit whereby additional ensemble members add very little to the performance. Successful implementation of the non-intrusive VEnKF and the ensemble size limit for performance leads to an emerging area of Reduced Order Modeling (ROM). To save computational resources, running full-blown model in ROM is avoided. When the ROM is applied with the non-intrusive DA approach, it might result in a cheaper algorithm that will relax computation challenges existing in the field of modelling and DA.