34 resultados para Kernel Smoothing
em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland
Resumo:
Recent advances in machine learning methods enable increasingly the automatic construction of various types of computer assisted methods that have been difficult or laborious to program by human experts. The tasks for which this kind of tools are needed arise in many areas, here especially in the fields of bioinformatics and natural language processing. The machine learning methods may not work satisfactorily if they are not appropriately tailored to the task in question. However, their learning performance can often be improved by taking advantage of deeper insight of the application domain or the learning problem at hand. This thesis considers developing kernel-based learning algorithms incorporating this kind of prior knowledge of the task in question in an advantageous way. Moreover, computationally efficient algorithms for training the learning machines for specific tasks are presented. In the context of kernel-based learning methods, the incorporation of prior knowledge is often done by designing appropriate kernel functions. Another well-known way is to develop cost functions that fit to the task under consideration. For disambiguation tasks in natural language, we develop kernel functions that take account of the positional information and the mutual similarities of words. It is shown that the use of this information significantly improves the disambiguation performance of the learning machine. Further, we design a new cost function that is better suitable for the task of information retrieval and for more general ranking problems than the cost functions designed for regression and classification. We also consider other applications of the kernel-based learning algorithms such as text categorization, and pattern recognition in differential display. We develop computationally efficient algorithms for training the considered learning machines with the proposed kernel functions. We also design a fast cross-validation algorithm for regularized least-squares type of learning algorithm. Further, an efficient version of the regularized least-squares algorithm that can be used together with the new cost function for preference learning and ranking tasks is proposed. In summary, we demonstrate that the incorporation of prior knowledge is possible and beneficial, and novel advanced kernels and cost functions can be used in algorithms efficiently.
Resumo:
Learning of preference relations has recently received significant attention in machine learning community. It is closely related to the classification and regression analysis and can be reduced to these tasks. However, preference learning involves prediction of ordering of the data points rather than prediction of a single numerical value as in case of regression or a class label as in case of classification. Therefore, studying preference relations within a separate framework facilitates not only better theoretical understanding of the problem, but also motivates development of the efficient algorithms for the task. Preference learning has many applications in domains such as information retrieval, bioinformatics, natural language processing, etc. For example, algorithms that learn to rank are frequently used in search engines for ordering documents retrieved by the query. Preference learning methods have been also applied to collaborative filtering problems for predicting individual customer choices from the vast amount of user generated feedback. In this thesis we propose several algorithms for learning preference relations. These algorithms stem from well founded and robust class of regularized least-squares methods and have many attractive computational properties. In order to improve the performance of our methods, we introduce several non-linear kernel functions. Thus, contribution of this thesis is twofold: kernel functions for structured data that are used to take advantage of various non-vectorial data representations and the preference learning algorithms that are suitable for different tasks, namely efficient learning of preference relations, learning with large amount of training data, and semi-supervised preference learning. Proposed kernel-based algorithms and kernels are applied to the parse ranking task in natural language processing, document ranking in information retrieval, and remote homology detection in bioinformatics domain. Training of kernel-based ranking algorithms can be infeasible when the size of the training set is large. This problem is addressed by proposing a preference learning algorithm whose computation complexity scales linearly with the number of training data points. We also introduce sparse approximation of the algorithm that can be efficiently trained with large amount of data. For situations when small amount of labeled data but a large amount of unlabeled data is available, we propose a co-regularized preference learning algorithm. To conclude, the methods presented in this thesis address not only the problem of the efficient training of the algorithms but also fast regularization parameter selection, multiple output prediction, and cross-validation. Furthermore, proposed algorithms lead to notably better performance in many preference learning tasks considered.
Resumo:
Machine learning provides tools for automated construction of predictive models in data intensive areas of engineering and science. The family of regularized kernel methods have in the recent years become one of the mainstream approaches to machine learning, due to a number of advantages the methods share. The approach provides theoretically well-founded solutions to the problems of under- and overfitting, allows learning from structured data, and has been empirically demonstrated to yield high predictive performance on a wide range of application domains. Historically, the problems of classification and regression have gained the majority of attention in the field. In this thesis we focus on another type of learning problem, that of learning to rank. In learning to rank, the aim is from a set of past observations to learn a ranking function that can order new objects according to how well they match some underlying criterion of goodness. As an important special case of the setting, we can recover the bipartite ranking problem, corresponding to maximizing the area under the ROC curve (AUC) in binary classification. Ranking applications appear in a large variety of settings, examples encountered in this thesis include document retrieval in web search, recommender systems, information extraction and automated parsing of natural language. We consider the pairwise approach to learning to rank, where ranking models are learned by minimizing the expected probability of ranking any two randomly drawn test examples incorrectly. The development of computationally efficient kernel methods, based on this approach, has in the past proven to be challenging. Moreover, it is not clear what techniques for estimating the predictive performance of learned models are the most reliable in the ranking setting, and how the techniques can be implemented efficiently. The contributions of this thesis are as follows. First, we develop RankRLS, a computationally efficient kernel method for learning to rank, that is based on minimizing a regularized pairwise least-squares loss. In addition to training methods, we introduce a variety of algorithms for tasks such as model selection, multi-output learning, and cross-validation, based on computational shortcuts from matrix algebra. Second, we improve the fastest known training method for the linear version of the RankSVM algorithm, which is one of the most well established methods for learning to rank. Third, we study the combination of the empirical kernel map and reduced set approximation, which allows the large-scale training of kernel machines using linear solvers, and propose computationally efficient solutions to cross-validation when using the approach. Next, we explore the problem of reliable cross-validation when using AUC as a performance criterion, through an extensive simulation study. We demonstrate that the proposed leave-pair-out cross-validation approach leads to more reliable performance estimation than commonly used alternative approaches. Finally, we present a case study on applying machine learning to information extraction from biomedical literature, which combines several of the approaches considered in the thesis. The thesis is divided into two parts. Part I provides the background for the research work and summarizes the most central results, Part II consists of the five original research articles that are the main contribution of this thesis.
Resumo:
Yhteisön langaton palvelualusta on konsepti langattomien yhteisöllisten verkkopalveluiden tarjoamiseen.Konsepti perustuu langattomaan WLAN-reititinlaitteeseen sekä Linux-käyttöjärjestelmäpohjaiseen laiteohjelmistoon, joiden avulla voidaan tarjota paikallisia, erilaisten pienten yhteisöjen käyttöön tarkoitettuja langattomia verkkopalveluita.Soveltuvia käyttökohteita voivat olla esimerkiksi asuntoyhteisöjen välinen tiedotuskanava tai perheen sisäinen viihdekeskus, jonka kautta voidaan tarjota yhteisön toimintaa helpottavia ja tavoitteita edistäviä palveluita. Yhteisön langattomat palvelut perustuvat vapaisiin ohjelmistoihin, jotka mahdollistavat monipuolisen palveluvalikoiman luomisen. Langattoman palvelualustan avulla pienten yhteisöjen tarvitsemat langattomat palvelut voidaan luoda helposti, edullisesti ja joustavasti, ilman kaupallisten palveluoperaattoreiden asettamia rajoituksia.
Resumo:
Viime vuosina Tainionkosken KA5:lla valmistettavan nestepakkauskartongin neliömassa, joka jäykkyystavoitteen saavuttamiseksi tarvitaan, on kasvanut. Diplomityön tavoitteena oli selvittää kartongin jäykkyysindeksin heikentymi-seen vaikuttaneet tekijät ja kehittää korjaavia toimenpiteitä. Työn kirjallisuusosassa tutkittiin nestepakkauskartongin laatuominaisuuksia ja jäykkyyden muodostumista. Lisäksi selvitettiin massanvalmistus- ja koneolosuhteiden vaikutusta kartongin jäykkyyteen. Kirjallisuusosassa tutkittiin myös, miten eri massalaadut ja kartongin rakenne vaikuttavat jäykkyyteen. Työn kokeellisessa osassa kartoitettiin jäykkyysindeksin heikkenemisen syitä ja kehitettiin uusia ajomalleja, joilla olisi jäykkyysindeksiin positiivinen vaikutus. Jäykkyysindeksin heikkenemisen syitä selvitettiin massa- ja prosessianalyysien avulla. Lisäksi tutkittiin 3.puristimen muuttamista tasauspuristimeksi ja CTMP:n käyttöä runkokerroksessa sekä korkea- että matalakappaisen valkaisemattoman sellun kanssa. Massa-analyysissä selvisi, että sellun laatu on heikentynyt ja jäykkyysindeksin heikkeneminen johtuu osaltaan siitä. Prosessianalyysissä paljastui useita jäykkyysindeksiä heikentäviä tekijöitä, kuten esimerkiksi kuivatusosan vetoerot, jotka olivat ajautuneet kauas optimitilasta. 3.puristimen muuttaminen tasauspuristimeksi paransi pinnan sileyttä ja kartongin bulkkia, jolloin jäykkyysindeksi kasvoi. CTMP:n käyttö korkeakappaisen sellun kanssa paransi huomattavasti kartongin bulkkia, mutta heikensi palstautumislujuutta ja lisäsi reunaimeytymää. Matalakappaisen sellun ja CTMP:n yhdistelmällä saatiin aikaan hyvä bulkki ja palstautumis-lujuus niin, että reunaimeytymä ei kasvanut ja tuotantonopeus ei laskenut.
Resumo:
Diplomityön tarkoituksena oli luoda menetelmä Symbian-käyttöjärjestelmää käyttävien älypuhelinten suorituskyvyn määrittämiseen, jotta laitteiden välisiä eroja voitaisiin mitata. Aluksi Symbian-käyttöjärjestelmää ja älypuhelinlaitteistoja tutkittiin suorituskykyyn ja sen vaihteluun vaikuttavien tekijöiden ja osien löytämiseksi. Tämän jälkeen kehitettiin useita testitapauksia sisältävä testikirjasto, jolla voitiin mitata joidenkin suorituskykyyn vaikuttavien käyttöjärjestelmän rajapintojen suoritusaikoja. Testikirjaston testit ajettiin kolmella eri älypuhelinmallilla, jotta testien toimivuutta voitiin arvioida. Lopuksi testituloksia analysoitiin mahdollisten pullonkaulojen havaitsemiseksi suorituskyvystä. Testikirjaston pystyttiin havaitsemaan eroja laitteiden suorituskyvyssä. Viimeisin, uudella Symbianin EKA2-ytimellä varustettu älypuhelin, Nokia E70, jäi mittauksissa viimeiseksi, koska se pärjäsi huonosti muistinvarauksia ja TRAP-poikkeuksia testaavissa tapauksissa. Muilla mitatuilla osa-alueilla se kuitenkin päihitti selvästi muut testatut puhelimet, Nokia N90:n ja Nokia 6630:n. Näiden kahden muun laitteen tulosten skaalan tasaisuus osoittaa, että kehitetyn testikirjaston avulla saadaan johdonmukaisia ja uskottavia mittaustuloksia.
Resumo:
In a centrifugal compressor the flow around the diffuser is collected and led to the pipe system by a spiral-shaped volute. In this study a single-stage centrifugal compressor with three different volutes is investigated. The compressorwas first equipped with the original volute, the cross-section of which was a combination of a rectangle and semi-circle. Next a new volute with a fully circular cross-section was designed and manufactured. Finally, the circular volute wasmodified by rounding the tongue and smoothing the tongue area. The overall performance of the compressor as well as the static pressure distribution after the impeller and on the volute surface were measured. The flow entering the volute was measured using a three-hole Cobra-probe, and flow visualisations were carriedout in the exit cone of the volute. In addition, the radial force acting on theimpeller was measured using magnetic bearings. The complete compressor with thecircular volute (inlet pipe, full impeller, diffuser, volute and outlet pipe) was also modelled using computational fluid dynamics (CFD). A fully 3-D viscous flow was solved using a Navier-Stokes solver, Finflo, developed at Helsinki University of Technology. Chien's k-e model was used to take account of the turbulence. The differences observed in the performance of the different volutes were quite small. The biggest differences were at low speeds and high volume flows,i.e. when the flow entered the volute most radially. In this operating regime the efficiency of the compressor with the modified circular volute was about two percentage points higher than with the other volutes. Also, according to the Cobra-probe measurements and flow visualisations, the modified circular volute performed better than the other volutes in this operating area. The circumferential static pressure distribution in the volute showed increases at low flow, constant distribution at the design flow and decrease at high flow. The non-uniform static pressure distribution of the volute was transmitted backwards across the vaneless diffuser and observed at the impeller exit. At low volume flow a strong two-wave pattern developed into the static pressure distribution at the impeller exit due to the response of the impeller to the non-uniformity of pressure. The radial force of the impeller was the greatest at the choke limit, the smallest atthe design flow, and moderate at low flow. At low flow the force increase was quite mild, whereas the increase at high flow was rapid. Thus, the non-uniformityof pressure and the force related to it are strong especially at high flow. Theforce caused by the modified circular volute was weaker at choke and more symmetric as a function of the volume flow than the force caused by the other volutes.
Resumo:
Nykyään kolmeen kerrokseen perustuvat client-server –sovellukset ovat suuri kinnostuskohde sekä niiden kehittäjille etta käyttäjille. Tietotekniikan nopean kehityksen ansiosta näillä sovelluksilla on monipuolinen käyttö teollisuuden eri alueilla. Tällä hetkellä on olemassa paljon työkaluja client-server –sovellusten kehittämiseen, jotka myös tyydyttävät asiakkaiden asettamia vaatimuksia. Nämä työkalut eivät kuitenkaan mahdollista joustavaa toimintaa graafisen käyttöliittyman kanssa. Tämä diplomityö käsittelee client-server –sovellusten kehittamistä XML –kielen avulla. Tämä lähestymistapa mahdollistaa client-server –sovellusten rakentamista niin, että niiden graafinen käyttöliittymä ja ulkonäkö olisivat helposti muokattavissa ilman ohjelman ytimen uudelleenkääntämistä. Diplomityö koostuu kahdesta ostasta: teoreettisesta ja käytännöllisestä. Teoreettinen osa antaa yleisen tiedon client-server –arkkitehtuurista ja kuvailee ohjelmistotekniikan pääkohdat. Käytannöllinen osa esittää tulokset, client-server –sovellusten kehittämisteknologian kehittämislähestymistavan XML: ää käyttäen ja tuloksiin johtavat usecase– ja sekvenssidiagrammit. Käytännöllinen osa myos sisältää esimerkit toteutetuista XML-struktuureista, jotka kuvaavat client –sovellusten kuvaruutukaavakkeiden esintymisen ja serverikyselykaaviot.
Resumo:
VDSL on teknologia, joka mahdollistaa nopeat Internet-yhteydet tavallista puhelinlinjaa käyttäen. Tätä varten käyttäjä tarvitsee VDSL-modeemin ja Internet-operaattori reitittimen, johon VDSL-linjat kytketään. Reitittimen on oltava suorituskykyinen, jotta kaikki VDSL-liikenne voidaan reittittää eteenpäin. Tehokkuutta haetaan tekemällä suuri osa reitityksestä erityisillä reititinpiireillä. Tässä diplomityössä käsitellään reititinpiirien teoriaa ja niiden hallintaa. Lisäksi vertailtiin kolmen suuren valmistajan tuotteita. Tuotteiden tarjoamat ominaisuudet vaikuttivat hyvin yhteneväisiltä. Ominaisuuksien hallinta ja toteutus olivat erilaisia. Työn tavoitteena oli löytää ohjelmistoarkkitehtuuri piirien ohjaamiseen niin, että Linux-käyttöjärjestelmän ytimen palveluja voitaisiin käyttää mahdollisimman hyödyllisesti. Työssä havaittiin, että ohjelmistoarkkitehtuurin voi määritellä monella eri tavalla riippuen siitä, miten piiri on kytketty prosessoriin, mitä piirin ominaisuuksia halutaan käyttää ja miten arkkitehtuuria halutaan jatkossa laajentaa.
Resumo:
Tässä diplomityössä tutkittiin kysynnän ennustamista Vaasan & Vaasan Oy:n tuotteille. Ensin työssä perehdyttiin ennustamiseen ja sen tarjoamiin mahdollisuuksiin yrityksessä. Erityisesti kysynnän ennustamisesta saatavat hyödyt käytiin läpi. Kysynnän ennustamisesta haettiin ratkaisua erityisesti ongelmiin työvuorosuunnittelussa.Työssä perehdyttiin ennustemenetelmiin liittyvään kirjallisuuteen, jonka oppien perusteella tehtiin koe-ennustuksia yrityksen kysynnän historiadatan avulla. Koe-ennustuksia tehtiin kuudelle eri Turun leipomon koe-tuotteelle. Ennustettavana aikavälinä oli kahden viikon päiväkohtainen kysyntä. Tämän aikavälin erityisesti peruskysynnälle etsittiin ennustetarkkuudeltaan parasta kvantitatiivista ennustemenetelmää. Koe-ennustuksia tehtiin liukuvilla keskiarvoilla, klassisella aikasarja-analyysillä, eksponentiaalisen tasoituksen menetelmällä, Holtin lineaarisella eksponenttitasoituksen menetelmällä, Wintersin kausittaisella eksponentiaalisella tasoituksella, autoregressiivisillä malleilla, Box-Jenkinsin menetelmällä ja regressioanalyysillä. Myös neuroverkon opettamista historiadatalla ja käyttämistä ongelman ratkaisun apuna kokeiltiin.Koe-ennustuksien tulosten perusteella ennustemenetelmien toimintaa analysoitiin jatkokehitystä varten. Ennustetarkkuuden lisäksi arvioitiin mallin yksinkertaisuutta, helppokäyttöisyyttä ja sopivuutta yrityksen monien tuotteiden ennustamiseen. Myös kausivaihteluihin, trendeihin ja erikoispäiviin kiinnitettiin huomiota. Ennustetarkkuuden huomattiin parantuvan selvästi peruskysyntää ennustettaessa, jos ensin historiadata esikäsittelemällä puhdistettiin erikoispäivistä ja –viikoista.
Resumo:
Työn tarkoituksena on tutkia pinon ylikirjoitukseen perustuvien hyökkäysten toimintaa ja osoittaa kokeellisesti nykyisten suojaustekniikoiden olevan riittämättömiä. Tutkimus suoritetaan testaamalla miten valitut tietoturvatuotteet toimivat eri testitilanteissa. Testatut tuotteet ovat Openwall, PaX, Libsafe 2.0 ja Immunix 6.2. Testaus suoritetaan pääasiassa RedHat 7.0 ympäristössä testiohjelman avulla. Testeissä mitataan sekä tuotteiden kyky havaita hyökkäyksiä että niiden nopeusvaikutukset. Myös erityyppisten hyökkäysten ja niitä vastaan kehitettyjen metodien toimintaperiaatteet esitellään seikkaperäisesti ja havainnollistetaan yksinkertaistetuilla esimerkeillä. Esitellyt tekniikat sisältävät puskurin ylivuodot, laittomat muotoiluparametrit, loppumerkittömät merkkijonot ja taulukoiden ylivuodot. Testit osoittavat, etteivät valitut tuotteet estä kaikkia hyökkäyksiä, joten lopuksi perehdytään myös vahinkojen minimointiin onnistuneiden hyökkäysten varalta.
Resumo:
Työssä tutkittiin softkalanteroinnin vaikutus heat set web offset-luettelopaperin laatu- ja painatusominaisuuksiin. Tavoitteena oli löytää luettelopaperin laatuvaatimukset täyttävä ajotapa softkalanterille. Työn kirjallisessa osassa käsitellään softkalanteroinnin teoriaa, softkalanteroinnin vaikutusta sanomalehti-paperin laatuun sekä soft- ja konekalanteroinnin eroja. Lisäksi käsitellään painatusta; densiteettiä ja sen vaikutusta paperin läpipainatukseen. Työn kokeellisessa osassa tutkittiin softkalanterin lämpötilan ja viivapaineen vaikutus luettelopaperin laatuun. Paras laatu sileyden, kiillon sekä painojäljen kannalta saavutetaan käyttämällä korkeaa kalanterin lämpötilaa ja viivapainetta. Massaseoksessa tulisi olla niin paljon hioketta kuin paperin lujuusominaisuudet sallivat. Hioke antaa paperille tasaisen painojäljen. Täyteainetta tulisi käyttää, koska se nostaa opasiteettia ja pienentää läpipainatusta sekä helpottaa kalanteroitumista. Helpommin kalanteroituva paperi pienentää paperin huokostilavuutta, jolla on edullinen vaikutus paperin läpipainatukseen. Luettelopaperin kalanteroiminen yhdellä nipillä on mahdollista, mutta ei suotavaa. Tällöin paperista tulee toispuoleista karheuden suhteen.
Resumo:
Reaaliaikaisten käyttöjärjestelmien käyttö sulautetuissa järjestelmissä on kasvamassa koko ajan. Sulautettuja tietokoneita käytetään yhä useammassa kohteessa kuten sähkökäyttöjen ohjauksessa. Sähkökäyttöjen ohjaus hoidetaan nykyisin yleensä nopealla digitaalisella signaaliprosessorilla (DSP), jolloin ohjelmointi ja päivittäminen on hidasta ja vaikeaa johtuen käytettävästä matalan tason Assembler-kielestä. Ratkaisuna yleiskäyttöisten prosessorien ja reaaliaikakäyttöjärjestelmien käyttö. Kaupalliset reaaliaikakäyttöjärjestelmät ovat kalliita ja lähdekoodin saaminen omaan käyttöön jopa mahdotonta. Linux on ei-kaupallinen avoimen lähdekoodin käyttöjärjestelmä, joten sen käyttö on ilmaista ja sitä voi muokata vapaasti. Linux:iin on saatavana useita laajennuksia, jotka tekevät siitä reaaliaikaisen käyttöjärjestelmän. Vaihtoehtoina joko kova (hard) tai pehmeä (soft) reaaliaikaisuus. Linux:iin on olemassa valmiita kehitysympäristöjä mutta ne kaipaavat parannusta ennen kuin niitä voidaan käyttää suuressa mittakaavassa teollisuudessa. Reaaliaika Linux ei sovellus nopeisiin ohjauslooppeihin (<100 ms) koska nopeus ei riitä vielä mutta nopeus kasvaa samalla kun prosessorit kehittyvät. Linux soveltuu hyvin rajapinnaksi nopean ohjauksen ja käyttäjän välille ja hitaampaan ohjaukseen.
Resumo:
Tutkielman ensisijaisena tavoitteena oli määrittää pankkien tuloksenjärjestelymahdollisuuksien muutoksia siirryttäessä kansallisesta FAS GAAP -tilinpäätösnormistosta IFRS-normistoon. Tuloksenjärjestelyn ilmiötä käsiteltiin esittelemällä useita koti- ja ulkomaisia tuloksenjärjestelytutkimuksia. Pankeilla on toimialalleen erityisiä kannustimia tuloksenjärjestelyyn. Pankkitoimialalla tuloksenjärjestely on perinteisesti esiintynyt tuloksentasaamisena tilikausien välillä. Tutkimuksessa saatiin selkeä kuva tuloksenjärjestelymahdollisuuksien muutoksesta. IFRS-normiston sisältämä johdon harkintavalta ilmenee tilinpäätöksen laadintaperiaatteiden valinnaisuutena ja standardien laskelmien sisältäminä johdon arvioina ja oletuksina. Harkintavaltaa käyttämällä johto voi vaikuttaa tilinpäätöksen taseeseen ja tulokseen. IFRS-normistossa tilinpäätöksen laadintaperiaatteisiin liittyvä johdon harkintavalta on vähentynyt verrattuna kansalliseen FAS GAAP-tilinpäätöskäytäntöön, mutta IFRS jättää johdolle edelleen harkintavaltaa muutamien kirjaus- ja raportointikäytäntöjen suhteen. Perinteisten tuloksenjärjestelykeinojen rinnalle IFRS:ssä nousevat useiden standardien laskelmien sisältämät johdon arviot ja oletukset tulevaisuuden muuttujista. Omaisuuserien käypään arvoon arvostamisen myötä tilikauden tuloksista saattaa tulla aikaisempaa volatiilimpia. Käypiin arvoihin arvostamisen seurauksena pankit saattavat siirtyä käyttämään sijoitustensa ostoja ja myyntejä tuloksentasauskeinona. FAS GAAP:ssa pankit ovat käyttäneet tuloksentasaamiseen tiettyjä suoriteperusteisia eriä, esimerkiksi luottotappiovarauksia. IFRS tiukentaa varausten tekemisen periaatteita, mutta tuo tilalle lainakannan arvonalentumistestaukseen sisältyvät johdon arviot.
Resumo:
In this study we used market settlement prices of European call options on stock index futures to extract implied probability distribution function (PDF). The method used produces a PDF of returns of an underlying asset at expiration date from implied volatility smile. With this method, the assumption of lognormal distribution (Black-Scholes model) is tested. The market view of the asset price dynamics can then be used for various purposes (hedging, speculation). We used the so called smoothing approach for implied PDF extraction presented by Shimko (1993). In our analysis we obtained implied volatility smiles from index futures markets (S&P 500 and DAX indices) and standardized them. The method introduced by Breeden and Litzenberger (1978) was then used on PDF extraction. The results show significant deviations from the assumption of lognormal returns for S&P500 options while DAX options mostly fit the lognormal distribution. A deviant subjective view of PDF can be used to form a strategy as discussed in the last section.