39 resultados para Panel Data Model


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Tutkielman tavoitteena on selvittää lineaarisen regressioanalyysin avulla paneelidataa käyttäen suomalaisten pörssiyritysten pääomarakenteisiin vaikuttavat tekijät vuosina 1999-2004. Näiden tekijöiden avulla päätellään, mitä pääomarakenneteoriaa/-teorioita nämä yritykset noudattavat. Pääomarakenneteoriat voidaan jakaa kahteen luokkaan sen mukaan, pyritäänkö niissä optimaaliseen pääomarakenteeseen vai ei. Tradeoff- ja siihen liittyvässä agenttiteoriassa pyritään optimaaliseen pääomarakenteeseen. Tradeoff-teoriassa pääomarakenne valitaan punnitsemalla vieraan pääoman hyötyjä ja haittoja. Agenttiteoria on muuten samanlainen kuin tradeoff-teoria, mutta siinä otetaan lisäksi huomioon velan agenttikustannukset. Pecking order - ja ajoitusteoriassa ei pyritä optimaaliseen pääoma-rakenteeseen. Pecking order -teoriassa rahoitus valitaan hierarkian mukaan (tulorahoitus, vieras pääoma, välirahoitus, oma pääoma). Ajoitusteoriassa valitaan se rahoitusmuoto, jota on kannattavinta hankkia vallitsevassa markkinatilanteessa. Empiiristen tulosten mukaan velkaantumisaste riippuu positiivisesti riskistä, vakuudesta ja aineettomasta omaisuudesta. Velkaantumisaste riippuu negatiivisesti likviditeetistä, osaketuotoista ja kannattavuudesta. Osingoilla ei ole vaikutusta velkaantumisasteeseen. Toimialoista teollisuustuotteiden ja -palveluiden sekä perusteollisuuden aloilla on korkeammat velkaantumisasteet kuin muilla toimialoilla. Tulokset tukevat pääosin pecking order -teoriaa ja jonkin verran ajoitusteoriaa. Muut teoriat saavat vain vähäistä tukea.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Tämän tutkielman tavoitteena on selvittää, mitkä tekijät vaikuttavat yrityksen ja valtion velkakirjojen väliseen tuottoeroon. Strukturaalisten luottoriskin hinnoittelumallien mukaan luottoriskiin vaikuttavia tekijöitä ovat yrityksen velkaantumisaste, volatiliteetti ja riskitön korkokanta. Tavoitteena on erityisesti tutkia, kuinka hyvin nämä teoreettiset tekijät selittävät tuottoeroja ja onko olemassa muita tärkeitä selittäviä tekijöitä. Luottoriskinvaihtosopimusten noteerauksia käytetään tuottoerojen määrittämiseen. Selittävät tekijät koostuvat sekä yrityskohtaisista että markkinalaajuisista muuttujista. Luottoriskinvaihtosopimusten ja yrityskohtaisten muuttujien data on kerätty yhteensä 50 yritykselle Euroalueen maista. Aineisto koostuu kuukausittaisista havainnoista aikaväliltä 01.01.2003-31.12.2006. Empiiriset tulokset osoittavat, että strukturaalisten mallien mukaiset tekijät selittävät vain pienen osan tuottoeron muutoksista yli ajan. Toisaalta nämä teoreettiset tekijät selittävät huomattavasti paremmin tuottoeron vaihtelua yli poikkileikkauksen. Muut kuin teoreettiset tekijät pystyvät selittämään suuren osan tuottoeron vaihtelusta. Erityisen tärkeäksi tuottoeron selittäväksi tekijäksi osoittautui yleinen riskipreemio velkakirjamarkkinoilla. Tulokset osoittavat, että luottoriskin hinnoittelumalleja on kehitettävä edelleenniin, että ne ottaisivat huomioon yrityskohtaisten tekijöiden lisäksi myös markkinalaajuisia tekijöitä.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The objective of this thesis is to find out how information and communication technology affects the global consumption of printing and writing papers. Another objective is to find out, whether there are differences between paper grades in these effects. The empirical analysis is conducted by linear regression analysis using three sets of country-level panel data from 1990-2006. Data set of newsprint contains 95 countries, data set of uncoated woodfree paper 61 countries and data set of coated mechanical paper 42 countries. The material is based on paper consumption data of RISI’s Industry Statistics Database and on the information and communication technology data of GMID-database. Results indicate that number of Internet users has statistically significant negative effect on the consumption of newsprint and on the consumption of coated mechanical paper and number of mobile telephone users has positive effect on the consumptions of these papers. Results also indicate that information and communication technologies have only small effect on consumption of uncoated woodfree paper or no significant effect at all, but these results are more uncertain to some extent.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Diplomityön tavoitteena oli laatia putkivirtaukselle laskentamalli, joka huomioi turbulenssin vaimentamiseen käytetyn lisäaineen vaikutuksen. Kirjallisuusosassa käsitellään turbulenssiin ja putkiston painehäviön laskentaan liittyviä asioita. Lisäksi käydään läpi virtausvastusta alentavien aineiden (DRA-aineiden) ominaisuuksia, vaikutusmekanismia ja niiden vaikutusta virtausominaisuuksiin sekä laskentamalleihin. Kokeellisessa osassa laadittiin kaksi Excel-pohjaista laskentamallia, joilla huomioitiin lisäaineen vaikutus putkiston virtausmäärien parantumiseen ja painehäviöihin. Malli I laskee ensin virtausvastuksen alenemisen (DR-efektin) annetuista lähtötiedoista. DR-efektien perusteella saadaan laskettua putkiston painehäviötiedot. Malli II laskee ensin virtausvastuskertoimet ilman DRA-ainetta ja DRA-aineen kanssa. Tämän jälkeen malli II laskee DR-efektin. Mallien vaatimat lähtötiedot koostuvat virtausmääristä, fluidin ominaisuuksista, polymeerin ominaisuuksista, lisäaineen annostelutiedoista ja putkiston tiedoista.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Tietovarastoissa moniulotteinen tietomalli on tehokkain tapa esittää tietoa päätöksentekijöille. Sen toimivuus on hyväksi havaittu monissa eri liiketoimintaympäristöissä. Tehdasympäristöissä on tuhansia mittalaitteita, joista jokainen mittaa uniikkia valmistusprosessiin liittyvää piirrettä. Tässä työssä kehitettiin tietovarasto tehdasmittausten varastointiin käyttäen moniulotteista tietomallia. Havaittiin, että moniulotteisella mallilla tehdasmittaukset voidaan tallentaa joustavalla tavalla ja esittää käyttäjälle mielekkäässä muodossa. Moniulotteinen malli antaa myös erinomaiset keinot tiedon ryhmittelyyn ja vertailuun. Sillä ei kuitenkaan saada vastaavanlaisia hyötyjä kuin klassisissa kaupanalan tietovarastointi esimerkeissä, koska eri mittaukset ovat keskenään hyvin erilaisia. Vaikka mittaukset eivät olekaan aina vertailtavissa tai summattavissa keskenään, saadaan ne moniulotteisella mallilla tallennettua ja luokiteltua loogisesti siten, että käyttäjän on helppo löytää tarvitsemansa tieto. Lisäksi yleisesti tunnettu ja paljon käytetty tietovaraston suunnittelumalli takaa sen, että markkinoilta on saatavissa työkaluja tietovaraston käyttöön. Tietokannan toteutus tehtiin vapaasti levitettävän MySQLtiedonhallintajärjestelmän avulla. Sitä ei ole suunniteltu pääasiassa tietovarastokäyttöön, mutta halpa lisenssi ja hyvä skaalautuvuus tekevät siitä mielenkiintoisen vaihtoehdon. Sitä onkin käytetty luultua enemmän tietovarastoinnissa ja myös monien nimekkäiden organisaatioiden toimesta. Myös tässä työssä todettiin, että MySQL tarjoaa riittävät välineet tietovaraston kehittämiseen.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Työssä tutkittiin IFC (Industrial Foundation Classes)-tietomallin mukaisen tiedoston jäsentämistä, tiedon jatkoprosessointia ja tiedonsiirtoa sovellusten välillä. Tutkittiin, mitä vaihtoehtoja tiedon siirron toteuttamiseksi ohjelmallisesti on ja mihin suuntaan tiedon siirtäminen on menossa tulevaisuudessa. Soveltavassa osassa toteutettiin IFC-standardin mukaisen ISO10303-tiedoston (Osa 21) jäsentäminen ja tulkitseminen XML-muotoon. Sovelluksessa jäsennetään ja tulkitaan CAD-ohjelmistolla tehty IFC-tiedosto C# -ohjelmointikielellä ja tallennetaan tieto XML-tietokantaan kustannuslaskentaohjelmiston luettavaksi.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Työn tarkoituksena on ollut luoda varaosien tunnistukseen kehitysmalli, jota voidaan käyttää pohjana palveluiden kehityksessä. Saatavilla olevia tunnistusmenetelmiä parantamalla on mahdollista kehittää liiketoimintaprosesseja. Yrityksiin kohdistuu yhä enemmän vaatimuksia, jotka täyttääkseen on kyettävä luomaan kustomoitavissa olevia innovatiivisia palvelukokonaisuuksia. Yritysten tulisi kerätä yhteen kaikki saatavilla oleva tieto asiakkaiden hankkimista tuotteista ja palveluista tarjoten näiden kautta toimintamahdollisuuksia lähemmäs asiakasrajapintaan. Sähköisten tunnistuspalveluiden kehitys ja integrointi yhdeksi kokonaisuudeksi on keskeisessä asemassa yrityksen palvelutarjontaa kehitettäessä. Palveluihin voidaan antaa pääsy SOA (Service Oriented Architecture) -malliin perustuvien portaaleiden kautta. Uudet varaosien tunnistusmenetelmät tulee liittää web-palveluina portaaliin integrointimenetelmiä käyttäen. Varaosien tunnistuksen kannalta on keskeistä linkittää taustajärjestelmien tieto tukemaan tunnistusprosessia tuotteiden koko elinkaaren ajan. Case tapauksessa integroitiin varaosien tunnistuspalveluina IMB WebSphere Portal:n PDM (Product Data Management) -järjestelmän varaosadokumentaatio. Lisäksi luotiin varaosien tunnistusjärjestelmän vaatima datamalli, joka mahdollistaa PDMjärjestelmässä olevan as-built – varaosarakenteen hyväksikäytön portaaliin liitettävän graafisen varaosien tunnistusjärjestelmän kanssa. Tulevaisuuden kehitysmahdollisuuksina nähdään huoltojärjestelmien tiedon integrointi osaksi tunnistusmenetelmiä parantavaa kokonaisuutta, huoltotarpeen automaattinen seuranta ja analysointi, RFID:n käyttömahdollisuudet, mobiili-sovellusten kehitys, varaosien tunnistukseen perustuvien liiketoimintaprosessien automatisointi sekä jatkuva tiedonjaon kehittäminen.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Current-day web search engines (e.g., Google) do not crawl and index a significant portion of theWeb and, hence, web users relying on search engines only are unable to discover and access a large amount of information from the non-indexable part of the Web. Specifically, dynamic pages generated based on parameters provided by a user via web search forms (or search interfaces) are not indexed by search engines and cannot be found in searchers’ results. Such search interfaces provide web users with an online access to myriads of databases on the Web. In order to obtain some information from a web database of interest, a user issues his/her query by specifying query terms in a search form and receives the query results, a set of dynamic pages that embed required information from a database. At the same time, issuing a query via an arbitrary search interface is an extremely complex task for any kind of automatic agents including web crawlers, which, at least up to the present day, do not even attempt to pass through web forms on a large scale. In this thesis, our primary and key object of study is a huge portion of the Web (hereafter referred as the deep Web) hidden behind web search interfaces. We concentrate on three classes of problems around the deep Web: characterization of deep Web, finding and classifying deep web resources, and querying web databases. Characterizing deep Web: Though the term deep Web was coined in 2000, which is sufficiently long ago for any web-related concept/technology, we still do not know many important characteristics of the deep Web. Another matter of concern is that surveys of the deep Web existing so far are predominantly based on study of deep web sites in English. One can then expect that findings from these surveys may be biased, especially owing to a steady increase in non-English web content. In this way, surveying of national segments of the deep Web is of interest not only to national communities but to the whole web community as well. In this thesis, we propose two new methods for estimating the main parameters of deep Web. We use the suggested methods to estimate the scale of one specific national segment of the Web and report our findings. We also build and make publicly available a dataset describing more than 200 web databases from the national segment of the Web. Finding deep web resources: The deep Web has been growing at a very fast pace. It has been estimated that there are hundred thousands of deep web sites. Due to the huge volume of information in the deep Web, there has been a significant interest to approaches that allow users and computer applications to leverage this information. Most approaches assumed that search interfaces to web databases of interest are already discovered and known to query systems. However, such assumptions do not hold true mostly because of the large scale of the deep Web – indeed, for any given domain of interest there are too many web databases with relevant content. Thus, the ability to locate search interfaces to web databases becomes a key requirement for any application accessing the deep Web. In this thesis, we describe the architecture of the I-Crawler, a system for finding and classifying search interfaces. Specifically, the I-Crawler is intentionally designed to be used in deepWeb characterization studies and for constructing directories of deep web resources. Unlike almost all other approaches to the deep Web existing so far, the I-Crawler is able to recognize and analyze JavaScript-rich and non-HTML searchable forms. Querying web databases: Retrieving information by filling out web search forms is a typical task for a web user. This is all the more so as interfaces of conventional search engines are also web forms. At present, a user needs to manually provide input values to search interfaces and then extract required data from the pages with results. The manual filling out forms is not feasible and cumbersome in cases of complex queries but such kind of queries are essential for many web searches especially in the area of e-commerce. In this way, the automation of querying and retrieving data behind search interfaces is desirable and essential for such tasks as building domain-independent deep web crawlers and automated web agents, searching for domain-specific information (vertical search engines), and for extraction and integration of information from various deep web resources. We present a data model for representing search interfaces and discuss techniques for extracting field labels, client-side scripts and structured data from HTML pages. We also describe a representation of result pages and discuss how to extract and store results of form queries. Besides, we present a user-friendly and expressive form query language that allows one to retrieve information behind search interfaces and extract useful data from the result pages based on specified conditions. We implement a prototype system for querying web databases and describe its architecture and components design.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Sähkömarkkinaosapuolet ovat havainneet lukuisia puutteita ja haasteita tietojärjestelmien tiedonvaihtoon liittyvissä kysymyksissä. Tässä työssä käsitellään tiedonvaihdon ongelmaa mittausvirtojen kannalta. Tiedonvaihdon lisääntyminen ja sanomien monipuolistuminen on johtanut siihen, että läheskään kaikki tarpeelliset sanomat eivät ole standardoitu, ja jo luoduissa tai ehdotetuissa standardeissa on huomattavia eroavaisuuksia mm. eri maiden välillä. Tässä työssä kuvataan nykyinen automaattisen mittarinlukujärjestelmän ja jakeluverkkoyhtiön mittaustietovaraston välinen tiedonvaihtoratkaisu ja siihen liittyvät mittaustietovirrat. Työssä esitellään myös älykkäiden mittarien tuomia hyötyjä ja pohditaan uusien mittausten tuomia mahdollisuuksia. Lisäksi pohditaan nykyisten tietovirtojen koodituskäytäntöjen toimivuutta ja niiden puutteita ja ongelmia. Työssä laaditaan esimerkki standardi mittausvirtakonfiguraation mallintamiseksi sähkömarkkinoilla. Työn painopiste on energiamittaustietojen tietovirroissa lähtien laskutuksen tarpeista. Tavoitteena on automaattisten mittarinhallintaprojektien tuomien älykkäiden mittarien uusien mittausten aiheuttaman ja mahdollistaman tietovirran standardointi. Työssä pohditaan, kuinka tietovirta saadaan eheästi siirtymään mittauspalveluntarjoajan ja jakeluverkkoyhtiön järjestelmien välillä sekä miten uudet tiedonkäyttötarpeet tulisi koodittaa. Uudet sanomastandardiehdotukset esitetään XML-mallein, ja lopuksi pohditaan mallien toimivuutta ja niihin tarvittavia jatkokehitystarpeita.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this thesis the main objective is to examine and model configuration system and related processes. When and where configuration information is created in product development process and how it is utilized in order-delivery process? These two processes are the essential part of the whole configuration system from the information point of view. Empirical part of the work was done as a constructive research inside a company that follows a mass customization approach. Data models and documentation are created for different development stages of the configuration system. A base data model already existed for new structures and relations between these structures. This model was used as the basis for the later data modeling work. Data models include different data structures, their key objects and attributes, and relations between. Representation of configuration rules for the to-be configuration system was defined as one of the key focus point. Further, it is examined how the customer needs and requirements information can be integrated into the product development process. Requirements hierarchy and classification system is presented. It is shown how individual requirement specifications can be connected for physical design structure via features by developing the existing base data model further.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Paneeliregressioita käyttäen tutkittiin 3 kuukauden Euribor-futuurin markkinatehokkuutta ja sitä, esiintyykö normal backwardation-efektiä. Tulokset olivat ristiriitaisia.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Tässä pro gradu –tutkielmassa perehdyttiin globaalin telekommunikaatiosektorin allianssitoimintaan vuosina 2000-2010. Tutkimuksen tavoitteena oli tarkastella kvantitatiivisin menetelmin yrityskohtaisen ja makrotaloudellisen epävarmuuden vaikutusta solmittujen allianssien rakenteeseen, muotoon ja osapuolten maantieteelliseen sijaintiin. Lisäksi oli tarkoitus tutkia, kuinka allianssien vuosittainen määrä ja niihin osallistuvien yritysten määrä muuttuu epävarmuuden vaihtelujen myötä. Tutkielman empiirisen rungon muodosti sekundaarinen data SDC Platinum ja Thomson Datastream –tietokannoista. Lopulliseen aineistoon sisältyi 50 maailman suurinta telekommunikaatioyritystä useasta eri maasta. Tilastollinen analyysi suoritettiin logistisen ja paneelidataregression avulla. Tutkielman viidestä hypoteesista vain kaksi vahvistuivat osittain. Kyseiset hypoteesit olettivat epävarmuuden kasvun negatiivista vaikutusta vertikaalisten ja kotimaisten allianssien suosioon yrityksen silmissä. Muut regressiomallit tuottivat ristiriitaisia ja tilastollisesti ei-merkitseviä tuloksia.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Tässä työssä käsitellään lähinnä relaatiomallia hyödyntäviä tiedonhallintajärjestelmiä. Tiedonhallintajärjestelmä hallitsee yleisesti tietokannan luontia, käyttöä ja muutoksia ja relaatiomallia käyttävät tiedonhallintajärjestelmät ovat jo 1970 -luvulta lähtien olleet hallitseva trendi tietokantamarkkinoilla. Työssä otetaan huomioon neljä eri tiedonhallintajärjestelmä-tyyppiä, jotka ovat keskitetyt, hajautetut, tietovarasto ja operatiiviset tiedonhallintajärjestelmät. Työssä selvitetään, miten näitä tiedonhallintajärjestelmiä voi verrata ja mitkä valintakriteerit vaikuttavat niiden valintaan.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Presentation at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Presentation at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014