879 resultados para Panel Data Model
Resumo:
Tämän tutkielman tavoitteena on selvittää, mitkä tekijät vaikuttavat yrityksen ja valtion velkakirjojen väliseen tuottoeroon. Strukturaalisten luottoriskin hinnoittelumallien mukaan luottoriskiin vaikuttavia tekijöitä ovat yrityksen velkaantumisaste, volatiliteetti ja riskitön korkokanta. Tavoitteena on erityisesti tutkia, kuinka hyvin nämä teoreettiset tekijät selittävät tuottoeroja ja onko olemassa muita tärkeitä selittäviä tekijöitä. Luottoriskinvaihtosopimusten noteerauksia käytetään tuottoerojen määrittämiseen. Selittävät tekijät koostuvat sekä yrityskohtaisista että markkinalaajuisista muuttujista. Luottoriskinvaihtosopimusten ja yrityskohtaisten muuttujien data on kerätty yhteensä 50 yritykselle Euroalueen maista. Aineisto koostuu kuukausittaisista havainnoista aikaväliltä 01.01.2003-31.12.2006. Empiiriset tulokset osoittavat, että strukturaalisten mallien mukaiset tekijät selittävät vain pienen osan tuottoeron muutoksista yli ajan. Toisaalta nämä teoreettiset tekijät selittävät huomattavasti paremmin tuottoeron vaihtelua yli poikkileikkauksen. Muut kuin teoreettiset tekijät pystyvät selittämään suuren osan tuottoeron vaihtelusta. Erityisen tärkeäksi tuottoeron selittäväksi tekijäksi osoittautui yleinen riskipreemio velkakirjamarkkinoilla. Tulokset osoittavat, että luottoriskin hinnoittelumalleja on kehitettävä edelleenniin, että ne ottaisivat huomioon yrityskohtaisten tekijöiden lisäksi myös markkinalaajuisia tekijöitä.
Resumo:
The objective of this thesis is to find out how information and communication technology affects the global consumption of printing and writing papers. Another objective is to find out, whether there are differences between paper grades in these effects. The empirical analysis is conducted by linear regression analysis using three sets of country-level panel data from 1990-2006. Data set of newsprint contains 95 countries, data set of uncoated woodfree paper 61 countries and data set of coated mechanical paper 42 countries. The material is based on paper consumption data of RISI’s Industry Statistics Database and on the information and communication technology data of GMID-database. Results indicate that number of Internet users has statistically significant negative effect on the consumption of newsprint and on the consumption of coated mechanical paper and number of mobile telephone users has positive effect on the consumptions of these papers. Results also indicate that information and communication technologies have only small effect on consumption of uncoated woodfree paper or no significant effect at all, but these results are more uncertain to some extent.
Resumo:
Purpose: The purpose of this paper is to analyse the impact of business exits on future dimensions of entrepreneurial activity at the macroeconomic level. Design/methodology/approach: This research uses the Global Entrepreneurship Monitor (GEM) data for 41 countries and the Generalized Method of Moments (GMM) to carry out the analysis. The paper differentiates the effect of the two components of total entrepreneurial activity, and the two motivations for it – opportunity and necessity entrepreneurship. Findings: The results presented here show a positive and significant effect of the coefficient associated with exits in all models. This means that the levels of entrepreneurial activity exceed business exits. The robustness of the models are tested, including other variables such as the fear of failure, the Gross Domestic Product, role models, entrepreneurial skills and the unemployment variables. The main hypothesis which stated that at national level business exits imply greater rates of opportunity-driven entrepreneurship is corroborated. Originality/value: One would expect that unemployment rates would imply higher levels of necessity entrepreneurship. However, results show that unemployment rates do in fact favour opportunity entrepreneurship levels. This could be due to those government policies that are aimed at promoting entrepreneurship through the capitalization of unemployment to be totally invested in a new start-up. To the best of our knowledge, this is the first panel data study to link previous exit rates to future dimensions of entrepreneurial activity. Keywords: Entrepreneurship, business exits, social values, industrial organization Paper type: Research paper
Resumo:
Diplomityön tavoitteena oli laatia putkivirtaukselle laskentamalli, joka huomioi turbulenssin vaimentamiseen käytetyn lisäaineen vaikutuksen. Kirjallisuusosassa käsitellään turbulenssiin ja putkiston painehäviön laskentaan liittyviä asioita. Lisäksi käydään läpi virtausvastusta alentavien aineiden (DRA-aineiden) ominaisuuksia, vaikutusmekanismia ja niiden vaikutusta virtausominaisuuksiin sekä laskentamalleihin. Kokeellisessa osassa laadittiin kaksi Excel-pohjaista laskentamallia, joilla huomioitiin lisäaineen vaikutus putkiston virtausmäärien parantumiseen ja painehäviöihin. Malli I laskee ensin virtausvastuksen alenemisen (DR-efektin) annetuista lähtötiedoista. DR-efektien perusteella saadaan laskettua putkiston painehäviötiedot. Malli II laskee ensin virtausvastuskertoimet ilman DRA-ainetta ja DRA-aineen kanssa. Tämän jälkeen malli II laskee DR-efektin. Mallien vaatimat lähtötiedot koostuvat virtausmääristä, fluidin ominaisuuksista, polymeerin ominaisuuksista, lisäaineen annostelutiedoista ja putkiston tiedoista.
Resumo:
OBJECTIVE: To investigate whether better management of chronic conditions by family practices reduces mortality risk. DATA: Two random samples of 5 million patients registered with over 8,000 English family practices followed up for 4 years (2004/5-2007/8). Measures of the quality of disease management for 10 conditions were constructed for each family practice for each year. The outcome measure was an indicator taking the value 1 if the patient died during a specified year, 0 otherwise. STUDY DESIGN: Cross-section and multilevel panel data multiple logistic regressions were estimated. Covariates included age, gender, morbidity, hospitalizations, attributed socio-economic characteristics, and local health care supply measures. PRINCIPAL FINDINGS: Although a composite measure of the quality of disease management for all 10 conditions was significantly associated with lower mortality, only the quality of stroke care was significant when all 10 quality measures were entered in the regression. CONCLUSIONS: The panel data results suggest that a 1 percent improvement in the quality of stroke care could reduce the annual number of deaths in England by 782 [95 percent CI: 423, 1140]. A longer study period may be necessary to detect any mortality impact of better management of other conditions.
Resumo:
Tietovarastoissa moniulotteinen tietomalli on tehokkain tapa esittää tietoa päätöksentekijöille. Sen toimivuus on hyväksi havaittu monissa eri liiketoimintaympäristöissä. Tehdasympäristöissä on tuhansia mittalaitteita, joista jokainen mittaa uniikkia valmistusprosessiin liittyvää piirrettä. Tässä työssä kehitettiin tietovarasto tehdasmittausten varastointiin käyttäen moniulotteista tietomallia. Havaittiin, että moniulotteisella mallilla tehdasmittaukset voidaan tallentaa joustavalla tavalla ja esittää käyttäjälle mielekkäässä muodossa. Moniulotteinen malli antaa myös erinomaiset keinot tiedon ryhmittelyyn ja vertailuun. Sillä ei kuitenkaan saada vastaavanlaisia hyötyjä kuin klassisissa kaupanalan tietovarastointi esimerkeissä, koska eri mittaukset ovat keskenään hyvin erilaisia. Vaikka mittaukset eivät olekaan aina vertailtavissa tai summattavissa keskenään, saadaan ne moniulotteisella mallilla tallennettua ja luokiteltua loogisesti siten, että käyttäjän on helppo löytää tarvitsemansa tieto. Lisäksi yleisesti tunnettu ja paljon käytetty tietovaraston suunnittelumalli takaa sen, että markkinoilta on saatavissa työkaluja tietovaraston käyttöön. Tietokannan toteutus tehtiin vapaasti levitettävän MySQLtiedonhallintajärjestelmän avulla. Sitä ei ole suunniteltu pääasiassa tietovarastokäyttöön, mutta halpa lisenssi ja hyvä skaalautuvuus tekevät siitä mielenkiintoisen vaihtoehdon. Sitä onkin käytetty luultua enemmän tietovarastoinnissa ja myös monien nimekkäiden organisaatioiden toimesta. Myös tässä työssä todettiin, että MySQL tarjoaa riittävät välineet tietovaraston kehittämiseen.
Resumo:
Työssä tutkittiin IFC (Industrial Foundation Classes)-tietomallin mukaisen tiedoston jäsentämistä, tiedon jatkoprosessointia ja tiedonsiirtoa sovellusten välillä. Tutkittiin, mitä vaihtoehtoja tiedon siirron toteuttamiseksi ohjelmallisesti on ja mihin suuntaan tiedon siirtäminen on menossa tulevaisuudessa. Soveltavassa osassa toteutettiin IFC-standardin mukaisen ISO10303-tiedoston (Osa 21) jäsentäminen ja tulkitseminen XML-muotoon. Sovelluksessa jäsennetään ja tulkitaan CAD-ohjelmistolla tehty IFC-tiedosto C# -ohjelmointikielellä ja tallennetaan tieto XML-tietokantaan kustannuslaskentaohjelmiston luettavaksi.
Resumo:
Työn tarkoituksena on ollut luoda varaosien tunnistukseen kehitysmalli, jota voidaan käyttää pohjana palveluiden kehityksessä. Saatavilla olevia tunnistusmenetelmiä parantamalla on mahdollista kehittää liiketoimintaprosesseja. Yrityksiin kohdistuu yhä enemmän vaatimuksia, jotka täyttääkseen on kyettävä luomaan kustomoitavissa olevia innovatiivisia palvelukokonaisuuksia. Yritysten tulisi kerätä yhteen kaikki saatavilla oleva tieto asiakkaiden hankkimista tuotteista ja palveluista tarjoten näiden kautta toimintamahdollisuuksia lähemmäs asiakasrajapintaan. Sähköisten tunnistuspalveluiden kehitys ja integrointi yhdeksi kokonaisuudeksi on keskeisessä asemassa yrityksen palvelutarjontaa kehitettäessä. Palveluihin voidaan antaa pääsy SOA (Service Oriented Architecture) -malliin perustuvien portaaleiden kautta. Uudet varaosien tunnistusmenetelmät tulee liittää web-palveluina portaaliin integrointimenetelmiä käyttäen. Varaosien tunnistuksen kannalta on keskeistä linkittää taustajärjestelmien tieto tukemaan tunnistusprosessia tuotteiden koko elinkaaren ajan. Case tapauksessa integroitiin varaosien tunnistuspalveluina IMB WebSphere Portal:n PDM (Product Data Management) -järjestelmän varaosadokumentaatio. Lisäksi luotiin varaosien tunnistusjärjestelmän vaatima datamalli, joka mahdollistaa PDMjärjestelmässä olevan as-built – varaosarakenteen hyväksikäytön portaaliin liitettävän graafisen varaosien tunnistusjärjestelmän kanssa. Tulevaisuuden kehitysmahdollisuuksina nähdään huoltojärjestelmien tiedon integrointi osaksi tunnistusmenetelmiä parantavaa kokonaisuutta, huoltotarpeen automaattinen seuranta ja analysointi, RFID:n käyttömahdollisuudet, mobiili-sovellusten kehitys, varaosien tunnistukseen perustuvien liiketoimintaprosessien automatisointi sekä jatkuva tiedonjaon kehittäminen.
Resumo:
Current-day web search engines (e.g., Google) do not crawl and index a significant portion of theWeb and, hence, web users relying on search engines only are unable to discover and access a large amount of information from the non-indexable part of the Web. Specifically, dynamic pages generated based on parameters provided by a user via web search forms (or search interfaces) are not indexed by search engines and cannot be found in searchers’ results. Such search interfaces provide web users with an online access to myriads of databases on the Web. In order to obtain some information from a web database of interest, a user issues his/her query by specifying query terms in a search form and receives the query results, a set of dynamic pages that embed required information from a database. At the same time, issuing a query via an arbitrary search interface is an extremely complex task for any kind of automatic agents including web crawlers, which, at least up to the present day, do not even attempt to pass through web forms on a large scale. In this thesis, our primary and key object of study is a huge portion of the Web (hereafter referred as the deep Web) hidden behind web search interfaces. We concentrate on three classes of problems around the deep Web: characterization of deep Web, finding and classifying deep web resources, and querying web databases. Characterizing deep Web: Though the term deep Web was coined in 2000, which is sufficiently long ago for any web-related concept/technology, we still do not know many important characteristics of the deep Web. Another matter of concern is that surveys of the deep Web existing so far are predominantly based on study of deep web sites in English. One can then expect that findings from these surveys may be biased, especially owing to a steady increase in non-English web content. In this way, surveying of national segments of the deep Web is of interest not only to national communities but to the whole web community as well. In this thesis, we propose two new methods for estimating the main parameters of deep Web. We use the suggested methods to estimate the scale of one specific national segment of the Web and report our findings. We also build and make publicly available a dataset describing more than 200 web databases from the national segment of the Web. Finding deep web resources: The deep Web has been growing at a very fast pace. It has been estimated that there are hundred thousands of deep web sites. Due to the huge volume of information in the deep Web, there has been a significant interest to approaches that allow users and computer applications to leverage this information. Most approaches assumed that search interfaces to web databases of interest are already discovered and known to query systems. However, such assumptions do not hold true mostly because of the large scale of the deep Web – indeed, for any given domain of interest there are too many web databases with relevant content. Thus, the ability to locate search interfaces to web databases becomes a key requirement for any application accessing the deep Web. In this thesis, we describe the architecture of the I-Crawler, a system for finding and classifying search interfaces. Specifically, the I-Crawler is intentionally designed to be used in deepWeb characterization studies and for constructing directories of deep web resources. Unlike almost all other approaches to the deep Web existing so far, the I-Crawler is able to recognize and analyze JavaScript-rich and non-HTML searchable forms. Querying web databases: Retrieving information by filling out web search forms is a typical task for a web user. This is all the more so as interfaces of conventional search engines are also web forms. At present, a user needs to manually provide input values to search interfaces and then extract required data from the pages with results. The manual filling out forms is not feasible and cumbersome in cases of complex queries but such kind of queries are essential for many web searches especially in the area of e-commerce. In this way, the automation of querying and retrieving data behind search interfaces is desirable and essential for such tasks as building domain-independent deep web crawlers and automated web agents, searching for domain-specific information (vertical search engines), and for extraction and integration of information from various deep web resources. We present a data model for representing search interfaces and discuss techniques for extracting field labels, client-side scripts and structured data from HTML pages. We also describe a representation of result pages and discuss how to extract and store results of form queries. Besides, we present a user-friendly and expressive form query language that allows one to retrieve information behind search interfaces and extract useful data from the result pages based on specified conditions. We implement a prototype system for querying web databases and describe its architecture and components design.
Resumo:
In this study we use historical emission data from installations under the European Union Emissions Trading System, -EU ETS- to evaluate the impact of this policy on industrial greenhouse gas emissions during the first two trading phases, 2005-2012. As such the analysis seeks to disentangle two causes of emission abatement: that attributable to the EU ETS and that attributable to the economic crisis that hit the EU in 2008/09. Using a panel data approach the estimated emissions reduction attributable to the EU ETS is about 21 per cent of the total emission abatement during the observation period. These results suggest therefore that the lion’s share of abatement was attributable to the effects of the economic crisis, a finding that has serious implications for future policy adjustments affecting core elements of the EU ETS, including the distribution of EU emission allowances.
Resumo:
Two speed management policies were implemented in the metropolitan area of Barcelona aimed at reducing air pollution concentration levels. In 2008, the maximum speed limit was reduced to 80 km/h and, in 2009, a variable speed system was introduced on some metropolitan motorways. This paper evaluates whether such policies have been successful in promoting cleaner air, not only in terms of mean pollutant levels but also during high and low pollution episodes. We use a quantile regression approach for fixed effect panel data. We find that the variable speed system improves air quality with regard to the two pollutants considered here, being most effective when nitrogen oxide levels are not too low and when particulate matter concentrations are below extremely high levels. However, reducing the maximum speed limit from 120/100 km/h to 80 km/h has no effect – or even a slightly increasing effect –on the two pollutants, depending on the pollution scenario. Length: 32 pages
Resumo:
This paper analyses the differential impact of human capital, in terms of different levels of schooling, on regional productivity and convergence. The potential existence of geographical spillovers of human capital is also considered by applying spatial panel data techniques. The empirical analysis of Spanish provinces between 1980 and 2007 confirms the positive impact of human capital on regional productivity and convergence, but reveals no evidence of any positive geographical spillovers of human capital. In fact, in some specifications the spatial lag presented by tertiary studies has a negative effect on the variables under consideration.
Resumo:
Sähkömarkkinaosapuolet ovat havainneet lukuisia puutteita ja haasteita tietojärjestelmien tiedonvaihtoon liittyvissä kysymyksissä. Tässä työssä käsitellään tiedonvaihdon ongelmaa mittausvirtojen kannalta. Tiedonvaihdon lisääntyminen ja sanomien monipuolistuminen on johtanut siihen, että läheskään kaikki tarpeelliset sanomat eivät ole standardoitu, ja jo luoduissa tai ehdotetuissa standardeissa on huomattavia eroavaisuuksia mm. eri maiden välillä. Tässä työssä kuvataan nykyinen automaattisen mittarinlukujärjestelmän ja jakeluverkkoyhtiön mittaustietovaraston välinen tiedonvaihtoratkaisu ja siihen liittyvät mittaustietovirrat. Työssä esitellään myös älykkäiden mittarien tuomia hyötyjä ja pohditaan uusien mittausten tuomia mahdollisuuksia. Lisäksi pohditaan nykyisten tietovirtojen koodituskäytäntöjen toimivuutta ja niiden puutteita ja ongelmia. Työssä laaditaan esimerkki standardi mittausvirtakonfiguraation mallintamiseksi sähkömarkkinoilla. Työn painopiste on energiamittaustietojen tietovirroissa lähtien laskutuksen tarpeista. Tavoitteena on automaattisten mittarinhallintaprojektien tuomien älykkäiden mittarien uusien mittausten aiheuttaman ja mahdollistaman tietovirran standardointi. Työssä pohditaan, kuinka tietovirta saadaan eheästi siirtymään mittauspalveluntarjoajan ja jakeluverkkoyhtiön järjestelmien välillä sekä miten uudet tiedonkäyttötarpeet tulisi koodittaa. Uudet sanomastandardiehdotukset esitetään XML-mallein, ja lopuksi pohditaan mallien toimivuutta ja niihin tarvittavia jatkokehitystarpeita.
Resumo:
The agricultural sector has always been characterized by a predominance of small firms. International competition and the consequent need for restraining costs are permanent challenges for farms. This paper performs an empirical investigation of cost behavior in agriculture using panel data analysis. Our results show that transactions caused by complexity influence farm costs with opposite effects for specific and indirect costs. While transactions allow economies of scale in specific costs, they significantly increase indirect costs. However, the main driver for farm costs is volume. In addition, important differences exist for small and big farms, since transactional variables significantly influence the former but not the latter. While sophisticated management tools, such ABC, could provide only limited complementary useful information but no essential allocation bases for farms, they seem inappropriate for small farms
Resumo:
The agricultural sector has always been characterized by a predominance of small firms. International competition and the consequent need for restraining costs are permanent challenges for farms. This paper performs an empirical investigation of cost behavior in agriculture using panel data analysis. Our results show that transactions caused by complexity influence farm costs with opposite effects for specific and indirect costs. While transactions allow economies of scale in specific costs, they significantly increase indirect costs. However, the main driver for farm costs is volume. In addition, important differences exist for small and big farms, since transactional variables significantly influence the former but not the latter. While sophisticated management tools, such ABC, could provide only limited complementary useful information but no essential allocation bases for farms, they seem inappropriate for small farms