24 resultados para Geospatial Data Model
em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland
Resumo:
Our surrounding landscape is in a constantly dynamic state, but recently the rate of changes and their effects on the environment have considerably increased. In terms of the impact on nature, this development has not been entirely positive, but has rather caused a decline in valuable species, habitats, and general biodiversity. Regardless of recognizing the problem and its high importance, plans and actions of how to stop the detrimental development are largely lacking. This partly originates from a lack of genuine will, but is also due to difficulties in detecting many valuable landscape components and their consequent neglect. To support knowledge extraction, various digital environmental data sources may be of substantial help, but only if all the relevant background factors are known and the data is processed in a suitable way. This dissertation concentrates on detecting ecologically valuable landscape components by using geospatial data sources, and applies this knowledge to support spatial planning and management activities. In other words, the focus is on observing regionally valuable species, habitats, and biotopes with GIS and remote sensing data, using suitable methods for their analysis. Primary emphasis is given to the hemiboreal vegetation zone and the drastic decline in its semi-natural grasslands, which were created by a long trajectory of traditional grazing and management activities. However, the applied perspective is largely methodological, and allows for the application of the obtained results in various contexts. Models based on statistical dependencies and correlations of multiple variables, which are able to extract desired properties from a large mass of initial data, are emphasized in the dissertation. In addition, the papers included combine several data sets from different sources and dates together, with the aim of detecting a wider range of environmental characteristics, as well as pointing out their temporal dynamics. The results of the dissertation emphasise the multidimensionality and dynamics of landscapes, which need to be understood in order to be able to recognise their ecologically valuable components. This not only requires knowledge about the emergence of these components and an understanding of the used data, but also the need to focus the observations on minute details that are able to indicate the existence of fragmented and partly overlapping landscape targets. In addition, this pinpoints the fact that most of the existing classifications are too generalised as such to provide all the required details, but they can be utilized at various steps along a longer processing chain. The dissertation also emphases the importance of landscape history as an important factor, which both creates and preserves ecological values, and which sets an essential standpoint for understanding the present landscape characteristics. The obtained results are significant both in terms of preserving semi-natural grasslands, as well as general methodological development, giving support to science-based framework in order to evaluate ecological values and guide spatial planning.
Resumo:
Especially in global enterprises, key data is fragmented in multiple Enterprise Resource Planning (ERP) systems. Thus the data is inconsistent, fragmented and redundant across the various systems. Master Data Management (MDM) is a concept, which creates cross-references between customers, suppliers and business units, and enables corporate hierarchies and structures. The overall goal for MDM is the ability to create an enterprise-wide consistent data model, which enables analyzing and reporting customer and supplier data. The goal of the study was defining the properties and success factors of a master data system. The theoretical background was based on literature and the case consisted of enterprise specific needs and demands. The theoretical part presents the concept, background, and principles of MDM and then the phases of system planning and implementation project. Case consists of background, definition of as is situation, definition of project, evaluation criterions and concludes the key results of the thesis. In the end chapter Conclusions combines common principles with the results of the case. The case part ended up dividing important factors of the system in success factors, technical requirements and business benefits. To clarify the project and find funding for the project, business benefits have to be defined and the realization has to be monitored. The thesis found out six success factors for the MDM system: Well defined business case, data management and monitoring, data models and structures defined and maintained, customer and supplier data governance, delivery and quality, commitment, and continuous communication with business. Technical requirements emerged several times during the thesis and therefore those can’t be ignored in the project. Conclusions chapter goes through these factors on a general level. The success factors and technical requirements are related to the essentials of MDM: Governance, Action and Quality. This chapter could be used as guidance in a master data management project.
Resumo:
This thesis work describes the creation of a pipework data structure for design system integration. Work is completed in pulp and paper plant delivery company with global engineering network operations in mind. User case of process design to 3D pipework design is introduced with influence of subcontracting engineering offices. Company data element list is gathered by using key person interviews and results are processed into a pipework data element list. Inter-company co-operation is completed in standardization association and common standard for pipework data elements is found. As result inter-company created pipework data element list is introduced. Further list usage, development and relations to design software vendors are evaluated.
Resumo:
Presentation at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014
Resumo:
Presentation at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014
Resumo:
Presentation at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014
Resumo:
Tämä diplomityö käsittelee kahden sotilaallisen koalition yhteentoimivuuden haasteita ja toteutusta kaupallisintyökaluin. Työ pohjautuu kahteen todelliseen, palvelusuuntautunutta arkkitehtuurisuunnittelua (SOA) hyödyntäneeseen integraatioprojektiin jotka on toteutettu Suomen IBM:n Palveluyksikössä vuosina 2006 - 2007. Työn tavoitteena on ollut tutkia sotilaallisten koalitioiden järjestelmä - ja tiedonvaihtoyhteentoimivuuden menetelmiä, näkökulmia ja teknistä toteutusta kaupallisin ohjelmistotuottein ja yhteistä tietomallia käyttäen. Lisäksi esitetään puolustustoimialan erityispiirteet tietojärjestelmätoimittajien ohjelmistokehitys - prosesseihin liittyen. Tätä varten tutkittiin koalitioiden käyttöön tarkoitettuja olemassa olevia ohjelmistoarkkitehtuureja ja yhteentoimivuusmalleja sekä sovitettiin niitä SOA - arkkitehtuuriajatteluun. Työn teoreettisena pohjana käytettiin organisatorisen ja teknisen yhteentoimivuuden kuvaavaa Layers of Coalition Interoperability (LCI) - mallia, minkä jälkeen mallin teknistä osiota käytettiin pohjana SOA - palveluihin perustuvan esimerkkijärjestelmän kehittämiseen kahden kuvitteellisen koalition tiedonvaihtoa varten. Työn keskeisinä tuloksina on syntynyt suunnitelma koalitioiden taustajärjestelmien yhdistämisestä dynaamisten SOA- palveluiden avulla yhteiseen JC3IEDM - tietomalliin. Tämä tietomalli vuorostaan antaa mahdollisuuden järjestelmän laajentamiseen esimerkiksi avustusjärjestöjen, poliisivoimien ja terveydenhuollon organisaatioiden tarpeisiin.
Resumo:
Diplomityön tavoitteena oli laatia putkivirtaukselle laskentamalli, joka huomioi turbulenssin vaimentamiseen käytetyn lisäaineen vaikutuksen. Kirjallisuusosassa käsitellään turbulenssiin ja putkiston painehäviön laskentaan liittyviä asioita. Lisäksi käydään läpi virtausvastusta alentavien aineiden (DRA-aineiden) ominaisuuksia, vaikutusmekanismia ja niiden vaikutusta virtausominaisuuksiin sekä laskentamalleihin. Kokeellisessa osassa laadittiin kaksi Excel-pohjaista laskentamallia, joilla huomioitiin lisäaineen vaikutus putkiston virtausmäärien parantumiseen ja painehäviöihin. Malli I laskee ensin virtausvastuksen alenemisen (DR-efektin) annetuista lähtötiedoista. DR-efektien perusteella saadaan laskettua putkiston painehäviötiedot. Malli II laskee ensin virtausvastuskertoimet ilman DRA-ainetta ja DRA-aineen kanssa. Tämän jälkeen malli II laskee DR-efektin. Mallien vaatimat lähtötiedot koostuvat virtausmääristä, fluidin ominaisuuksista, polymeerin ominaisuuksista, lisäaineen annostelutiedoista ja putkiston tiedoista.
Resumo:
Tietovarastoissa moniulotteinen tietomalli on tehokkain tapa esittää tietoa päätöksentekijöille. Sen toimivuus on hyväksi havaittu monissa eri liiketoimintaympäristöissä. Tehdasympäristöissä on tuhansia mittalaitteita, joista jokainen mittaa uniikkia valmistusprosessiin liittyvää piirrettä. Tässä työssä kehitettiin tietovarasto tehdasmittausten varastointiin käyttäen moniulotteista tietomallia. Havaittiin, että moniulotteisella mallilla tehdasmittaukset voidaan tallentaa joustavalla tavalla ja esittää käyttäjälle mielekkäässä muodossa. Moniulotteinen malli antaa myös erinomaiset keinot tiedon ryhmittelyyn ja vertailuun. Sillä ei kuitenkaan saada vastaavanlaisia hyötyjä kuin klassisissa kaupanalan tietovarastointi esimerkeissä, koska eri mittaukset ovat keskenään hyvin erilaisia. Vaikka mittaukset eivät olekaan aina vertailtavissa tai summattavissa keskenään, saadaan ne moniulotteisella mallilla tallennettua ja luokiteltua loogisesti siten, että käyttäjän on helppo löytää tarvitsemansa tieto. Lisäksi yleisesti tunnettu ja paljon käytetty tietovaraston suunnittelumalli takaa sen, että markkinoilta on saatavissa työkaluja tietovaraston käyttöön. Tietokannan toteutus tehtiin vapaasti levitettävän MySQLtiedonhallintajärjestelmän avulla. Sitä ei ole suunniteltu pääasiassa tietovarastokäyttöön, mutta halpa lisenssi ja hyvä skaalautuvuus tekevät siitä mielenkiintoisen vaihtoehdon. Sitä onkin käytetty luultua enemmän tietovarastoinnissa ja myös monien nimekkäiden organisaatioiden toimesta. Myös tässä työssä todettiin, että MySQL tarjoaa riittävät välineet tietovaraston kehittämiseen.
Resumo:
Työssä tutkittiin IFC (Industrial Foundation Classes)-tietomallin mukaisen tiedoston jäsentämistä, tiedon jatkoprosessointia ja tiedonsiirtoa sovellusten välillä. Tutkittiin, mitä vaihtoehtoja tiedon siirron toteuttamiseksi ohjelmallisesti on ja mihin suuntaan tiedon siirtäminen on menossa tulevaisuudessa. Soveltavassa osassa toteutettiin IFC-standardin mukaisen ISO10303-tiedoston (Osa 21) jäsentäminen ja tulkitseminen XML-muotoon. Sovelluksessa jäsennetään ja tulkitaan CAD-ohjelmistolla tehty IFC-tiedosto C# -ohjelmointikielellä ja tallennetaan tieto XML-tietokantaan kustannuslaskentaohjelmiston luettavaksi.
Resumo:
Työn tarkoituksena on ollut luoda varaosien tunnistukseen kehitysmalli, jota voidaan käyttää pohjana palveluiden kehityksessä. Saatavilla olevia tunnistusmenetelmiä parantamalla on mahdollista kehittää liiketoimintaprosesseja. Yrityksiin kohdistuu yhä enemmän vaatimuksia, jotka täyttääkseen on kyettävä luomaan kustomoitavissa olevia innovatiivisia palvelukokonaisuuksia. Yritysten tulisi kerätä yhteen kaikki saatavilla oleva tieto asiakkaiden hankkimista tuotteista ja palveluista tarjoten näiden kautta toimintamahdollisuuksia lähemmäs asiakasrajapintaan. Sähköisten tunnistuspalveluiden kehitys ja integrointi yhdeksi kokonaisuudeksi on keskeisessä asemassa yrityksen palvelutarjontaa kehitettäessä. Palveluihin voidaan antaa pääsy SOA (Service Oriented Architecture) -malliin perustuvien portaaleiden kautta. Uudet varaosien tunnistusmenetelmät tulee liittää web-palveluina portaaliin integrointimenetelmiä käyttäen. Varaosien tunnistuksen kannalta on keskeistä linkittää taustajärjestelmien tieto tukemaan tunnistusprosessia tuotteiden koko elinkaaren ajan. Case tapauksessa integroitiin varaosien tunnistuspalveluina IMB WebSphere Portal:n PDM (Product Data Management) -järjestelmän varaosadokumentaatio. Lisäksi luotiin varaosien tunnistusjärjestelmän vaatima datamalli, joka mahdollistaa PDMjärjestelmässä olevan as-built – varaosarakenteen hyväksikäytön portaaliin liitettävän graafisen varaosien tunnistusjärjestelmän kanssa. Tulevaisuuden kehitysmahdollisuuksina nähdään huoltojärjestelmien tiedon integrointi osaksi tunnistusmenetelmiä parantavaa kokonaisuutta, huoltotarpeen automaattinen seuranta ja analysointi, RFID:n käyttömahdollisuudet, mobiili-sovellusten kehitys, varaosien tunnistukseen perustuvien liiketoimintaprosessien automatisointi sekä jatkuva tiedonjaon kehittäminen.
Resumo:
Current-day web search engines (e.g., Google) do not crawl and index a significant portion of theWeb and, hence, web users relying on search engines only are unable to discover and access a large amount of information from the non-indexable part of the Web. Specifically, dynamic pages generated based on parameters provided by a user via web search forms (or search interfaces) are not indexed by search engines and cannot be found in searchers’ results. Such search interfaces provide web users with an online access to myriads of databases on the Web. In order to obtain some information from a web database of interest, a user issues his/her query by specifying query terms in a search form and receives the query results, a set of dynamic pages that embed required information from a database. At the same time, issuing a query via an arbitrary search interface is an extremely complex task for any kind of automatic agents including web crawlers, which, at least up to the present day, do not even attempt to pass through web forms on a large scale. In this thesis, our primary and key object of study is a huge portion of the Web (hereafter referred as the deep Web) hidden behind web search interfaces. We concentrate on three classes of problems around the deep Web: characterization of deep Web, finding and classifying deep web resources, and querying web databases. Characterizing deep Web: Though the term deep Web was coined in 2000, which is sufficiently long ago for any web-related concept/technology, we still do not know many important characteristics of the deep Web. Another matter of concern is that surveys of the deep Web existing so far are predominantly based on study of deep web sites in English. One can then expect that findings from these surveys may be biased, especially owing to a steady increase in non-English web content. In this way, surveying of national segments of the deep Web is of interest not only to national communities but to the whole web community as well. In this thesis, we propose two new methods for estimating the main parameters of deep Web. We use the suggested methods to estimate the scale of one specific national segment of the Web and report our findings. We also build and make publicly available a dataset describing more than 200 web databases from the national segment of the Web. Finding deep web resources: The deep Web has been growing at a very fast pace. It has been estimated that there are hundred thousands of deep web sites. Due to the huge volume of information in the deep Web, there has been a significant interest to approaches that allow users and computer applications to leverage this information. Most approaches assumed that search interfaces to web databases of interest are already discovered and known to query systems. However, such assumptions do not hold true mostly because of the large scale of the deep Web – indeed, for any given domain of interest there are too many web databases with relevant content. Thus, the ability to locate search interfaces to web databases becomes a key requirement for any application accessing the deep Web. In this thesis, we describe the architecture of the I-Crawler, a system for finding and classifying search interfaces. Specifically, the I-Crawler is intentionally designed to be used in deepWeb characterization studies and for constructing directories of deep web resources. Unlike almost all other approaches to the deep Web existing so far, the I-Crawler is able to recognize and analyze JavaScript-rich and non-HTML searchable forms. Querying web databases: Retrieving information by filling out web search forms is a typical task for a web user. This is all the more so as interfaces of conventional search engines are also web forms. At present, a user needs to manually provide input values to search interfaces and then extract required data from the pages with results. The manual filling out forms is not feasible and cumbersome in cases of complex queries but such kind of queries are essential for many web searches especially in the area of e-commerce. In this way, the automation of querying and retrieving data behind search interfaces is desirable and essential for such tasks as building domain-independent deep web crawlers and automated web agents, searching for domain-specific information (vertical search engines), and for extraction and integration of information from various deep web resources. We present a data model for representing search interfaces and discuss techniques for extracting field labels, client-side scripts and structured data from HTML pages. We also describe a representation of result pages and discuss how to extract and store results of form queries. Besides, we present a user-friendly and expressive form query language that allows one to retrieve information behind search interfaces and extract useful data from the result pages based on specified conditions. We implement a prototype system for querying web databases and describe its architecture and components design.
Resumo:
Sähkömarkkinaosapuolet ovat havainneet lukuisia puutteita ja haasteita tietojärjestelmien tiedonvaihtoon liittyvissä kysymyksissä. Tässä työssä käsitellään tiedonvaihdon ongelmaa mittausvirtojen kannalta. Tiedonvaihdon lisääntyminen ja sanomien monipuolistuminen on johtanut siihen, että läheskään kaikki tarpeelliset sanomat eivät ole standardoitu, ja jo luoduissa tai ehdotetuissa standardeissa on huomattavia eroavaisuuksia mm. eri maiden välillä. Tässä työssä kuvataan nykyinen automaattisen mittarinlukujärjestelmän ja jakeluverkkoyhtiön mittaustietovaraston välinen tiedonvaihtoratkaisu ja siihen liittyvät mittaustietovirrat. Työssä esitellään myös älykkäiden mittarien tuomia hyötyjä ja pohditaan uusien mittausten tuomia mahdollisuuksia. Lisäksi pohditaan nykyisten tietovirtojen koodituskäytäntöjen toimivuutta ja niiden puutteita ja ongelmia. Työssä laaditaan esimerkki standardi mittausvirtakonfiguraation mallintamiseksi sähkömarkkinoilla. Työn painopiste on energiamittaustietojen tietovirroissa lähtien laskutuksen tarpeista. Tavoitteena on automaattisten mittarinhallintaprojektien tuomien älykkäiden mittarien uusien mittausten aiheuttaman ja mahdollistaman tietovirran standardointi. Työssä pohditaan, kuinka tietovirta saadaan eheästi siirtymään mittauspalveluntarjoajan ja jakeluverkkoyhtiön järjestelmien välillä sekä miten uudet tiedonkäyttötarpeet tulisi koodittaa. Uudet sanomastandardiehdotukset esitetään XML-mallein, ja lopuksi pohditaan mallien toimivuutta ja niihin tarvittavia jatkokehitystarpeita.
Resumo:
In this thesis the main objective is to examine and model configuration system and related processes. When and where configuration information is created in product development process and how it is utilized in order-delivery process? These two processes are the essential part of the whole configuration system from the information point of view. Empirical part of the work was done as a constructive research inside a company that follows a mass customization approach. Data models and documentation are created for different development stages of the configuration system. A base data model already existed for new structures and relations between these structures. This model was used as the basis for the later data modeling work. Data models include different data structures, their key objects and attributes, and relations between. Representation of configuration rules for the to-be configuration system was defined as one of the key focus point. Further, it is examined how the customer needs and requirements information can be integrated into the product development process. Requirements hierarchy and classification system is presented. It is shown how individual requirement specifications can be connected for physical design structure via features by developing the existing base data model further.
Resumo:
Tässä työssä käsitellään lähinnä relaatiomallia hyödyntäviä tiedonhallintajärjestelmiä. Tiedonhallintajärjestelmä hallitsee yleisesti tietokannan luontia, käyttöä ja muutoksia ja relaatiomallia käyttävät tiedonhallintajärjestelmät ovat jo 1970 -luvulta lähtien olleet hallitseva trendi tietokantamarkkinoilla. Työssä otetaan huomioon neljä eri tiedonhallintajärjestelmä-tyyppiä, jotka ovat keskitetyt, hajautetut, tietovarasto ja operatiiviset tiedonhallintajärjestelmät. Työssä selvitetään, miten näitä tiedonhallintajärjestelmiä voi verrata ja mitkä valintakriteerit vaikuttavat niiden valintaan.