44 resultados para Query Refinement
em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland
Resumo:
In the field of molecular biology, scientists adopted for decades a reductionist perspective in their inquiries, being predominantly concerned with the intricate mechanistic details of subcellular regulatory systems. However, integrative thinking was still applied at a smaller scale in molecular biology to understand the underlying processes of cellular behaviour for at least half a century. It was not until the genomic revolution at the end of the previous century that we required model building to account for systemic properties of cellular activity. Our system-level understanding of cellular function is to this day hindered by drastic limitations in our capability of predicting cellular behaviour to reflect system dynamics and system structures. To this end, systems biology aims for a system-level understanding of functional intraand inter-cellular activity. Modern biology brings about a high volume of data, whose comprehension we cannot even aim for in the absence of computational support. Computational modelling, hence, bridges modern biology to computer science, enabling a number of assets, which prove to be invaluable in the analysis of complex biological systems, such as: a rigorous characterization of the system structure, simulation techniques, perturbations analysis, etc. Computational biomodels augmented in size considerably in the past years, major contributions being made towards the simulation and analysis of large-scale models, starting with signalling pathways and culminating with whole-cell models, tissue-level models, organ models and full-scale patient models. The simulation and analysis of models of such complexity very often requires, in fact, the integration of various sub-models, entwined at different levels of resolution and whose organization spans over several levels of hierarchy. This thesis revolves around the concept of quantitative model refinement in relation to the process of model building in computational systems biology. The thesis proposes a sound computational framework for the stepwise augmentation of a biomodel. One starts with an abstract, high-level representation of a biological phenomenon, which is materialised into an initial model that is validated against a set of existing data. Consequently, the model is refined to include more details regarding its species and/or reactions. The framework is employed in the development of two models, one for the heat shock response in eukaryotes and the second for the ErbB signalling pathway. The thesis spans over several formalisms used in computational systems biology, inherently quantitative: reaction-network models, rule-based models and Petri net models, as well as a recent formalism intrinsically qualitative: reaction systems. The choice of modelling formalism is, however, determined by the nature of the question the modeler aims to answer. Quantitative model refinement turns out to be not only essential in the model development cycle, but also beneficial for the compilation of large-scale models, whose development requires the integration of several sub-models across various levels of resolution and underlying formal representations.
Resumo:
Building a computational model for complex biological systems is an iterative process. It starts from an abstraction of the process and then incorporates more details regarding the specific biochemical reactions which results in the change of the model fit. Meanwhile, the model’s numerical properties such as its numerical fit and validation should be preserved. However, refitting the model after each refinement iteration is computationally expensive resource-wise. There is an alternative approach which ensures the model fit preservation without the need to refit the model after each refinement iteration. And this approach is known as quantitative model refinement. The aim of this thesis is to develop and implement a tool called ModelRef which does the quantitative model refinement automatically. It is both implemented as a stand-alone Java application and as one of Anduril framework components. ModelRef performs data refinement of a model and generates the results in two different well known formats (SBML and CPS formats). The development of this tool successfully reduces the time and resource needed and the errors generated as well by traditional reiteration of the whole model to perform the fitting procedure.
Resumo:
Prosessisimulointiohjelmistojen käyttö on yleistynyt paperiteollisuuden prosessien kartoituksessa ja kyseiset ohjelmistot ovat jo pitkään olleet myös Pöyry Engineering Oy:n työkaluja prosessisuunnittelussa. Tämän työn tavoitteeksi määritettiin prosessisimulointiohjelmistojen käytön selvittäminen suomalaisissa paperitehtaissa sekä prosessisimuloinnin tulevaisuuden näkymien arviointi metsäteollisuuden suunnittelupalveluissa liiketoiminnan kehittämiseksi. Työn teoriaosassa selvitetään mm. seuraavia asioita: mitä prosessisimulointi on, miksi simuloidaan ja mitkä ovat simuloinnin hyödyt ja haasteet. Teoriaosassa esitellään yleisimmät käytössä olevat prosessisimulointiohjelmistot, simulointiprosessin eteneminen sekä prosessisimuloinnin tuotteistamisen vaatimuksia. Työn kokeellisessa osassa selvitettiin kyselyn avulla prosessisimulointiohjelmistojen käyttöä Suomen paperitehtaissa. Kysely lähetettiin kaikille Suomen tärkeimmille paperitehtaille. Kyselyn avulla selvitettiin mm, mitä ohjelmia käytetään, mitä on simuloitu, mitä pitää vielä simuloida ja kuinka tarpeellisena prosessisimulointia pidetään. Työntulokset osoittavat, että kaikilla kyselyyn vastanneilla suomalaisilla paperitehtailla on käytetty prosessisimulointia. Suurin osa simuloinneista on tehty konelinjoihin sekä massa- ja vesijärjestelmiin. Tulevaisuuden tärkeimpänä kohteena pidetään energiavirtojen simulointia. Simulointimallien pitkäjänteisessä hyödyntämisessä ja ylläpidossa on kehitettävää, jossa simulointipalvelujen hankkiminen palveluna on tehtaille todennäköisin vaihtoehto. Johtopäätöksenä on se, että tehtailla on tarvetta prosessisimuloinnille. Ilmapiiri on kyselytuloksien mukaan suotuisa ja simulointi nähdään tarpeellisena työkaluna. Prosessisimuloinnin markkinointia, erillispalvelutuotteen lisäksi, kannattaisi kehittää siten, että simulointimallin ylläpito jatkuisi projektin jälkeen lähipalveluna. Markkinointi pitäisi tehdä jo projektin alkuvaiheessa tai projektin aikana. Simulointiohjelmien kirjosta suunnittelutoimiston kannattaa valita simulointiohjelmistoja, jotka sopivat sille parhaiten. Erityistapauksissa muiden ohjelmien hankintaa kannattaa harkita asiakkaan toivomusten mukaisesti.
Resumo:
Tämän työn tavoitteena on suunnitella yksinkertainen Internet-pohjainen mielipidekyselyjärjestelmä sekä esitellä yksityiskohtaisesti järjestelmän toteutus ja siihen liittyvät menetelmät. Menetelmistäesitellään ainoastaan ennalta valitut menetelmät järjestelmän toteutukseen, tietojen esittämiseen, esitystavan muotoiluun sekä tietojen varastointiin. Järjestelmä toteutetaan HTML- ja PHP-kielillä sekä käyttämällä CSS-menetelmän tyylimuotoiluja ja XML-kielen muotoiluun perustuvia tiedostoja tietovarastoina. Järjestelmän suunnitteluun liittyen työssä pyritään kuvaamaan järjestelmään toteutettavat kaksi erillistä käyttöliittymää, pääkäyttäjän käyttöliittymä ja normaalin käyttäjän käyttöliittymä, sekä näihin toteutettavat toiminnot. Pääkäyttäjän tärkeimmät toiminnot ovat mielipidekyselyiden luominen, käyttäjien lisääminen kyselyihin sekä kyselyiden tulosten seuranta. Normaalin käyttäjän toiminnot taas rajoittuvat kirjautumiseen ja kyselyyn vastaamiseen. Järjestelmän toteutuksen kuvauksessa kuvataan tarkasti edellä mainittujen kahden käyttöliittymän toiminnot sekä näiden toimintojen toteutustavat. Lisäksi toteutuksen kuvauksen yhteydessä määritellään tarkasti järjestelmän tietovarastoina toimivien tiedostojen sisällön muoto. Työn lopputuloksena syntyi valituilla toteutustavoilla toteutettu toimiva mielipidekyselyjärjestelmä sekä tämä järjestelmän suunnitteluun ja toteutuksen selvittämiseen keskittynyt dokumentti. Toteutetusta järjestelmästä ei tullut täydellinen vaan jatkokehityksessä voidaan harkita esimerkiksi tietokannan käyttämistä järjestelmän tietovarastoina sekä joidenkin lisäominaisuuksien toteuttamista. Tavoitteeseen päästiin kuitenkin, sillä toteutettu järjestelmä on toimiva ja käyttötarkoitukseensa sopiva.
Resumo:
VALOSADE (Value Added Logistics in Supply and Demand Chains) is the research project of Anita Lukka's VALORE (Value Added Logistics Research) research team inLappeenranta University of Technology. VALOSADE is included in ELO (Ebusiness logistics) technology program of Tekes (Finnish Technology Agency). SMILE (SME-sector, Internet applications and Logistical Efficiency) is one of four subprojects of VALOSADE. SMILE research focuses on case network that is composed of small and medium sized mechanical maintenance service providers and global wood processing customers. Basic principle of SMILE study is communication and ebusiness insupply and demand network. This first phase of research concentrates on creating backgrounds for SMILE study and for ebusiness solutions of maintenance case network. The focus is on general trends of ebusiness in supply chains and networksof different industries; total ebusiness system architecture of company networks; ebusiness strategy of company network; information value chain; different factors, which influence on ebusiness solution of company network; and the correlation between ebusiness and competitive advantage. Literature, interviews and benchmarking were used as research methods in this qualitative case study. Networks and end-to-end supply chains are the organizational structures, which can add value for end customer. Information is one of the key factors in these decentralized structures. Because of decentralization of business, information is produced and used in different companies and in different information systems. Information refinement services are needed to manage information flows in company networksbetween different systems. Furthermore, some new solutions like network information systems are utilised in optimising network performance and in standardizingnetwork common processes. Some cases have however indicated, that utilization of ebusiness in decentralized business model is not always a necessity, but value-add of ICT must be defined case-specifically. In the theory part of report, different ebusiness and architecture models are introduced. These models are compared to empirical case data in research results. The biggest difference between theory and empirical data is that models are mainly developed for large-scale companies - not for SMEs. This is due to that implemented network ebusiness solutions are mainly large company centered. Genuine SME network centred ebusiness models are quite rare, and the study in that area has been few in number. Business relationships between customer and their SME suppliers are nowadays concentrated more on collaborative tactical and strategic initiatives besides transaction based operational initiatives. However, ebusiness systems are further mainly based on exchange of operational transactional data. Collaborative ebusiness solutions are in planning or pilot phase in most case companies. Furthermore, many ebusiness solutions are nowadays between two participants, but network and end-to-end supply chain transparency and information systems are quite rare. Transaction volumes, data formats, the types of exchanged information, information criticality,type and duration of business relationship, internal information systems of partners, processes and operation models (e.g. different ordering models) differ among network companies, and furthermore companies are at different stages on networking and ebusiness readiness. Because of former factors, different customer-supplier combinations in network must utilise totally different ebusiness architectures, technologies, systems and standards.
Resumo:
Theultimate goal of any research in the mechanism/kinematic/design area may be called predictive design, ie the optimisation of mechanism proportions in the design stage without requiring extensive life and wear testing. This is an ambitious goal and can be realised through development and refinement of numerical (computational) technology in order to facilitate the design analysis and optimisation of complex mechanisms, mechanical components and systems. As a part of the systematic design methodology this thesis concentrates on kinematic synthesis (kinematic design and analysis) methods in the mechanism synthesis process. The main task of kinematic design is to find all possible solutions in the form of structural parameters to accomplish the desired requirements of motion. Main formulations of kinematic design can be broadly divided to exact synthesis and approximate synthesis formulations. The exact synthesis formulation is based in solving n linear or nonlinear equations in n variables and the solutions for the problem areget by adopting closed form classical or modern algebraic solution methods or using numerical solution methods based on the polynomial continuation or homotopy. The approximate synthesis formulations is based on minimising the approximation error by direct optimisation The main drawbacks of exact synthesis formulationare: (ia) limitations of number of design specifications and (iia) failure in handling design constraints- especially inequality constraints. The main drawbacks of approximate synthesis formulations are: (ib) it is difficult to choose a proper initial linkage and (iib) it is hard to find more than one solution. Recentformulations in solving the approximate synthesis problem adopts polynomial continuation providing several solutions, but it can not handle inequality const-raints. Based on the practical design needs the mixed exact-approximate position synthesis with two exact and an unlimited number of approximate positions has also been developed. The solutions space is presented as a ground pivot map but thepole between the exact positions cannot be selected as a ground pivot. In this thesis the exact synthesis problem of planar mechanism is solved by generating all possible solutions for the optimisation process ¿ including solutions in positive dimensional solution sets - within inequality constraints of structural parameters. Through the literature research it is first shown that the algebraic and numerical solution methods ¿ used in the research area of computational kinematics ¿ are capable of solving non-parametric algebraic systems of n equations inn variables and cannot handle the singularities associated with positive-dimensional solution sets. In this thesis the problem of positive-dimensional solutionsets is solved adopting the main principles from mathematical research area of algebraic geometry in solving parametric ( in the mathematical sense that all parameter values are considered ¿ including the degenerate cases ¿ for which the system is solvable ) algebraic systems of n equations and at least n+1 variables.Adopting the developed solution method in solving the dyadic equations in direct polynomial form in two- to three-precision-points it has been algebraically proved and numerically demonstrated that the map of the ground pivots is ambiguousand that the singularities associated with positive-dimensional solution sets can be solved. The positive-dimensional solution sets associated with the poles might contain physically meaningful solutions in the form of optimal defectfree mechanisms. Traditionally the mechanism optimisation of hydraulically driven boommechanisms is done at early state of the design process. This will result in optimal component design rather than optimal system level design. Modern mechanismoptimisation at system level demands integration of kinematic design methods with mechanical system simulation techniques. In this thesis a new kinematic design method for hydraulically driven boom mechanism is developed and integrated in mechanical system simulation techniques. The developed kinematic design method is based on the combinations of two-precision-point formulation and on optimisation ( with mathematical programming techniques or adopting optimisation methods based on probability and statistics ) of substructures using calculated criteria from the system level response of multidegree-of-freedom mechanisms. Eg. by adopting the mixed exact-approximate position synthesis in direct optimisation (using mathematical programming techniques) with two exact positions and an unlimitednumber of approximate positions the drawbacks of (ia)-(iib) has been cancelled.The design principles of the developed method are based on the design-tree -approach of the mechanical systems and the design method ¿ in principle ¿ is capable of capturing the interrelationship between kinematic and dynamic synthesis simultaneously when the developed kinematic design method is integrated with the mechanical system simulation techniques.
Resumo:
Seudullinen innovaatio on monimutkainen ilmiö, joka usein sijaitsee paikallisten toimijoiden keskinäisen vuorovaikutuksen kentässä. Täten sitä on perinteisesti pidetty vaikeasti mitattavana ilmiönä. Työssä sovellettiin Data Envelopment Analysis menetelmää, joka on osoittautunut aiemmin menestyksekkääksi tapauksissa, joissa mitattavien syötteiden ja tuotteiden väliset suhteet eivät ole olleet ilmeisiä. Työssä luotiin konseptuaalinen malli seudullisen innovaation syötteistä ja tuotteista, jonka perusteella valittiin 12 tilastollisen muuttujan mittaristo. Käyttäen Eurostat:ia datalähteenä, lähdedata kahdeksaan muuttujsta saatiin seudullisella tasolla, sekä mittaristoa täydennettiin yhdellä kansallisella muuttujalla. Arviointi suoritettiin lopulta 45 eurooppalaiselle seudulle. Tutkimuksen painopiste oli arvioida DEA-menetelmän soveltuvuutta innovaatiojärjestelmän mittaamiseen, sillä menetelmää ei ole aiemmin sovellettu vastaavassa tapauksessa. Ensimmäiset tulokset osoittivat ylipäätään liiallisen korkeita tehokkuuslukuja. Korjaustoimenpiteitä erottelutarkkuuden parantamiseksi esiteltiin ja sovellettiin, jonka jälkeen saatiin realistisempia tuloksia ja ranking-lista arvioitavista seuduista. DEA-menetelmän todettiin olevan tehokas ja kiinnostava työkalu arviointikäytäntöjen ja innovaatiopolitiikan kehittämiseen, sikäli kun datan saatavuusongelmat saadaan ratkaistua sekä itse mallia tarkennettua.
Resumo:
Tyypin 1 diabeteksen perinnöllinen alttius Suomessa - HLA-alueen ulkopuolisten alttiuslokusten IDDM2 ja IDDM9 rooli taudin periytymisessä HLA-alue, joka sijaitsee kromosomissa 6p21.3, vastaa noin puolesta perinnöllisestä alttiudesta sairastua tyypin 1 diabetekseen. Myös HLA-alueen ulkopuolisten lokusten on todettu liittyvän sairausalttiuteen. Näistä kolmen lokuksen on varmistettu olevan todellisia alttiuslokuksia ja lisäksi useiden muiden, vielä varmistamattomien lokusten, on todettu liittyvän sairausalttiuteen. Tässä tutkimuksessa 12:n HLA-alueen ulkopuolisen alttiuslokuksen kytkentä tyypin 1 diabetekseen tutkittiin käyttäen 107:aa suomalaista multiplex-perhettä. Jatkotutkimuksessa analysoitiin IDDM9-alueen kytkentä ja assosiaatio sairauteen laajennetuissa perhemateriaaleissa sekä IDDM2-alueen mahdollinen interaktio HLA-alueen kanssa sairauden muodostumisessa. Lisäksi suoritettiin IDDM2-alueen suojaavien haplotyyppien alatyypitys tarkoituksena tutkia eri haplotyyppien käyttökelpoisuutta sairastumisriskin tarkempaa ennustamista varten. Ensimmäisessä kytkentätutkimuksessa ei löytynyt koko genomin tasolla merkitsevää tai viitteellistä kytkentää tutkituista HLA-alueen ulkopuolisista lokuksista. Voimakkain havaittu nimellisen merkitsevyyden tavoittava kytkentä nähtiin IDDM9-alueen markkerilla D3S3576 (MLS=1.05). Tutkimuksessa ei kyetty varmistamaan tai sulkemaan pois aiempia kytkentähavaintoja tutkituilla lokuksilla, mutta IDDM9-alueen jatkotutkimuksessa havaittu voimakas kytkentä (MLS=3.4) ja merkitsevä assosiaatio (TDT p=0.0002) viittaa vahvasti siihen, että 3q21-alueella sijaitsee todellinen tyypin 1 diabeteksen alttiusgeeni, jolloin alueen kattava assosiaatiotutkimus olisi perusteltu jatkotoimenpide. Sairauteen altistava IDDM2-alueen MspI-2221 genotyyppi CC oli nimellisesti yleisempi matalan tai kohtalaisen HLA-sairastumisriskin diabeetikoilla, verrattuna korkean HLA-riskin potilaisiin (p=0.05). Myös genotyyppijakauman vertailu osoitti merkitsevää eroa ryhmien välillä (p=0.01). VNTR-haplotyyppitutkimus osoitti, että IIIA/IIIA-homotsygootin sairaudelta suojaava vaikutus on merkitsevästi voimakkaampi kuin muiden luokka III:n genotyypeillä. Nämä tulokset viittaavat IDDM2-HLA -vuorovaikutukseen sekä siihen että IDDM2-alueen haplotyyppien välillä esiintyy etiologista heterogeniaa. Tämän johdosta IDDM2-alueen haplotyyppien tarkempi määrittäminen voisi tehostaa tyypin 1 diabeteksen riskiarviointia.
Resumo:
Empower Oy on energia-alan palveluja tarjoava yritys. Energianhallintajärjestelmää käytetään energiatietojen hallintaan ja ylläpitoon sekä tietojen esittämiseen loppukäyttäjille. Palvelun näytöt ja raportit on toteutettu web-pohjaisen käyttöliittymän kautta. Yhtiössä käynnistyi suurprojekti vanhan energianhallintajärjestelmän korvaamiseksi. Vanha järjestelmä otettiin käyttöön vuonna 1995 ja EMS-projekti käynnistettiin vuonna 2001. Diplomityö tehtiin osana EMS-projektia ja työn tavoitteina oli selvittää perusjärjestelmän käyttämän tietokantaratkaisun toimivuutta ja soveltuvuutta tehtävään sekä tutkailla eri tietokantamalleja teoreettisesti. Lisäksi työhön kuului erillisten haku- ja muutoskomponenttien ja rajapintojen toteuttaminen. Näiden avulla voidaan hakea ja muuttaa tietoa perusjärjestelmän pohjalla toimivasta oliorelaatiotietokannasta. Perusjärjestelmän DOR-tietokannaksi (Domain Object Repository) kutsuttu kokonaisuus on olioläheinen tietovarasto, josta tietoa haetaan ilmoittamalla haettavan olion tyyppi ja siihen liitoksissa olevat tyypit. Hakutulokseen mukaan haluttavat ominaisuudet ilmoitetaan kultakin tyypiltä erikseen. Haettaessa ja muutettaessa oliopohjaista DOR-tietoa, tulee noudattaa järjestelmän käyttämiä tietomalleja. Haku- ja muutoskomponentit toteutettiin Microsoftin kehittämällä .NET-teknologialla. Tietokantamallien teoreettinen tarkastelu auttoi ymmärtämään järjestelmän pohjalla toimivaa tietokantaratkaisua. Työssä selvisi, että perusjärjestelmän hyödyntämä oliorelaatiotietokanta soveltuu varsin hyvin tarkoitukseensa. Haku- ja muutoskomponenttien toteutus onnistui ja ne toimivat helppokäyttöisenä rajapintana energianhallintajärjestelmän tietokantaan.
Resumo:
Prosessiorganisaatiossa johtamisen ja prosessien tavoitteena on tyydyttää asiakkaan (sisäinen tai ulkoinen) tarpeet. Mittaamisen sitominen prosessin suorityskyvyn mittaamiseen antaa johdolle kuvan yrityksen toiminnasta. Suorityskykymittariston ja yksittäisten mittareiden avulla yritysjohto pystyy arvioimaan toiminnan tasoa, asettamaan tavoitteita sekä seuraamaan asettamiensa tavoitteiden toteutumista. Työn ensimmäisenä tavoitteena oli kartoittaa edellytyksiä sekä tukea Balanced Scorecardin mukaisen suorityskykymittariston tulevaisuuden implementointia. Mittaristo on tarkoitettu toimitusketjun prosessien tehokkuuden mittaamiseen. Työn toisena tavoitteena oli prosessipohjaisen ajattelutavan tukeminen suorituskykymittariston avulla. Implementoinnin edellytyksiä testattiin valitsemalla kaksi ensimmäisen tason avainmittaria pilottimittareiksi. Varaston suorityskykyä mittaavien pilottimittareiden avulla selvitettiin SC tuoteryhmän osalta toimitusketjun suorituskyky avainasiakkaiden ja tärkeiden markkina-alueiden osalta. Erona käytössä oleviin mittareihin on se, että uudet avainmittarit kattavat koko yrityksen toimitusketjun, kun tällä hetkellä käytössä olevat mittarit mittaavat toimitusketjun yksittäisiä osia. Uusien avaimittareiden lähtöarvot selvitettiin tietokantakyselyjen avulla. Tietokyselyt suoritettiin useissa yksittäisissä tietojärjejestelmissä, jonka jälkeen niiden tulokset koottiin yhteen tiedostoon ja analysoitiin PC sovellusten avulla. Mittauskohteet oli valittu yhdessä linjaorganisaation kanssa. Näin taattiin yhtiön johdon sitoutuminen mittariston kehittämiseen ja käyttöönottoon. Organisaatiossa yksittäisten prosessien (esim. mittaamisprosessi) vastuualueiden selventämiseen käytettiin koeluonteisesti vastuumatriisitekniikkaa. Prosessiorganisaatiossa johtamisen ja prosessien tavoitteena on tyydyttää asiakkaan (sisäinen tai ulkoinen) tarpeet. Mittaamisen sitominen prosessin suorityskyvyn mittaamiseen antaa johdolle kuvan yrityksen toiminnasta. Suorityskykymittariston ja yksittäisten mittareiden avulla yritysjohto pystyy arvioimaan toiminnan tasoa, asettamaan tavoitteita sekä seuraamaan asettamiensa tavoitteiden toteutumista. Työn ensimmäisenä tavoitteena oli kartoittaa edellytyksiä sekä tukea Balanced Scorecardin mukaisen suorityskykymittariston tulevaisuuden implementointia. Mittaristo on tarkoitettu toimitusketjun prosessien tehokkuuden mittaamiseen. Työn toisena tavoitteena oli prosessipohjaisen ajattelutavan tukeminen suorituskykymittariston avulla.Implementoinnin edellytyksiä testattiin valitsemalla kaksi ensimmäisen tason avainmittaria pilottimittareiksi. Varaston suorityskykyä mittaavien pilottimittareiden avulla selvitettiin SC tuoteryhmän osalta toimitusketjun suorituskyky avainasiakkaiden ja tärkeiden markkina-alueiden osalta. Erona käytössä oleviin mittareihin on se, että uudet avainmittarit kattavat koko yrityksen toimitusketjun, kun tällä hetkellä käytössä olevat mittarit mittaavat toimitusketjun yksittäisiä osia. Uusien avaimittareiden lähtöarvot selvitettiin tietokantakyselyjen avulla. Tietokyselyt suoritettiin useissa yksittäisissä tietojärjejestelmissä, jonka jälkeen niiden tulokset koottiin yhteen tiedostoon ja analysoitiin PC sovellusten avulla. Mittauskohteet oli valittu yhdessä linjaorganisaation kanssa. Näin taattiin yhtiön johdon sitoutuminen mittariston kehittämiseen ja käyttöönottoon. Organisaatiossa yksittäisten prosessien (esim. mittaamisprosessi) vastuualueiden selventämiseen käytettiin koeluonteisesti vastuumatriisitekniikkaa.
Resumo:
Työ käsittelee multimediatietopankin tietosisällön hallintaa ja kehittämistä. Multimediatietopankki verkossa –projektissa multimediatietopankilla tarkoitetaan vuorovaikutteista ja sisältörikasta liikkuvan ja staattisen kuvan (video, animaatio, valokuvat, 3D, grafiikka), äänten (musiikki ja muut äänet) ja tietokantojen yhdistelmää. Sisällön eri osa-alueet ja vuorovaikutteisuus tukevat kokonaisuutta, jolla on oma viestinnällinen tarkoituksensa. Tätä kokonaistoteutusta levitetään www:n, digitaalitelevision ja mobiililaitteiden välityksellä loppukäyttäjälle. Multimedia- ja matkaviestinteknologioiden nopea kehitys antaa mahdollisuuden kehittää uusia palveluja. Erilaisiin päätelaitteisiin ja vaihteleviin ympäristöihin tarkoitettujen helppokäyttöisten multimedia- ja mobiilipalvelujen kysyntä on jatkuvassa kasvussa. Multimediatietopankkiprojektissa esitetään kuinka multimediapalveluita voidaan toteuttaa integroidussa ympäristössä. Integroidulla ympäristöllä tässä työssä tarkoitetaan Internetin, mobiilien palvelujen, WAP:in, kämmentietokoneen, digitaalisen television sekä uusien multimediakännyköiden käyttöä multimediatietopankin tarjoamien palvelujen välittämisessä. Projekti on jaettu yksittäisiin lukuihin, joissa tarkoituksena on syventää multimediatietopankin yksityiskohtia sisällön tuottamisessa teknologian näkökannalta. Multimediatietokannan toteutuksessa mallinnetaan palvelun sisältö tietokantaan XHTML-muodossa mediaolioiden sisään sekä tallennetaan tietopankin metatietoa multimediarelaatiotietokantaan, josta on mahdollista hakea tietoa minkä tahansa päätelaitteen kyselyjen avulla.Tässä työssä keskitytään multimediatietokannan hallintajärjestelmän tehtäviin ja rakenteeseen, siihen miten multimediadata tallennetaan tietokantaan sekä siihen miten tietokannassa olevaa metatietoa haetaan käyttäen tietokannassa kehitettyjä hakumenetelmiä.
Resumo:
The thesis was made for Hyötypaperi Oy. To the business activity of the company belongs the recycling of materials and carry out for re-use and the manufacture of solid biofuels and solid recovered fuels. Hyötypaperi Oy delivers forest chips to its partner incineration plants by day and night though the year. The value of the forest chips is based on its percentage of dry material. It is important to dry forest chips well before its storage in piles and delivering to incineration plants. In the thesis was examed the increasing of the degree of refinement of forest chips by different drying methods. In the thesis was examined four different drying methods of the forest chips. The methods were field-, plate-, platform- and channel drying. In the channel drying was used a mechanical blower and the other drying methods were based on the weather conditions. By all drying methods were made test dryings during the summer 2007. In the thesis was examined also the economical profitableness of the field- and channel drying. The last examination in the thesis was measuring of the forest chips’s humidity by humidity measuring equipment of sawn timber during November 2007. The field drying on the surface of asphalt is the only method of drying, which is used by Hyötypaperi Oy in its own production. There do not exist earlier properly examined facts of any drying methods of forest chips, because the drying of forest chips is a new branch. By field- and platform drying achieved lower humidity of forest chips than by plate drying. The object by using the humidity measuring equipment was to be informed of the humidity of forest chips. At present the humidity will find out after 24 hours when the sample of humidity quantity has been dried in the oven. The Lappeenranta University of Technology had the humidity measuring equipment of sawn timber. The values of humidity measured by the equipment from the sample of forest chips were 2 – 9 percent lower than the real values of humidity specified by drying in oven.
Resumo:
Current-day web search engines (e.g., Google) do not crawl and index a significant portion of theWeb and, hence, web users relying on search engines only are unable to discover and access a large amount of information from the non-indexable part of the Web. Specifically, dynamic pages generated based on parameters provided by a user via web search forms (or search interfaces) are not indexed by search engines and cannot be found in searchers’ results. Such search interfaces provide web users with an online access to myriads of databases on the Web. In order to obtain some information from a web database of interest, a user issues his/her query by specifying query terms in a search form and receives the query results, a set of dynamic pages that embed required information from a database. At the same time, issuing a query via an arbitrary search interface is an extremely complex task for any kind of automatic agents including web crawlers, which, at least up to the present day, do not even attempt to pass through web forms on a large scale. In this thesis, our primary and key object of study is a huge portion of the Web (hereafter referred as the deep Web) hidden behind web search interfaces. We concentrate on three classes of problems around the deep Web: characterization of deep Web, finding and classifying deep web resources, and querying web databases. Characterizing deep Web: Though the term deep Web was coined in 2000, which is sufficiently long ago for any web-related concept/technology, we still do not know many important characteristics of the deep Web. Another matter of concern is that surveys of the deep Web existing so far are predominantly based on study of deep web sites in English. One can then expect that findings from these surveys may be biased, especially owing to a steady increase in non-English web content. In this way, surveying of national segments of the deep Web is of interest not only to national communities but to the whole web community as well. In this thesis, we propose two new methods for estimating the main parameters of deep Web. We use the suggested methods to estimate the scale of one specific national segment of the Web and report our findings. We also build and make publicly available a dataset describing more than 200 web databases from the national segment of the Web. Finding deep web resources: The deep Web has been growing at a very fast pace. It has been estimated that there are hundred thousands of deep web sites. Due to the huge volume of information in the deep Web, there has been a significant interest to approaches that allow users and computer applications to leverage this information. Most approaches assumed that search interfaces to web databases of interest are already discovered and known to query systems. However, such assumptions do not hold true mostly because of the large scale of the deep Web – indeed, for any given domain of interest there are too many web databases with relevant content. Thus, the ability to locate search interfaces to web databases becomes a key requirement for any application accessing the deep Web. In this thesis, we describe the architecture of the I-Crawler, a system for finding and classifying search interfaces. Specifically, the I-Crawler is intentionally designed to be used in deepWeb characterization studies and for constructing directories of deep web resources. Unlike almost all other approaches to the deep Web existing so far, the I-Crawler is able to recognize and analyze JavaScript-rich and non-HTML searchable forms. Querying web databases: Retrieving information by filling out web search forms is a typical task for a web user. This is all the more so as interfaces of conventional search engines are also web forms. At present, a user needs to manually provide input values to search interfaces and then extract required data from the pages with results. The manual filling out forms is not feasible and cumbersome in cases of complex queries but such kind of queries are essential for many web searches especially in the area of e-commerce. In this way, the automation of querying and retrieving data behind search interfaces is desirable and essential for such tasks as building domain-independent deep web crawlers and automated web agents, searching for domain-specific information (vertical search engines), and for extraction and integration of information from various deep web resources. We present a data model for representing search interfaces and discuss techniques for extracting field labels, client-side scripts and structured data from HTML pages. We also describe a representation of result pages and discuss how to extract and store results of form queries. Besides, we present a user-friendly and expressive form query language that allows one to retrieve information behind search interfaces and extract useful data from the result pages based on specified conditions. We implement a prototype system for querying web databases and describe its architecture and components design.
Resumo:
Tärkeä osa paperiteollisuuden myyntitapahtumaa on tarkistaa tilatun tuotteen saatavuus ja toimittamisen aikataulu. Käytännössä tämä tarkoittaa kuljetusten, tuotannon ja valmistetun materiaalin tarkistamista. Tässä työssä on tehty olemassa olevan vapaan materiaalin tarkistaminen. Materiaalin tarkastus ei ole uusi idea, mutta kapasiteettivarauksen uudelleen toteutus on tehty tulevan ylläpitotyön helpottamiseksi ja järjestelmän suorituskyvyn parantamiseksi. Lisäksi uutta varauslogiikkaa pystytään käyttämään muissakin tuotannonohjausjärjestelmän ohjelmistoissa. Kapasiteettivaraukseen on myös rakennettu uusi kustannuspohjainen priorisointijärjestelmä, ja mietitty kuinka tätä olisi tulevaisuudessa helppo jalostaa. Erityishuomiota on kiinnitetty toiminnan läpinäkyvyyteen eli siihen, että tarkistuslogiikka kertoo syyt eri materiaalin hylkäämiseen. Työn yhteydessä on analysoitu materiaalivarauksen aiheuttamaa kuormaa järjestelmässä ja mietitty eri tekniikoita suorituskyvyn parantamiseksi.
Resumo:
Laser scanning is becoming an increasingly popular method for measuring 3D objects in industrial design. Laser scanners produce a cloud of 3D points. For CAD software to be able to use such data, however, this point cloud needs to be turned into a vector format. A popular way to do this is to triangulate the assumed surface of the point cloud using alpha shapes. Alpha shapes start from the convex hull of the point cloud and gradually refine it towards the true surface of the object. Often it is nontrivial to decide when to stop this refinement. One criterion for this is to do so when the homology of the object stops changing. This is known as the persistent homology of the object. The goal of this thesis is to develop a way to compute the homology of a given point cloud when processed with alpha shapes, and to infer from it when the persistent homology has been achieved. Practically, the computation of such a characteristic of the target might be applied to power line tower span analysis.