49 resultados para one-pass tableau

em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland


Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tiivistelmä: Turvepohjaisten kasvualustojen tiivistyminen yksivuotisessa paakkutaimikasvatuksessa

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Työn tavoitteena on ollutselvittää kustannukset, joita syntyy, jos Kuusankosken kaupungin puhdistamolta johdetaan jätevedet UPM-Kymmene Oyj:n Kymin aktiivilietelaitokselle puhdistettaviksi, ja kustannukset, joita aiheutuu kaupungin puhdistamon laajentamisesta typenpoistoon sopivaksi sekä verrata näiden hankkeiden kustannuksia. Työssä selvitetään myös muutokset, joita yhteispuhdistukseen siirtymisestä aiheutuu Kymin aktiivilietelaitokselle ja miten jätevesikuormitus Kymijokeen muuttuu. Lisäksi työssäon tarkasteltu yhdyskuntajätevedenpuhdistamoilta tuotujen lietteiden vaikutustaKymin aktiivilietelaitoksen toimintaan ja luotu katsaus käytössä olevien metsäteollisuusyritysten ja kaupunkien yhteispuhdistamojen toimintaan Raumalla ja Grand Rapids:ssa. Yhdyskuntajätevesien yhteispuhdistuksesta sellu- ja paperitehtaan aktiivilietelaitoksessa on saatu hyviä kokemuksia Raumalta. Kokonaistyppikuormitus Rauman merialueelle on puolittunut ja lisäksi fosfori- ja BOD-kuormitukset ovat vähentyneet. Ravinteiden tarve puhdistamolla on kuitenkin ennakoitua suurempija ravinteiden kulutusta voidaan selittää monella tekijällä mm. lämpötilan laskulla ja lietekuorman lisääntymisellä. Kymin puhdistamolle on tuotu Akanojan puhdistamon ylijäämäliete vuodesta 1996 lähtien. Vuoden 2004 marras- ja joulukuussa suoritetussa kokeilussa Kymin puhdistamolle tuotiin Akanojan lietteiden lisäksi osa Kouvolan puhdistamolla syntyneistä lietteistä. Kokeilun perusteella voidaan todeta, että yhdyskuntajätevesilietteiden tuonnilla voidaan korvata puhdistamolla tarvittavia ravinteita. Uusi jätteenpolttodirektiivi tuskin aiheuttanee ongelmia poltettaessa voimalaitoksella ylijäämälietettä, joka sisältää myös yhdyskuntajätevesistä peräisin olevaa lietettä. Kymin aktiivilietelaitoksen lämpötila tulee laskemaan yhteispuhdistukseen siirryttäessä viileiden yhdyskuntajätevesien vaikutuksesta. Yhteispuhdistustilanteessa Kuusankosken keskustan jokialueen bakteeritilanteeseen ei ole todennäköisesti tulossa muutosta, mutta virustilanteen muuttuminen voi olla mahdollista. Yhteispuhdistukseen siirryttäessä Kymin puhdistamon kapasiteettia tarvitsee kasvattaa ainoastaan jälkiselkeytyksen suhteen. Yhteispuhdistustilanteessa jätevesikuormitus Kymijokeen tulee pienenemään erityisesti typen osalta ja myös BOD- ja fosforikuormat pienenevät. COD-kuormitus pysyy lähes ennallaan ja kiintoainekuorma saattaa lisääntyä hiukan. Yhteispuhdistustilanteessa Kymijokeen aiheutuu jätevesikuormitusta myös ohituksista, kun yhdyskuntajätevesimäärä ylittää hetkellisesti esimerkiksi rankkasateen sattuessa mitoitusvirtaamansa arvon. Investointikustannukseksi, Kuusankosken kaupungin puhdistamon muuttamisesta typenpoistoon sopivaksi, arvioitiin mitoitusvirtaamasta riippuen 3 210 000 ¤ tai 2 460 000 ¤. Yhteispuhdistukseen siirtyminen aiheuttaa kaupungille n. 3 755 000 ¤ investointikustannuksen ja Kymin puhdistamolle n. 365 000 ¤. Investointikustannuksiltaan yhteispuhdistukseen siirtyminen tulee kaupungille kalliimmaksi mutta pitkällä aikavälillä tarkasteltuna edullisempi vaihtoehto Kuusankosken kaupungin kannalta on siirtyminen yhteispuhdistukseen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Biotekniikkaa pidetään yhtenä lupaavimmista nykyään tunnetuista teknologioista. Biotekniikan alalta erityisesti uusien lääkeaineiden kehittely on saavuttanut huomiota julkisuudessa. Biotekniikkaa lääkeaineiden kehittämiseen soveltavien yritysten määrä on kasvanut nopeasti viimeisen vuosikymmenen aikana, mutta tämänhetkiset tulokset osoittavat, että yritykset voisivat hyötyä riskien hallintaan ja kaupallistamiseen liittyvien prosessien kehittämisestä. Tutkielma keskittyy biolääkkeiden kaupallistamiseen, erityisesti suomalaisten uusien biolääkeyritysten kannalta. Tutkielma jakaantuu kahteen osaan: ensimmäinen osa tutkii kaupallistamista käsitteenä ja biolääkeliiketoiminnan erityispiirteitä. Toinen osa keskittyy kaupallistamisen empiiriseen tutkimukseen, joka kattaa viisi suomalaista uutta biolääkeyritystä. Empiirisen osan tavoitteena oli tunnistaa ne keinot, jotka auttavat menestyksekkään kaupallistamisprosessin luomisessa tuotekehitysvaiheen läpäisseelle lääkeaineelle. Saavutetut tulokset voidaan tiivistää neljän kriittisen menestystekijän ympärille, jotka ovat 1) tuote, 2) viestintä, 3) uskottavuus ja 4) yhteistyökumppanin valinta. Ensimmäinen menestystekijä on ainutlaatuinen biolääke, joka parantaa kansantaloudellisesti merkittäviä tauteja. Toisen menestystekijän avulla yritys viestittää uudesta ainutlaatuisesta tuotteestaan mahdollisille yhteistyökumppaneilleen. Kolmas menestystekijä kohdistuu yrityksen uskottavuuteen uutena korkean teknologian biolääkeaineiden kehittäjänä. Uskottavuustekijä on erityisen tärkeä suhteiden luomisessa kansainvälisiin lääkeyrityksiin. Neljäs tekijä keskittyy yhteistyökumppanin valintaan, joka alan erityisluonteesta johtuen on tärkeä uudelle biolääkeyritykselle. Viimeiseksi havaittiin, että uusi biolääkeyritys virtuaalisen rakenteensa vuoksi tarvitsee hyvät johdon suhdemarkkinointikyvyt.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Työssä tutkitaan telepäätelaitteen yli gigahertsin taajuisen säteilevän RF kentän sietoisuutta. Mittauksissa testattava laite on Tellabs Oy:n valmistaman CTU modeemin tuotekehitysversio. Teoriaosassa käydään läpi sähkömagneettisten aaltojen teoriaa, sekä säteilevän RF kentän aiheuttamien sähkömagneettiset häiriöiden syntymekanismeja. Myös säteilevien häiriöiden EMC mittauksiin tarvittavien mittalaitteiden tärkeimmät ominaisuudet esitellään, sekä pohditaan yli gigahertsin taajuuksille sopivien EMC mittalaitteiden vaatimuksia. EMC standardit eivät tällä hetkellä aseta vaatimuksia telelaitteiden RF kentän sietoisuudelle yli gigahertsin taajuudella. Tämän vuoksi työssä käsitellään myös todennäköisimpiä häiriölähteitä tällä taajuusalueella. Mittauksissa tutkittiin CTU:n RF kentän sietoisuutta taajuusalueella l - 4.2 GHz. Mittaukset suoritettiin sekä radiokaiuttomassa kammiossa että GTEM solussa. Myös metallisten lisäsuojien vaikutusta CTU:n kentänsietoisuuteen tutkittiin GTEM solussa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mottling is one of the key defects in offset-printing. Mottling can be defined as unwanted unevenness of print. In this work, diameter of a mottle spot is defined between 0.5-10.0 mm. There are several types of mottling, but the reason behind the problem is still not fully understood. Several commercial machine vision products for the evaluation of print unevenness have been presented. Two of these methods used in these products have been implemented in this thesis. The one is the cluster method and the other is the band-pass method. The properties of human vision system have been taken into account in the implementation of these two methods. An index produced by the cluster method is a weighted sum of the number of found spots, and an index produced by band-pass method is a weighted sum of coefficients of variations of gray-levels for each spatial band. Both methods produce larger indices for visually poor samples, so they can discern good samples from the poor ones. The difference between the indices for good and poor samples is slightly larger produced by the cluster method. 11 However, without the samples evaluated by human experts, the goodness of these results is still questionable. This comparison will be left to the next phase of the project.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Current-day web search engines (e.g., Google) do not crawl and index a significant portion of theWeb and, hence, web users relying on search engines only are unable to discover and access a large amount of information from the non-indexable part of the Web. Specifically, dynamic pages generated based on parameters provided by a user via web search forms (or search interfaces) are not indexed by search engines and cannot be found in searchers’ results. Such search interfaces provide web users with an online access to myriads of databases on the Web. In order to obtain some information from a web database of interest, a user issues his/her query by specifying query terms in a search form and receives the query results, a set of dynamic pages that embed required information from a database. At the same time, issuing a query via an arbitrary search interface is an extremely complex task for any kind of automatic agents including web crawlers, which, at least up to the present day, do not even attempt to pass through web forms on a large scale. In this thesis, our primary and key object of study is a huge portion of the Web (hereafter referred as the deep Web) hidden behind web search interfaces. We concentrate on three classes of problems around the deep Web: characterization of deep Web, finding and classifying deep web resources, and querying web databases. Characterizing deep Web: Though the term deep Web was coined in 2000, which is sufficiently long ago for any web-related concept/technology, we still do not know many important characteristics of the deep Web. Another matter of concern is that surveys of the deep Web existing so far are predominantly based on study of deep web sites in English. One can then expect that findings from these surveys may be biased, especially owing to a steady increase in non-English web content. In this way, surveying of national segments of the deep Web is of interest not only to national communities but to the whole web community as well. In this thesis, we propose two new methods for estimating the main parameters of deep Web. We use the suggested methods to estimate the scale of one specific national segment of the Web and report our findings. We also build and make publicly available a dataset describing more than 200 web databases from the national segment of the Web. Finding deep web resources: The deep Web has been growing at a very fast pace. It has been estimated that there are hundred thousands of deep web sites. Due to the huge volume of information in the deep Web, there has been a significant interest to approaches that allow users and computer applications to leverage this information. Most approaches assumed that search interfaces to web databases of interest are already discovered and known to query systems. However, such assumptions do not hold true mostly because of the large scale of the deep Web – indeed, for any given domain of interest there are too many web databases with relevant content. Thus, the ability to locate search interfaces to web databases becomes a key requirement for any application accessing the deep Web. In this thesis, we describe the architecture of the I-Crawler, a system for finding and classifying search interfaces. Specifically, the I-Crawler is intentionally designed to be used in deepWeb characterization studies and for constructing directories of deep web resources. Unlike almost all other approaches to the deep Web existing so far, the I-Crawler is able to recognize and analyze JavaScript-rich and non-HTML searchable forms. Querying web databases: Retrieving information by filling out web search forms is a typical task for a web user. This is all the more so as interfaces of conventional search engines are also web forms. At present, a user needs to manually provide input values to search interfaces and then extract required data from the pages with results. The manual filling out forms is not feasible and cumbersome in cases of complex queries but such kind of queries are essential for many web searches especially in the area of e-commerce. In this way, the automation of querying and retrieving data behind search interfaces is desirable and essential for such tasks as building domain-independent deep web crawlers and automated web agents, searching for domain-specific information (vertical search engines), and for extraction and integration of information from various deep web resources. We present a data model for representing search interfaces and discuss techniques for extracting field labels, client-side scripts and structured data from HTML pages. We also describe a representation of result pages and discuss how to extract and store results of form queries. Besides, we present a user-friendly and expressive form query language that allows one to retrieve information behind search interfaces and extract useful data from the result pages based on specified conditions. We implement a prototype system for querying web databases and describe its architecture and components design.