994 resultados para Repository directories


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Empower Oy on energia-alan palveluja tarjoava yritys. Energianhallintajärjestelmää käytetään energiatietojen hallintaan ja ylläpitoon sekä tietojen esittämiseen loppukäyttäjille. Palvelun näytöt ja raportit on toteutettu web-pohjaisen käyttöliittymän kautta. Yhtiössä käynnistyi suurprojekti vanhan energianhallintajärjestelmän korvaamiseksi. Vanha järjestelmä otettiin käyttöön vuonna 1995 ja EMS-projekti käynnistettiin vuonna 2001. Diplomityö tehtiin osana EMS-projektia ja työn tavoitteina oli selvittää perusjärjestelmän käyttämän tietokantaratkaisun toimivuutta ja soveltuvuutta tehtävään sekä tutkailla eri tietokantamalleja teoreettisesti. Lisäksi työhön kuului erillisten haku- ja muutoskomponenttien ja rajapintojen toteuttaminen. Näiden avulla voidaan hakea ja muuttaa tietoa perusjärjestelmän pohjalla toimivasta oliorelaatiotietokannasta. Perusjärjestelmän DOR-tietokannaksi (Domain Object Repository) kutsuttu kokonaisuus on olioläheinen tietovarasto, josta tietoa haetaan ilmoittamalla haettavan olion tyyppi ja siihen liitoksissa olevat tyypit. Hakutulokseen mukaan haluttavat ominaisuudet ilmoitetaan kultakin tyypiltä erikseen. Haettaessa ja muutettaessa oliopohjaista DOR-tietoa, tulee noudattaa järjestelmän käyttämiä tietomalleja. Haku- ja muutoskomponentit toteutettiin Microsoftin kehittämällä .NET-teknologialla. Tietokantamallien teoreettinen tarkastelu auttoi ymmärtämään järjestelmän pohjalla toimivaa tietokantaratkaisua. Työssä selvisi, että perusjärjestelmän hyödyntämä oliorelaatiotietokanta soveltuu varsin hyvin tarkoitukseensa. Haku- ja muutoskomponenttien toteutus onnistui ja ne toimivat helppokäyttöisenä rajapintana energianhallintajärjestelmän tietokantaan.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Työn tavoitteena on esittää strategisen tuotteen toimittajan valintaprosessi. Tavoitteena on esittää valintaprosessin eri vaiheet ja niissä huomioitavat asiat sekä eri vaiheisiin sovellettavia menetelmiä ja työkaluja.Valintaprosessi alkaa tarpeen määrittämisellä, joka käsittää sekä tuotteen ominaisuuksien että toimittajasuhteen kuvaamisen. Strategisten tuotteiden kohdalla tavoitteena on useimmiten pitkäaikainen yhteistyömuoto valitun toimittajan kanssa. Tarpeen määrittämisen jälkeen etsitään eri lähteistä, kuten erilaisista kaupallisista hakemistoista, internetistä, ammattijulkaisuista sekä henkilökohtaisten kontaktien avulla, potentiaalisia toimittajia, joista luodaan ehdokaslista. Seuraavana on vuorossa sovellettavien valintakriteerien määrittäminen. Tyypillisesti tarkastellaan ainakin toimittajan taloudellista tilannetta, laatua, tuotantoa, kuljetusta, palvelua ja raportointia ja tiedonvälitystä. Tämän jälkeen suoritetaan ensimmäinen seulonta, jossa karsitaan epäsopivimmat ehdokkaat pois prosessin jatkovaiheista. Tarvittavia tietoja voidaan hankkia kirjallisten kyselyiden sekä puhelin- ja henkilöhaastatteluiden avulla. Yksityiskohtaisessa arvioinnissa suoritetaan perusteellinen toimittajien vertailu aikaisemmin valittujen valintakriteerien mukaan. Toimittajan yksityiskohtaiseen arviointiin on tarjolla erilaisia menetelmiä, kuten luokiteltu arviointi, painotettu pistearviointi ja kustannussuhdearviointi. Neuvotteluihin valitaan tyypillisesti muutama sopivin toimittaja ja neuvotteluiden jälkeen on pystyttävä valitsemaan sopivin toimittaja tai vaihtoehtoisesti pari toimittajaa, joiden kesken sopimus jaetaan.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diplomityössä perehdytään nykyisiin hakemistotekniikoihin ja niiden hyödyntä-miseen. World Wide Web on tuonut hakemistomaailmaankin aivan uusia ulottuvuuksia ja tästä on osoituksena LDAP-hakemistoprotokollan suosion merkittävä kasvu. LDAP soveltuu Internet-maailmaan erinomaisesti keveytensä, helppokäyttöisyytensä ja nopeutensa ansiosta. Käytännön osuudessa toteutettiin LDAP-tekniikkaa hyödyntävä yrityshakemisto, jolla voitiin WWW-käyttöliittymällä etsiä ja muokata yrityksen henkilö- ja yksikkötietoja. Työn tarkoitus oli selvittää LDAP:n soveltuvuutta kaupalliseen sovellukseen ja kerätä kokemuksia siihen liittyvistä asioista ja tekniikoista.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This article introduces EsPal: a Web-accessible repository containing a comprehensive set of properties of Spanish words. EsPal is based on an extensible set of data sources, beginning with a 300 million token written database and a 460 million token subtitle database. Properties available include word frequency, orthographic structure and neighborhoods, phonological structure and neighborhoods, and subjective ratings such as imageability. Subword structure properties are also available in terms of bigrams and trigrams, bi-phones, and bi-syllables. Lemma and part-of-speech information and their corresponding frequencies are also indexed. The website enables users to either upload a set of words to receive their properties, or to receive a set of words matching constraints on the properties. The properties themselves are easily extensible and will be added over time as they become available. It is freely available from the following website: http://www.bcbl.eu/databases/espal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The movement for open access to science seeks to achieve unrestricted and free access to academic publications on the Internet. To this end, two mechanisms have been established: the gold road, in which scientific journals are openly accessible, and the green road, in which publications are self-archived in repositories. The publication of the Finch Report in 2012, advocating exclusively the adoption of the gold road, generated a debate as to whether either of the two options should be prioritized. The recommendations of the Finch Report stirred controversy among academicians specialized in open access issues, who felt that the role played by repositories was not adequately considered and because the green road places the burden of publishing costs basically on authors. The Finch Report"s conclusions are compatible with the characteristics of science communication in the UK and they could surely also be applied to the (few) countries with a powerful publishing industry and substantial research funding. In Spain, both the current national legislation and the existing rules at universities largely advocate the green road. This is directly related to the structure of scientific communication in Spain, where many journals have little commercial significance, the system of charging a fee to authors has not been adopted, and there is a good repository infrastructure. As for open access policies, the performance of the scientific communication system in each country should be carefully analyzed to determine the most suitable open access strategy. [Int Microbiol 2013; 16(3):199-203]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tapaustutkimuksessa kansallisesta osaamispääomarekisteristä ja kansalaisen sähköisestä ansioluettelosta selvitettiin julkishallinnon tietojärjestelmän hallinnon sijoittamista, jotta se mahdollisimman hyvin tukisi yhtäältä järjestelmän kehittämistä tuottavasti ja toisaalta saisi käyttöönsä mahdollisimman laajan taustatietämyksen. Tutkimuskysymyksillä selvitettiin, miten järjestelmä tulisi organisoida, jotta palvelut paranisivat ja tuottavuus lisääntyisi. Kysymystä organisoitumisesta ja hallinnoinnista lähestyttiin projektijohtamisen ja tietojohtamisen käsitteistä lähtien. Tutkimuksessa selvitettiin erilaisia käyttäjänäkökulmia ja hahmotettiin järjestelmän erilaisia asiakkaita sekä sidosryhmiä. Empiirisenä viitekehyksenä käytettiin valtionhallinnon asiakirjoja, OpetusTIME –valmisteluryhmän kokouskeskusteluja sekä muita aiheeseen liittyviä tietolähteitä. Keskeinen havaintoni oli, että rakennettaessa tietojärjestelmää valtionhallinnon verkostomaisessa tilaaja-tuottaja –toiminnassa on olennaista erottaa prosessivastuu ja tuotantovastuu toisistaan. Toimintamallissa on kriittistä, miten johtoryhmä onnistuu ohjaustehtävässään. Lisäksi on huolehdittava prosessien mallinnuksen onnistumisesta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Current-day web search engines (e.g., Google) do not crawl and index a significant portion of theWeb and, hence, web users relying on search engines only are unable to discover and access a large amount of information from the non-indexable part of the Web. Specifically, dynamic pages generated based on parameters provided by a user via web search forms (or search interfaces) are not indexed by search engines and cannot be found in searchers’ results. Such search interfaces provide web users with an online access to myriads of databases on the Web. In order to obtain some information from a web database of interest, a user issues his/her query by specifying query terms in a search form and receives the query results, a set of dynamic pages that embed required information from a database. At the same time, issuing a query via an arbitrary search interface is an extremely complex task for any kind of automatic agents including web crawlers, which, at least up to the present day, do not even attempt to pass through web forms on a large scale. In this thesis, our primary and key object of study is a huge portion of the Web (hereafter referred as the deep Web) hidden behind web search interfaces. We concentrate on three classes of problems around the deep Web: characterization of deep Web, finding and classifying deep web resources, and querying web databases. Characterizing deep Web: Though the term deep Web was coined in 2000, which is sufficiently long ago for any web-related concept/technology, we still do not know many important characteristics of the deep Web. Another matter of concern is that surveys of the deep Web existing so far are predominantly based on study of deep web sites in English. One can then expect that findings from these surveys may be biased, especially owing to a steady increase in non-English web content. In this way, surveying of national segments of the deep Web is of interest not only to national communities but to the whole web community as well. In this thesis, we propose two new methods for estimating the main parameters of deep Web. We use the suggested methods to estimate the scale of one specific national segment of the Web and report our findings. We also build and make publicly available a dataset describing more than 200 web databases from the national segment of the Web. Finding deep web resources: The deep Web has been growing at a very fast pace. It has been estimated that there are hundred thousands of deep web sites. Due to the huge volume of information in the deep Web, there has been a significant interest to approaches that allow users and computer applications to leverage this information. Most approaches assumed that search interfaces to web databases of interest are already discovered and known to query systems. However, such assumptions do not hold true mostly because of the large scale of the deep Web – indeed, for any given domain of interest there are too many web databases with relevant content. Thus, the ability to locate search interfaces to web databases becomes a key requirement for any application accessing the deep Web. In this thesis, we describe the architecture of the I-Crawler, a system for finding and classifying search interfaces. Specifically, the I-Crawler is intentionally designed to be used in deepWeb characterization studies and for constructing directories of deep web resources. Unlike almost all other approaches to the deep Web existing so far, the I-Crawler is able to recognize and analyze JavaScript-rich and non-HTML searchable forms. Querying web databases: Retrieving information by filling out web search forms is a typical task for a web user. This is all the more so as interfaces of conventional search engines are also web forms. At present, a user needs to manually provide input values to search interfaces and then extract required data from the pages with results. The manual filling out forms is not feasible and cumbersome in cases of complex queries but such kind of queries are essential for many web searches especially in the area of e-commerce. In this way, the automation of querying and retrieving data behind search interfaces is desirable and essential for such tasks as building domain-independent deep web crawlers and automated web agents, searching for domain-specific information (vertical search engines), and for extraction and integration of information from various deep web resources. We present a data model for representing search interfaces and discuss techniques for extracting field labels, client-side scripts and structured data from HTML pages. We also describe a representation of result pages and discuss how to extract and store results of form queries. Besides, we present a user-friendly and expressive form query language that allows one to retrieve information behind search interfaces and extract useful data from the result pages based on specified conditions. We implement a prototype system for querying web databases and describe its architecture and components design.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The SIB Swiss Institute of Bioinformatics (www.isb-sib.ch) provides world-class bioinformatics databases, software tools, services and training to the international life science community in academia and industry. These solutions allow life scientists to turn the exponentially growing amount of data into knowledge. Here, we provide an overview of SIB's resources and competence areas, with a strong focus on curated databases and SIB's most popular and widely used resources. In particular, SIB's Bioinformatics resource portal ExPASy features over 150 resources, including UniProtKB/Swiss-Prot, ENZYME, PROSITE, neXtProt, STRING, UniCarbKB, SugarBindDB, SwissRegulon, EPD, arrayMap, Bgee, SWISS-MODEL Repository, OMA, OrthoDB and other databases, which are briefly described in this article.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

MetaNetX is a repository of genome-scale metabolic networks (GSMNs) and biochemical pathways from a number of major resources imported into a common namespace of chemical compounds, reactions, cellular compartments-namely MNXref-and proteins. The MetaNetX.org website (http://www.metanetx.org/) provides access to these integrated data as well as a variety of tools that allow users to import their own GSMNs, map them to the MNXref reconciliation, and manipulate, compare, analyze, simulate (using flux balance analysis) and export the resulting GSMNs. MNXref and MetaNetX are regularly updated and freely available.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

BACKGROUND: To assess the differences across continental regions in terms of stroke imaging obtained for making acute revascularization therapy decisions, and to identify obstacles to participating in randomized trials involving multimodal imaging. METHODS: STroke Imaging Repository (STIR) and Virtual International Stroke Trials Archive (VISTA)-Imaging circulated an online survey through its website, through the websites of national professional societies from multiple countries as well as through email distribution lists from STIR and the above mentioned societies. RESULTS: We received responses from 223 centers (2 from Africa, 38 from Asia, 10 from Australia, 101 from Europe, 4 from Middle East, 55 from North America, 13 from South America). In combination, the sites surveyed administered acute revascularization therapy to a total of 25,326 acute stroke patients in 2012. Seventy-three percent of these patients received intravenous (i.v.) tissue plasminogen activator (tPA), and 27%, endovascular therapy. Vascular imaging was routinely obtained in 79% (152/193) of sites for endovascular therapy decisions, and also as part of standard IV tPA treatment decisions at 46% (92/198) of sites. Modality, availability and use of acute vascular and perfusion imaging before revascularization varied substantially between geographical areas. The main obstacles to participate in randomized trials involving multimodal imaging included: mainly insufficient research support and staff (50%, 79/158) and infrequent use of multimodal imaging (27%, 43/158) . CONCLUSION: There were significant variations among sites and geographical areas in terms of stroke imaging work-up used tomake decisions both for intravenous and endovascular revascularization. Clinical trials using advanced imaging as a selection tool for acute revascularization therapy should address the need for additional resources and technical support, and take into consideration the lack of routine use of such techniques in trial planning.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recent standardization efforts in e-learning technology have resulted in a number of specifications, however, the automation process that is considered essential in a learning management system (LMS) is a lessexplored one. As learning technology becomes more widespread and more heterogeneous, there is a growing need to specify processes that cross the boundaries of a single LMS or learning resource repository. This article proposes to obtain a specification orientated to automation that takes on board the heterogeneity of systems and formats and provides a language for specifying complex and generic interactions. Having this goal in mind, a technique based on three steps is suggested. The semantic conformance profiles, the business process management (BPM) diagram, and its translation into the business process execution language (BPEL) seem to be suitable for achieving it.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tämän diplomityön lähtökohtana oli metallijätteen mittausmenetelmien kehittäminen Loviisan voimalaitoksella. Työn taustalla oli myös Säteilyturvakeskuksen antaman ohjeen YVL 8.2 ’Ydinjätteiden ja käytöstä poistettujen ydinlaitosten vapauttaminen valvonnasta’ uusinta. Työssä arvioitiin miten YVL 8.2 -ohjeen päivitys vaikuttaa Loviisan voimalaitoksen metallijätteen käsittelyyn vapautusmenettelyn osalta. Diplomityössä arvioitiin eri aktiivisuusmittausmenetelmien havaitsemia aktiivisuuksia metallijätteessä. Metallijätteen mittausmenetelmien arviointi aloitettiin kirjalliseen materiaaliin tutustumisella, jonka jälkeen mittausmenetelmiä verrattiin kokeellisesti. Verrattavia mittauksia olivat suora kontaminaatiomittaus, gammaspektrometrinen mittaus, kuiva-, märkä-, ja happopyyhintänäytteet sekä mittaus Condor E -monitorilla. Diplomityö sisältää myös arvioinnin ajoneuvojen säteilymittauslaitteiston käytöstä metallijätteen valvonnasta vapauttamisessa. Työssä arvioitiin myös mittausmenetelmän vaikutusta logistiikkaketjuun Loviisan voimalaitoksella ja kaiken metallijätteen loppusijoittamisen vaikutuksia. Nykyinen metallijätteen vapautusmenettely on raskas, eikä täysin uusitun ohjeen YVL 8.2 vaatimusten mukainen. Diplomityön tuloksena metallijätteen käsittelymenetelmäksi suositellaan metallijätteen vapauttamista valvonnasta seuraavin menettelyin. Pieni metallijäte tulisi huolellisen esimittauksen jälkeen pakata ja analysoida gammaspektrometrisesti. Suuret metallijätekappaleet tulisi analysoida pyyhintänäytteiden perusteella. Pyyhintänäytteiden analysointi kannattaisi suorittaa gammaspektrometrillä, koska sillä saavutetaan tarkin tulos ja se on täysin ohjeen YVL 8.2 vaatimusten mukainen. Loppusijoitusluolaan tulisi sijoittaa mahdollisimman pieni määrä vapauttamiskelpoista metallijätettä. Myös ajoneuvojen säteilymittauslaitteiston käyttöä varmentavana mittauksena tulisi tehostaa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este TFM se detallan las mejoras realizadas a la aplicación eXeLearning.net, así como otras aportaciones a la comunidad realizadas durante el proyecto de fin de máster de Software libre. eXeLearning.net es una aplicación de software libre para la creación de materiales educativos digitales, desarrollada en Python, con una interfaz web (HTML + JavaScript). En este proyecto se desarrollaron entre otras cosas: un repositorio de estilos en la web oficial de la aplicación, disponibles para su descarga desde la aplicación de escritorio, la creación y mantenimiento de un repositorio en Launchpad y una funcionalidad para publicar los contenidos creados con eXeLearning.net directamente en Google Drive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Well-ordered Georgia kaolinite (Kga-1b) obtained from the source Clay Repository of the Clay Minerals Society (USA) was intercalated with urea using grinding procedures. To achieve complete intercalation 20% of urea (in weight) was used, producing Al2Si2O5(OH)4 (N2H4CO)0,86 with an interplanar basal spacing of 1,08nm. After washing with water under ultrasound stirring at 363K, urea was completely removed and kaolinite was partially exfoliated. After drying under air, the material was converted to hydrated kaolinite with the composition Al2Si2O5(OH)4 (H2O)0,64 and an interplanar basal spacing of 0,84nm. In this compound, water molecules positioned between the layers of the silicate can be removed after calcination at 573K, regenerating structurally disordered kaolinite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis consists of three main theoretical themes: quality of data, success of information systems, and metadata in data warehousing. Loosely defined, metadata is descriptive data about data, and, in this thesis, master data means reference data about customers, products etc. The objective of the thesis is to contribute to an implementation of a metadata management solution for an industrial enterprise. The metadata system incorporates a repository, integration, delivery and access tools, as well as semantic rules and procedures for master data maintenance. It targets to improve maintenance processes and quality of hierarchical master data in the case company’s informational systems. That should bring benefits to whole organization in improved information quality, especially in cross-system data consistency, and in more efficient and effective data management processes. As the result of this thesis, the requirements for the metadata management solution in case were compiled, and the success of the new information system and the implementation project was evaluated.