924 resultados para Information Retrieval, Document Databases, Digital Libraries


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Peer-reviewed

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This piece of work which is Identification of Research Portfolio for Development of Filtration Equipment aims at presenting a novel approach to identify promising research topics in the field of design and development of filtration equipment and processes. The projected approach consists of identifying technological problems often encountered in filtration processes. The sources of information for the problem retrieval were patent documents and scientific papers that discussed filtration equipments and processes. The problem identification method adopted in this work focussed on the semantic nature of a sentence in order to generate series of subject-action-object structures. This was achieved with software called Knowledgist. List of problems often encountered in filtration processes that have been mentioned in patent documents and scientific papers were generated. These problems were carefully studied and categorized. Suggestions were made on the various classes of these problems that need further investigation in order to propose a research portfolio. The uses and importance of other methods of information retrieval were also highlighted in this work.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Web-portaalien aiheenmukaista luokittelua voidaan hyödyntää tunnistamaan käyttäjän kiinnostuksen kohteet keräämällä tilastotietoa hänen selaustottumuksistaan eri kategorioissa. Tämä diplomityö käsittelee web-sovelluksien osa-alueita, joissa kerättyä tilastotietoa voidaan hyödyntää personalisoinnissa. Yleisperiaatteet sisällön personalisoinnista, Internet-mainostamisesta ja tiedonhausta selitetään matemaattisia malleja käyttäen. Lisäksi työssä kuvaillaan yleisluontoiset ominaisuudet web-portaaleista sekä tilastotiedon keräämiseen liittyvät seikat.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Elektroniikka alalla tuotteet sisältävät yhä enemmän ja enemmän komponentteja joiden käyttöä yrityksen tulee hallita. Viime-aikaiset ympäristömääräykset ja lainsäädännöt ovat lisänneet yritysten painetta hallita käyttämiään komponentteja ja niiden tietoa tehokkaasti. Tässä työssä on tutkittu kolmen palveluntarjoajan tarjoamaa komponentinhallinta palvelua verrattunamahdolliseen talon omaan komponentti-insinööriin. Jotta tutkittuja vaihtoehtoja pystyisi vertailemaan, selvitettiin asiantuntija haastatteluja käyttäen komponenttien hallinnan erityispiirteet. Erityispiirteet yhdessä yrityksen vaatimuksien kanssa muodostivat kriteristön johon tutkittuja palveluja vertaillaan. Kriteeristö koostuu kahdeksasta osasta jotka puolestaan voidaan jaotella kolmeen ryhmään niiden keston ja luonteen mukaan. Neljän kriteerin katsottiin olevan tärkeämpiä kuin toiset, joten niille annettiin suurempi painoarvo palveluja vertailtaessa. Kaikki tutkitut palvelut täyttävät osan kriteereistä mutta mikään ei yksistään tarjoa riittävän kattavaa ratkaisua kohdeyrityksen ongelmiin. Suurimmat ongelmat yrityksellä ovat sisäisessä tiedonkulussa ja tietokantojen ja järjestelmien ylläpidossa ja hallinnassa. Jotta nämä ongelmat saataisiin ratkaistua on yrityksen saatava komponenttiprosessit toimimaan sekä tietokanta ajantasalle. Nämä tavoitteet saavutetaan vain jos yrityksessä on joku hoitamassa asiaa sisältä päin. Tutkitut kolme palvelua eivät tällaista sisäistä resurssia tarjoa vaan keskittyvät vain ulkoapäin tapahtuvaan tiedon välitykseen ja hallinnointiin.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se presenta la evolución en los últimos veinte años (1992-2012) de la automatización del préstamo interbibliotecario en las bibliotecas universitarias españolas. A partir de los distintos procesos que se llevan a cabo en este servicio, envío de peticiones, localización y recepción de documentos y gestión interna, se identifican cada uno de los programas utilizados y se pone de manifiesto como han evolucionado cada uno de los procedimientos en paralelo a la propia tecnología.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En aquest treball es realitza un estudi sobre l'estat de l'art de la web semàntica i els seus estàndards actuals, més concretament sobre ontologies. Descriu també el procés pràctic emprat pel disseny i la implementació d'una ontologia en el domini concret de Twitter, en format OWL, fent servir l'aplicació Protégé per a la seva creació. Finalment explica la creació (captura de requeriments, disseny i implementació) d'una aplicació capaç d'obtenir dades reals de Twitter, processar-les per extreure'n la informació rellevant i emmagatzemar-la a la ontologia creada.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Biblioteca de la Universitat Oberta de Catalunya ofereix els seus serveis de manera virtual des de la seva creació, l'any 1995. Per això, l'aposta per les noves tecnologies del moment ha estat una constant durant aquests anys. A continuació, a través d'una breu menció a l'evolució històrica, es comenten els serveis i recursos oferts de forma pionera a nivell de biblioteques universitàries. S'analitzen els aspectes més destacables pel que fa als serveis, la gestió de la col·lecció, la formació, i la relació amb la Universitat, en el moment actual. Per concloure, es fa una anàlisi dels principals reptes de futur que la Biblioteca espera afrontar en els propers anys, tenint com a referent principal els usuaris i les innovacions tecnològiques que permetin donar resposta a les noves necessitats que vagin sorgint. Tot això, per continuar sent capdavantera en l'àmbit de les biblioteques virtuals.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Summary : Fuzzy translation techniques in cross-language information retrieval between closely related languages

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Diplomityössä on tutkittu kohdeyrityksen, UPM-Kymmene Oyj Kymin tuotantoyksikön nykyisiä investointiprojektin tiedonhallinnan käytäntöjä. Nykytilan selvityksen ja haastatteluissa ilmenneiden tarpeiden perusteella on työssä esitelty uusi toimintamalli tulevia investointiprojekteja varten. Diplomityö perustuu aihepiirin kirjalliseen tarkasteluun ja yhteistyökumppaneiden haastatteluihin. Kirjallisuuden avulla on selvitetty dokumenttienhallinnan teoriaa ja tulevaisuuden näkymiä. Haastatteluilla on selvitetty Kymin tiedonhallinnan nykytilaa ja tulevia tarpeita. Haastatteluita on tehty Kymillä sisäisesti ja Kymin konsultti- ja laitetoimittajaosapuolten kanssa. Työssä käsitellään informaationhallintaa dokumenttienhallinnan ja erilaisten investointiprojektissa käsiteltävien dokumenttien pohjalta. Investointiprojektissa syntyvän talletettavan ja arkistoitavan dokumenttiaineiston lisäksi huomioidaan laitetietojen hallinta, mutta vain periaatteellisella tasolla. Investointiprojektin tiedonhallinnassa ehdotetaan siirryttävän perinteisestä eri projektiosapuolten keskinäisestä tiedonvaihdosta verkottuneeseen tiedonhallinnan malliin. Verkottuneessa tiedonhallinnassa toimitaan investointiprojektin osapuolten yhteisen tietovaraston avulla. Työn tuloksena syntynyt kohdeyrityksen toimintamalli koostuu useista eri osa-alueista, mikä mahdollistaa toimintamallin hyödyntämisen yksittäisiä osa-alueita kokonaisuudesta irrottamalla. Toimintamallia on mahdollista hyödyntää vastaavanlaisten tuotanto-laitosten investointiprojektien yhteydessä. Työssä toimintamallin käytännön sovellutus kohdeyrityksessä on esitetty käyttöönottoprojektina.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El artículo revisa los temas principales en la preservación y reuso de los datos de investigación (beneficios, ciclo de vida, proyectos, normativas ) e identifica la falta de un registro mundial de bancos, repositorios y bibliotecas de datos. Expone la creación de una herramienta web que recoja este tipo de depósitos y los clasifique por áreas disciplinares: ODiSEA International Registry on Research Data. Ofrecemos resultados sobre número y tipología temática de este tipo de depósitos a escala mundial. Esta aportación facilita el descubrimiento de nuevos conjuntos de datos cuya recombinación desde una perspectiva multidisciplinar fomentará la innovación y la rentabilidad de la inversión en ciencia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Internet on elektronisen postin perusrakenne ja ollut tärkeä tiedonlähde akateemisille käyttäjille jo pitkään. Siitä on tullut merkittävä tietolähde kaupallisille yrityksille niiden pyrkiessä pitämään yhteyttä asiakkaisiinsa ja seuraamaan kilpailijoitansa. WWW:n kasvu sekä määrällisesti että sen moninaisuus on luonut kasvavan kysynnän kehittyneille tiedonhallintapalveluille. Tällaisia palveluja ovet ryhmittely ja luokittelu, tiedon löytäminen ja suodattaminen sekä lähteiden käytön personointi ja seuranta. Vaikka WWW:stä saatavan tieteellisen ja kaupallisesti arvokkaan tiedon määrä on huomattavasti kasvanut viime vuosina sen etsiminen ja löytyminen on edelleen tavanomaisen Internet hakukoneen varassa. Tietojen hakuun kohdistuvien kasvavien ja muuttuvien tarpeiden tyydyttämisestä on tullut monimutkainen tehtävä Internet hakukoneille. Luokittelu ja indeksointi ovat merkittävä osa luotettavan ja täsmällisen tiedon etsimisessä ja löytämisessä. Tämä diplomityö esittelee luokittelussa ja indeksoinnissa käytettävät yleisimmät menetelmät ja niitä käyttäviä sovelluksia ja projekteja, joissa tiedon hakuun liittyvät ongelmat on pyritty ratkaisemaan.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectius: Analitzar l'existència i el contingut de documents de polítiques de col·lecció i criteris de selecció de les col·leccions digitals patrimonials espanyoles. Examinar si la descripció de les col·leccions incloses en els portals respectius comunica adequadament als usuaris la història i els objectius de la col·lecció, els destinataris, l'abast temàtic o geogràfic, cronològic i lingüístic, els tipus de documents digitalitzats, la relació amb la col·lecció analògica, els usos permesos i altres qüestions de tipus organitzatiu i tècnic. Metodologia: Per al primer objectiu, s'ha fet l'anàlisi del contingut dels portals de les col·leccions objecte d'estudi i s'ha enviat un qüestionari a les entitats responsables. Per al segon objectiu, s'ha desenvolupat una llista dels elements descriptius que s'haurien d'incloure en la descripció de les col·leccions basada en directrius internacionals i s'han avaluat les col·leccions amb relació a aquesta llista. S'han seleccionat per a l'estudi les col·leccions digitals exclusivament patrimonials que aporten metadades en el recol·lector Hispana del Ministerio de Cultura. Resultats: Destaca l'absència de documents formals de polítiques de col·lecció, però els criteris de selecció que en la majoria dels casos no són públics són clars i estan ben formulats. Pel que fa a la descripció de les col·leccions, hi ha diferències molt marcades entre els fons analitzats i s'hi observen alguns models de bones pràctiques. Tanmateix, en general, la informació és molt minsa: no acostumen a haver-hi dades sobre el mateix projecte, els destinataris queden molt difusos, les qüestions organitzatives hi són del tot absents, i les tipologies documentals incloses o les llengües i els períodes coberts sovint s'han de deduir de la interfície de cerca o de les estadístiques de les plataformes corresponents. En els apartats d'objectius de la col·lecció i de l'abast temàtic o geogràfic, la informació sol ser més completa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Recent advances in machine learning methods enable increasingly the automatic construction of various types of computer assisted methods that have been difficult or laborious to program by human experts. The tasks for which this kind of tools are needed arise in many areas, here especially in the fields of bioinformatics and natural language processing. The machine learning methods may not work satisfactorily if they are not appropriately tailored to the task in question. However, their learning performance can often be improved by taking advantage of deeper insight of the application domain or the learning problem at hand. This thesis considers developing kernel-based learning algorithms incorporating this kind of prior knowledge of the task in question in an advantageous way. Moreover, computationally efficient algorithms for training the learning machines for specific tasks are presented. In the context of kernel-based learning methods, the incorporation of prior knowledge is often done by designing appropriate kernel functions. Another well-known way is to develop cost functions that fit to the task under consideration. For disambiguation tasks in natural language, we develop kernel functions that take account of the positional information and the mutual similarities of words. It is shown that the use of this information significantly improves the disambiguation performance of the learning machine. Further, we design a new cost function that is better suitable for the task of information retrieval and for more general ranking problems than the cost functions designed for regression and classification. We also consider other applications of the kernel-based learning algorithms such as text categorization, and pattern recognition in differential display. We develop computationally efficient algorithms for training the considered learning machines with the proposed kernel functions. We also design a fast cross-validation algorithm for regularized least-squares type of learning algorithm. Further, an efficient version of the regularized least-squares algorithm that can be used together with the new cost function for preference learning and ranking tasks is proposed. In summary, we demonstrate that the incorporation of prior knowledge is possible and beneficial, and novel advanced kernels and cost functions can be used in algorithms efficiently.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This study presents an automatic, computer-aided analytical method called Comparison Structure Analysis (CSA), which can be applied to different dimensions of music. The aim of CSA is first and foremost practical: to produce dynamic and understandable representations of musical properties by evaluating the prevalence of a chosen musical data structure through a musical piece. Such a comparison structure may refer to a mathematical vector, a set, a matrix or another type of data structure and even a combination of data structures. CSA depends on an abstract systematic segmentation that allows for a statistical or mathematical survey of the data. To choose a comparison structure is to tune the apparatus to be sensitive to an exclusive set of musical properties. CSA settles somewhere between traditional music analysis and computer aided music information retrieval (MIR). Theoretically defined musical entities, such as pitch-class sets, set-classes and particular rhythm patterns are detected in compositions using pattern extraction and pattern comparison algorithms that are typical within the field of MIR. In principle, the idea of comparison structure analysis can be applied to any time-series type data and, in the music analytical context, to polyphonic as well as homophonic music. Tonal trends, set-class similarities, invertible counterpoints, voice-leading similarities, short-term modulations, rhythmic similarities and multiparametric changes in musical texture were studied. Since CSA allows for a highly accurate classification of compositions, its methods may be applicable to symbolic music information retrieval as well. The strength of CSA relies especially on the possibility to make comparisons between the observations concerning different musical parameters and to combine it with statistical and perhaps other music analytical methods. The results of CSA are dependent on the competence of the similarity measure. New similarity measures for tonal stability, rhythmic and set-class similarity measurements were proposed. The most advanced results were attained by employing the automated function generation – comparable with the so-called genetic programming – to search for an optimal model for set-class similarity measurements. However, the results of CSA seem to agree strongly, independent of the type of similarity function employed in the analysis.