923 resultados para Natural Language Processing,Recommender Systems,Android,Applicazione mobile
Resumo:
S’ha optimitzat un motor de veu natural per a dispositius mòbils com una PDA o un telèfon mòbil basat en un sistema operatiu Windows. La finalitat d’aquest treball és la d’ajudar a fer més fàcil la utilització d’aquests aparells a gent invident i que pugui acabar sent una donació a la ONCE.
Resumo:
Aquest projecte tracta la implementació d’una eina gràfica multiplataforma de creació i edició de gramàtiques electròniques per representar el Llenguatge Natural. És una eina per lingüistes i projectes com Spanish FrameNet Project amb la quan poden representar fàcilment transductors en un format més visual, les transicions es representen en forma de “caixes”, i guardar els resultats. S’han implementat varies opcions per crear una eina còmode i personalitzable per l’usuari amb funcionalitats enfocades a les seves necessitats com importar/exportar autòmats des d’una Expressió Regular. Es tracta l’implementació de tots els components que s’han necessitat per crear la GUI així com la seva funcionalitat.
Resumo:
Este trabajo pretende esbozar el estado del arte en cuanto a herramientas geoespaciales desarrolladas para el sistema operativo Android, encontrado en muchos dispositivos "smartphone" actuales. Se centra en los navegadores de mapas, como aplicación más representativa de este tipo de herramientas. Se destaca el papel de la empresa Google Inc. como desarrollador de la plataforma y principal proveedor web de información geográfica, y se exploran algunas alternativas.
Resumo:
En aquest treball es fa un anàlisi de l'aplicació OSMDroid i d'altres aplicacions i llibreries SIG rellevants per al sistema operatiu Android.
Resumo:
Proyecto de guía turística que, como valor añadido, implementa capacidades de SIG.
Resumo:
Aquest treball de fi de carrera pretén fer un repàs de les aplicacions i llibreries d'informació geogràfica dissenyades per a funcionar sobre Android.
Resumo:
Aquest projecte de final de carrera (PFC) consisteix en l'estudi, anàlisi, disseny i implementació d'un sistema de realitat augmentada (RA) que permet localitzar les aturades dels serveis de transport públic de la ciutat, així com detectar les més properes a la ubicació actual de l'usuari. Per aquest projecte s'ha desenvolupat una aplicació Android amb el framework LookAR que permet detectar la posició i orientació del dispositiu i informarà de les aturades es troben més a prop. Per això es fa servir informació georeferenciada de les aturades que s'emmagatzemen en una base de dades i es far el tractament necessari per posicionar-les. Per altra banda, s'utilitzen el GPS i giroscopi o brúixola digital, per conèixer la orientació i d'aquesta manera poder indicar i representar gràficament la informació que es té emmagatzemada a la base de dades espacial. L'accés a la informació espacial per part de l'aplicació, no és directe, sinó que es realitza a través d'un servei web desenvolupat segons els estàndards.
Resumo:
El present treball és un estudi de l'estat de Sensor Web Enablement (SWE) aplicat a l'àmbit marí d'investigació oceanogràfica. Per assolir aquest objectiu s'han avaluat les diferents solucions d'arquitectura de sistemes més adients a la problemàtica indicada i s'ha dissenyat un client de Sensor Observation Service (SOS) per plataforma mòbil Android que permeti consultar la descripció del sensor (SensorML) i conjunts d'observacions mitjançant estàndards oberts de SWE i peticions web (SOAP). Els dissenys anteriorment indicats han permès que quedés palès l'ampli ventall de possibilitats i avantatges que s'obtenen pel fet d'emprar SWE, ja que ens permet integrar fàcilment les dades proporcionades pels sensors i les pròpies descripcions dels sensors en diferents entorns, tal i com és el cas del disseny presentat en Android, a través d'estàndards oberts independents de les múltiples especificacions de cada fabricant, en un entorn, com és l'àmbit de la investigació marina on hi ha una gran heterogeneïtat de sensors i protocols.
Resumo:
A major obstacle to processing images of the ocean floor comes from the absorption and scattering effects of the light in the aquatic environment. Due to the absorption of the natural light, underwater vehicles often require artificial light sources attached to them to provide the adequate illumination. Unfortunately, these flashlights tend to illuminate the scene in a nonuniform fashion, and, as the vehicle moves, induce shadows in the scene. For this reason, the first step towards application of standard computer vision techniques to underwater imaging requires dealing first with these lighting problems. This paper analyses and compares existing methodologies to deal with low-contrast, nonuniform illumination in underwater image sequences. The reviewed techniques include: (i) study of the illumination-reflectance model, (ii) local histogram equalization, (iii) homomorphic filtering, and, (iv) subtraction of the illumination field. Several experiments on real data have been conducted to compare the different approaches
Resumo:
Consumer reviews, opinions and shared experiences in the use of a product is a powerful source of information about consumer preferences that can be used in recommender systems. Despite the importance and value of such information, there is no comprehensive mechanism that formalizes the opinions selection and retrieval process and the utilization of retrieved opinions due to the difficulty of extracting information from text data. In this paper, a new recommender system that is built on consumer product reviews is proposed. A prioritizing mechanism is developed for the system. The proposed approach is illustrated using the case study of a recommender system for digital cameras
Resumo:
Language is typically a function of the left hemisphere but the right hemisphere is also essential in some healthy individuals and patients. This inter-subject variability necessitates the localization of language function, at the individual level, prior to neurosurgical intervention. Such assessments are typically made by comparing left and right hemisphere language function to determine "language lateralization" using clinical tests or fMRI. Here, we show that language function needs to be assessed at the region and hemisphere specific level, because laterality measures can be misleading. Using fMRI data from 82 healthy participants, we investigated the degree to which activation for a semantic word matching task was lateralized in 50 different brain regions and across the entire cortex. This revealed two novel findings. First, the degree to which language is lateralized across brain regions and between subjects was primarily driven by differences in right hemisphere activation rather than differences in left hemisphere activation. Second, we found that healthy subjects who have relatively high left lateralization in the angular gyrus also have relatively low left lateralization in the ventral precentral gyrus. These findings illustrate spatial heterogeneity in language lateralization that is lost when global laterality measures are considered. It is likely that the complex spatial variability we observed in healthy controls is more exaggerated in patients with brain damage. We therefore highlight the importance of investigating within hemisphere regional variations in fMRI activation, prior to neuro-surgical intervention, to determine how each hemisphere and each region contributes to language processing. Hum Brain Mapp, 2010. © 2010 Wiley-Liss, Inc.
Resumo:
RÉSUMÉ Cette thèse porte sur le développement de méthodes algorithmiques pour découvrir automatiquement la structure morphologique des mots d'un corpus. On considère en particulier le cas des langues s'approchant du type introflexionnel, comme l'arabe ou l'hébreu. La tradition linguistique décrit la morphologie de ces langues en termes d'unités discontinues : les racines consonantiques et les schèmes vocaliques. Ce genre de structure constitue un défi pour les systèmes actuels d'apprentissage automatique, qui opèrent généralement avec des unités continues. La stratégie adoptée ici consiste à traiter le problème comme une séquence de deux sous-problèmes. Le premier est d'ordre phonologique : il s'agit de diviser les symboles (phonèmes, lettres) du corpus en deux groupes correspondant autant que possible aux consonnes et voyelles phonétiques. Le second est de nature morphologique et repose sur les résultats du premier : il s'agit d'établir l'inventaire des racines et schèmes du corpus et de déterminer leurs règles de combinaison. On examine la portée et les limites d'une approche basée sur deux hypothèses : (i) la distinction entre consonnes et voyelles peut être inférée sur la base de leur tendance à alterner dans la chaîne parlée; (ii) les racines et les schèmes peuvent être identifiés respectivement aux séquences de consonnes et voyelles découvertes précédemment. L'algorithme proposé utilise une méthode purement distributionnelle pour partitionner les symboles du corpus. Puis il applique des principes analogiques pour identifier un ensemble de candidats sérieux au titre de racine ou de schème, et pour élargir progressivement cet ensemble. Cette extension est soumise à une procédure d'évaluation basée sur le principe de la longueur de description minimale, dans- l'esprit de LINGUISTICA (Goldsmith, 2001). L'algorithme est implémenté sous la forme d'un programme informatique nommé ARABICA, et évalué sur un corpus de noms arabes, du point de vue de sa capacité à décrire le système du pluriel. Cette étude montre que des structures linguistiques complexes peuvent être découvertes en ne faisant qu'un minimum d'hypothèses a priori sur les phénomènes considérés. Elle illustre la synergie possible entre des mécanismes d'apprentissage portant sur des niveaux de description linguistique distincts, et cherche à déterminer quand et pourquoi cette coopération échoue. Elle conclut que la tension entre l'universalité de la distinction consonnes-voyelles et la spécificité de la structuration racine-schème est cruciale pour expliquer les forces et les faiblesses d'une telle approche. ABSTRACT This dissertation is concerned with the development of algorithmic methods for the unsupervised learning of natural language morphology, using a symbolically transcribed wordlist. It focuses on the case of languages approaching the introflectional type, such as Arabic or Hebrew. The morphology of such languages is traditionally described in terms of discontinuous units: consonantal roots and vocalic patterns. Inferring this kind of structure is a challenging task for current unsupervised learning systems, which generally operate with continuous units. In this study, the problem of learning root-and-pattern morphology is divided into a phonological and a morphological subproblem. The phonological component of the analysis seeks to partition the symbols of a corpus (phonemes, letters) into two subsets that correspond well with the phonetic definition of consonants and vowels; building around this result, the morphological component attempts to establish the list of roots and patterns in the corpus, and to infer the rules that govern their combinations. We assess the extent to which this can be done on the basis of two hypotheses: (i) the distinction between consonants and vowels can be learned by observing their tendency to alternate in speech; (ii) roots and patterns can be identified as sequences of the previously discovered consonants and vowels respectively. The proposed algorithm uses a purely distributional method for partitioning symbols. Then it applies analogical principles to identify a preliminary set of reliable roots and patterns, and gradually enlarge it. This extension process is guided by an evaluation procedure based on the minimum description length principle, in line with the approach to morphological learning embodied in LINGUISTICA (Goldsmith, 2001). The algorithm is implemented as a computer program named ARABICA; it is evaluated with regard to its ability to account for the system of plural formation in a corpus of Arabic nouns. This thesis shows that complex linguistic structures can be discovered without recourse to a rich set of a priori hypotheses about the phenomena under consideration. It illustrates the possible synergy between learning mechanisms operating at distinct levels of linguistic description, and attempts to determine where and why such a cooperation fails. It concludes that the tension between the universality of the consonant-vowel distinction and the specificity of root-and-pattern structure is crucial for understanding the advantages and weaknesses of this approach.
Resumo:
Dans le domaine de la perception, l'apprentissage est contraint par la présence d'une architecture fonctionnelle constituée d'aires corticales distribuées et très spécialisées. Dans le domaine des troubles visuels d'origine cérébrale, l'apprentissage d'un patient hémi-anopsique ou agnosique sera limité par ses capacités perceptives résiduelles, mais un déficit de reconnaissance visuelle de nature apparemment perceptive, peut également être associé à une altération des représentations en mémoire à long terme. Des réseaux neuronaux distincts pour la reconnaissance - cortex temporal - et pour la localisation des sons - cortex pariétal - ont été décrits chez l'homme. L'étude de patients cérébro-lésés confirme le rôle des indices spatiaux dans un traitement auditif explicite du « where » et dans la discrimination implicite du « what ». Cette organisation, similaire à ce qui a été décrit dans la modalité visuelle, faciliterait les apprentissages perceptifs. Plus généralement, l'apprentissage implicite fonde une grande partie de nos connaissances sur le monde en nous rendant sensible, à notre insu, aux règles et régularités de notre environnement. Il serait impliqué dans le développement cognitif, la formation des réactions émotionnelles ou encore l'apprentissage par le jeune enfant de sa langue maternelle. Le caractère inconscient de cet apprentissage est confirmé par l'étude des temps de réaction sériels de patients amnésiques dans l'acquisition d'une grammaire artificielle. Son évaluation pourrait être déterminante dans la prise en charge ré-adaptative. [In the field of perception, learning is formed by a distributed functional architecture of very specialized cortical areas. For example, capacities of learning in patients with visual deficits - hemianopia or visual agnosia - from cerebral lesions are limited by perceptual abilities. Moreover a visual deficit in link with abnormal perception may be associated with an alteration of representations in long term (semantic) memory. Furthermore, perception and memory traces rely on parallel processing. This has been recently demonstrated for human audition. Activation studies in normal subjects and psychophysical investigations in patients with focal hemispheric lesions have shown that auditory information relevant to sound recognition and that relevant to sound localisation are processed in parallel, anatomically distinct cortical networks, often referred to as the "What" and "Where" processing streams. Parallel processing may appear counterintuitive from the point of view of a unified perception of the auditory world, but there are advantages, such as rapidity of processing within a single stream, its adaptability in perceptual learning or facility of multisensory interactions. More generally, implicit learning mechanisms are responsible for the non-conscious acquisition of a great part of our knowledge about the world, using our sensitivity to the rules and regularities structuring our environment. Implicit learning is involved in cognitive development, in the generation of emotional processing and in the acquisition of natural language. Preserved implicit learning abilities have been shown in amnesic patients with paradigms like serial reaction time and artificial grammar learning tasks, confirming that implicit learning mechanisms are not sustained by the cognitive processes and the brain structures that are damaged in amnesia. In a clinical perspective, the assessment of implicit learning abilities in amnesic patients could be critical for building adapted neuropsychological rehabilitation programs.]
Resumo:
A crucial step for understanding how lexical knowledge is represented is to describe the relative similarity of lexical items, and how it influences language processing. Previous studies of the effects of form similarity on word production have reported conflicting results, notably within and across languages. The aim of the present study was to clarify this empirical issue to provide specific constraints for theoretical models of language production. We investigated the role of phonological neighborhood density in a large-scale picture naming experiment using fine-grained statistical models. The results showed that increasing phonological neighborhood density has a detrimental effect on naming latencies, and re-analyses of independently obtained data sets provide supplementary evidence for this effect. Finally, we reviewed a large body of evidence concerning phonological neighborhood density effects in word production, and discussed the occurrence of facilitatory and inhibitory effects in accuracy measures. The overall pattern shows that phonological neighborhood generates two opposite forces, one facilitatory and one inhibitory. In cases where speech production is disrupted (e.g. certain aphasic symptoms), the facilitatory component may emerge, but inhibitory processes dominate in efficient naming by healthy speakers. These findings are difficult to accommodate in terms of monitoring processes, but can be explained within interactive activation accounts combining phonological facilitation and lexical competition.
Resumo:
Työn tavoitteena on etsiä asiakasyritykselle sähköteknisen dokumentoinnin hallintaan sopiva järjestelmäratkaisu vertailemalla insinööritoimistojen käyttämien suunnittelujärjestelmien ja yleisten dokumenttien hallintajärjestelmien soveltuvuutta asiakasympäristöön. Työssä tutkitaan sopivien metatietojen kuvaustapojen käyttökelpoisuutta sähköteknisen dokumentoinnin hallintaan esimerkkiprojektien avulla. Työn sisältö koostuu neljästä pääkohdasta. Ensimmäisessä jaksossa tarkastellaan dokumentin ominaisuuksia ja elinkaarta luonnista aktiivikäyttöön, arkistointiin ja hävitykseen. Samassa yhteydessä kerrotaan dokumenttienhallinnan perustehtävistä. Toisessa jaksossa käsitellään dokumenttien kuvailun tavoitteita, kuvailusuosituksia ja -standardeja sekä luonnollisen kielen käyttöä sisällönkuvailussa. Tarkastelukohteina suosituksista ovat W3C:n julkaisemat suositukset, Dublin Core, JHS 143 ja SFS-EN 82045. Kolmannessa jaksossa tarkastellaan teollisuuden dokumentoinnin ominaispiirteitä ja käyttötarkoitusta. Teollisuudessa on monia erilaisia järjestelmäympäristöjä tehtaan sisällä ja työssä kuvataan dokumenttienhallinnan integrointitarpeita muihin järjestelmiin. Viimeisessä jaksossa kuvaillaan erilaisia dokumentoinnin hallintaympäristöjä alkaen järeimmästä päästä tuotetiedon hallintajärjestelmistä siirtyen pienempiinsuunnittelujärjestelmiin ja lopuksi yleisiin dokumenttien hallintajärjestelmiin. Tässä osassa on myös luettelo ohjelmistotoimittajista. Työn tuloksena on laadittu valituista dokumenttityypeistä metatietokuvaukset kahden eri kuvaustavan (JHS 143 ja SFS-EN 82045) avulla ja on todettu molemmat kuvaustavat käyttökelpoisiksi sähköteknisen dokumentoinnin käsittelyyn.Nämä kuvaukset palvelevat asiakasta dokumenttienhallintaprojektin määrittelytyössä. Asiakkaalle on tehty myös vertailu sopivista järjestelmävaihtoehdoista hankintaa varten.