923 resultados para Natural Language Processing,Recommender Systems,Android,Applicazione mobile
Resumo:
The treatment of factual data has been widely studied in different areas of Natural Language Processing (NLP). However, processing subjective information still poses important challenges. This paper presents research aimed at assessing techniques that have been suggested as appropriate in the context of subjective - Opinion Question Answering (OQA). We evaluate the performance of an OQA with these new components and propose methods to optimally tackle the issues encountered. We assess the impact of including additional resources and processes with the purpose of improving the system performance on two distinct blog datasets. The improvements obtained for the different combination of tools are statistically significant. We thus conclude that the proposed approach is adequate for the OQA task, offering a good strategy to deal with opinionated questions.
Resumo:
El campo de procesamiento de lenguaje natural (PLN), ha tenido un gran crecimiento en los últimos años; sus áreas de investigación incluyen: recuperación y extracción de información, minería de datos, traducción automática, sistemas de búsquedas de respuestas, generación de resúmenes automáticos, análisis de sentimientos, entre otras. En este artículo se presentan conceptos y algunas herramientas con el fin de contribuir al entendimiento del procesamiento de texto con técnicas de PLN, con el propósito de extraer información relevante que pueda ser usada en un gran rango de aplicaciones. Se pueden desarrollar clasificadores automáticos que permitan categorizar documentos y recomendar etiquetas; estos clasificadores deben ser independientes de la plataforma, fácilmente personalizables para poder ser integrados en diferentes proyectos y que sean capaces de aprender a partir de ejemplos. En el presente artículo se introducen estos algoritmos de clasificación, se analizan algunas herramientas de código abierto disponibles actualmente para llevar a cabo estas tareas y se comparan diversas implementaciones utilizando la métrica F en la evaluación de los clasificadores.
Resumo:
The great amount of text produced every day in the Web turned it as one of the main sources for obtaining linguistic corpora, that are further analyzed with Natural Language Processing techniques. On a global scale, languages such as Portuguese - official in 9 countries - appear on the Web in several varieties, with lexical, morphological and syntactic (among others) differences. Besides, a unified spelling system for Portuguese has been recently approved, and its implementation process has already started in some countries. However, it will last several years, so different varieties and spelling systems coexist. Since PoS-taggers for Portuguese are specifically built for a particular variety, this work analyzes different training corpora and lexica combinations aimed at building a model with high-precision annotation in several varieties and spelling systems of this language. Moreover, this paper presents different dictionaries of the new orthography (Spelling Agreement) as well as a new freely available testing corpus, containing different varieties and textual typologies.
Resumo:
Includes bibliographical references.
Resumo:
Mobile advertising is a rapidly growing sector providing brands and marketing agencies the opportunity to connect with consumers beyond traditional and digital media and instead communicate directly on their mobile phones. Mobile advertising will be intrinsically linked with mobile search, which has transported from the internet to the mobile and is identified as an area of potential growth. The result of mobile searching show that as a general rule such search result exceed 160 characters; the dialog is required to deliver the relevant portion of a response to the mobile user. In this paper we focus initially on mobile search and mobile advert creation, and later the mechanism of interaction between the user’s request, the result of searching, advertising and dialog.
Resumo:
Questo documento di tesi si incentra principalmente sullo studio delle reti wireless mobili e dei relativi scenari di utilizzo. In particolare, come esse vengono applicate per il riconoscimento e la prevenzione di incidenti stradali. Vista l’importanza di questo problema a livello di sicurezza stradale, ho deciso di sviluppare un' applicazione per smartphone Android, in grado di riconoscere le attività di uso quotidiano dell’utente e associarle a dei comportamenti, come ad esempio quello di un ciclista, di un pedone o di un automobilista. Nel caso in cui, in uno scenario stradale i dispositivi si trovassero ad una distanza ravvicinata, possono comunicare tramite una connessione Wi-Fi Direct il loro ruolo e lanciare messaggi di pericolo per avvisare la loro presenza, in modo da prevenire collisioni stradali. La realtà in cui si vuole collocare questa applicazione è quella che viene chiamata Pedestrian Detection, già idea di General Motors, che la sta sviluppando sui futuri veicoli che metterà in produzione nei prossimi anni e che sicuramente integreranno funzionalità aggiuntive per la segnalazione di pericoli tramite smartphone e Wi-Fi Direct.
Resumo:
Obbiettivo di questa tesi è presentare l'applicazione per dispositivi mobili denominata “dPiP” (che sta per “di Piazza in Piazza“), il suo scopo, il suo funzionamento ed il processo che ha portato dalla sua ideazione al suo utilizzo nell'ambito delle iniziative dell'Università di Bologna in occasione dell'EXPO2015. In particolare, l'applicazione è strettamente correlata all'installazione "di Piazza in Piazza" che è stata ospitata presso la Biblioteca Malatestiana di Cesena, da Settembre 2015 a Maggio 2016.
Resumo:
Acknowledgements The authors thank the children, their parents and school staff, who participated in this research, and who so willingly gave us their time, help and support. They also thank Steven Knox and Alan Clelland for their work on programming the mobile phone application. Additional thanks to DynaVox Inc. for supplying the Vmax communication devices to run our system on and Sensory Software Ltd for supplying us with their AAC software. This research was supported by the Research Council UKs Digittal Economy Programme and EPSRC (Grant numbers EP/F067151/1, EP/F066880/1, EP/E011764/1, EP/H022376/1, and EP/H022570 /1).
Resumo:
This work was supported by the Spanish Ministry for Economy and Competitiveness (grant TIN2014-56633-C3-1-R) and by the European Regional Development Fund (ERDF/FEDER) and the Galician Ministry of Education (grants GRC2014/030 and CN2012/151). Alejandro Ramos-Soto is supported by the Spanish Ministry for Economy and Competitiveness (FPI Fellowship Program) under grant BES-2012-051878.
Resumo:
People recommenders are a widespread feature of social networking sites and educational social learning platforms alike. However, when these systems are used to extend learners’ Personal Learning Networks, they often fall short of providing recommendations of learning value to their users. This paper proposes a design of a people recommender based on content-based user profiles, and a matching method based on dissimilarity therein. It presents the results of an experiment conducted with curators of the content curation site Scoop.it!, where curators rated personalized recommendations for contacts. The study showed that matching dissimilarity of interpretations of shared interests is more successful in providing positive experiences of breakdown for the curator than is matching on similarity. The main conclusion of this paper is that people recommenders should aim to trigger constructive experiences of breakdown for their users, as the prospect and potential of such experiences encourage learners to connect to their recommended peers.
Resumo:
In questa tesi si è progettata una applicazione Android che permettesse di controllare da remoto funzionalità hardware e software offerte da una piattaforma Raspberry Pi. Si sono infine svolte alcune misure atte a testare le performance di rete di questa scheda.
Resumo:
Il progetto di tesi consiste nella progettazione e nell'implementazione di una applicazione mobile Android nativa per la generazione automatica di itinerari di viaggio in base ad alcuni dati inseriti in input dall'utente. La app è costituita da una serie di activity di raccolta dati in cui viene chiesto all'utente di inserire le sue preferenze in quanto a destinazione, periodo, modalità di viaggio ed altre informazioni. Completata questa fase viene attivato l'algoritmo che genera gli itinerari elaborando i dati raccolti. L'itinerario, che rappresenta il risultato ottenuto dall'algoritmo, è diviso in giorni ed ogni giorno di viaggio contiene i luoghi da visitare in ordine ottimizzato, con la possibilità di usufruire di ulteriori servizi di indicazioni stradali e visualizzazione su mappe. L'intero progetto è stato implementato in Java con l'ambiente di sviluppo Android Studio.
Resumo:
Dopo lo sviluppo dei primi casi di Covid-19 in Cina nell’autunno del 2019, ad inizio 2020 l’intero pianeta è precipitato in una pandemia globale che ha stravolto le nostre vite con conseguenze che non si vivevano dall’influenza spagnola. La grandissima quantità di paper scientifici in continua pubblicazione sul coronavirus e virus ad esso affini ha portato alla creazione di un unico dataset dinamico chiamato CORD19 e distribuito gratuitamente. Poter reperire informazioni utili in questa mole di dati ha ulteriormente acceso i riflettori sugli information retrieval systems, capaci di recuperare in maniera rapida ed efficace informazioni preziose rispetto a una domanda dell'utente detta query. Di particolare rilievo è stata la TREC-COVID Challenge, competizione per lo sviluppo di un sistema di IR addestrato e testato sul dataset CORD19. Il problema principale è dato dal fatto che la grande mole di documenti è totalmente non etichettata e risulta dunque impossibile addestrare modelli di reti neurali direttamente su di essi. Per aggirare il problema abbiamo messo a punto nuove soluzioni self-supervised, a cui abbiamo applicato lo stato dell'arte del deep metric learning e dell'NLP. Il deep metric learning, che sta avendo un enorme successo soprattuto nella computer vision, addestra il modello ad "avvicinare" tra loro immagini simili e "allontanare" immagini differenti. Dato che sia le immagini che il testo vengono rappresentati attraverso vettori di numeri reali (embeddings) si possano utilizzare le stesse tecniche per "avvicinare" tra loro elementi testuali pertinenti (e.g. una query e un paragrafo) e "allontanare" elementi non pertinenti. Abbiamo dunque addestrato un modello SciBERT con varie loss, che ad oggi rappresentano lo stato dell'arte del deep metric learning, in maniera completamente self-supervised direttamente e unicamente sul dataset CORD19, valutandolo poi sul set formale TREC-COVID attraverso un sistema di IR e ottenendo risultati interessanti.