257 resultados para piqle apprendimento per rinforzo ExTras algoritmi profilazione utente


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si effettua uno studio sulla capacità degli algoritmi di apprendimento per rinforzo di profilare un utente Web unicamente attraverso l'osservazione del suo comportamento durante la navigazione

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato presenta le tecniche di apprendimento principali utilizzate in robotica: l'apprendimento per rinforzo e l'apprendimento per dimostrazione. Nell'ultimo capitolo, invece, si vuole presentare come l'applicazione congiunta di queste tecniche permetta di risolvere problemi di interazione con l'ambiente in modo molto efficiente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi tratta dell'esplorazione di una possibile interfaccia utente per Smart Glass in un contesto di utilizzo hands-free con elementi virtuali appartenenti ad un sistema di riferimento solidale all'utente e non al dispositivo, e la conseguente realizzazione di un Framework per lo sviluppo di applicazioni Andoid rispondenti a tale interfaccia e relativo test.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi tratta l'esplorazione dell'idea per una nuova tipologia di interfacce utente, progettate specificatamente per dispositivi wearable hands free (più nel dettaglio per un'accoppiata smart glass Android based e gesture recognizer). Per facilitare lo sviluppo di applicazioni basate su questi dispositivi è stato realizzato un framework che permetta di costruire, in maniera relativamente semplice, interfacce utente innovative, che consentano all'utente di interagire con i contenuti digitali senza interrompere il suo contatto con la realtà e senza costringerlo a utilizzare le mani.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi è strutturata in tre macro capitoli: • e-learning: questo capitolo tratta i tre principi su cui è basato questo progetto quali e-learning, m-learning ed incidental learning descrivendo l’evoluzione di questi tre concetti e analizzando ognuno di essi nel dettaglio partendo dal principio, l’e-learning. Verranno poi presentati dei progetti inerenti a queste tipologie di apprendimento per fare in modo di dare un’idea più chiara di questi concetti. • Specifiche di progetto: in questo secondo capitolo vengono descritte, ad alto livello, le tecnologie utilizzate per lo sviluppo di questo progetto, descrivendo, per ognuna, le caratteristiche e le applicazioni che essa ha avuto all’interno del progetto. • Implementazione: nel terzo e ultimo capitolo verranno descritte, e motivate, le scelte implementative adottate per sviluppare l’applicazione iLocalApp e verranno mostrati scorci di codice per rendere più chiaro l’utilizzo delle varie API e tecnologie all’interno del progetto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In campo medico ha un ruolo fondamentale il monitoraggio dei parametri vitali, importanti indicatori dello stato di salute del paziente, essenziali nella diagnosi e nella cura dellle patologie. La frequenza cardiaca occupa un ruolo fondamentale nella clinica, primo indice dell'attività cardio circolatoria del paziente. Il trattato analizza una metodica di monitoraggio del battito cardiaco per mezzo delle videocamere digitali, la ripresa diretta in video del volto del paziente e la presenza di un'adeguata illuminazione ambientale: la pulsazione cardiaca esercita variazioni di pressione a livello periferico generando un cambiamento del colore della pelle sulle zone più esposte, quali il viso. Analizzando l'andamento temporale del segnale RGB registra, per mezzo di algoritmi di elaborazione delle immagini, è possibile stimare accuratamente il battito cardiaco dell'utente. Nell'elaborato viene affrontata la metodica degl algoritmi di image-prcessing presentando un applicativo scritto in linguaggio Python, funzionante e testato su di un sistema Linux (Ubuntu 14.04). Tale metodo si basa sui concetti della fotopletismografia applicata in remoto denotando il non-contact-mode.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni Internet ha cambiato le modalità di creazione e distribuzione delle informazioni turistiche. Un ruolo fondamentale viene ricoperto dalle piattaforme di social media, tecnologie che permettono ai consumatori di condividere le proprie esperienze ed opinioni. Diventa necessario, quindi, comprendere i cambiamenti in queste tecnologie e nel comportamento dei viaggiatori per poter applicare strategie di marketing di successo. In questo studio, utilizzando Opinion Finder, un software spesso impiegato nel campo dell'opinion mining, si esamineranno da un punto di vista qualitativo i post e commenti estratti da alcuni profili degli enti di promozione turistica nazionale in Europa, dividendo l'analisi per fattori che possono influenzare il sentimento degli utenti. Attraverso i risultati ottenuti, si può dimostrare che l'analisi delle opinioni e del sentimento si presenta come un ottimo strumento per evidenziare possibili fenomeni utili per la pianificazione di strategie di marketing per gli enti. Studi futuri potrebbero migliorare la valutazione di questi dati attraverso la creazione di un corpus di apprendimento per il software che contenga testi relativi al mondo del turismo e permettendo ad Opinion Finder di incrementare la validità della classificazione del sentimento, contestualizzando le espressioni in maniera corretta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La crittografia ha sempre rivestito un ruolo primario nella storia del genere umano, dagli albori ai giorni nostri, e il periodo in cui viviamo non fa certo eccezione. Al giorno d'oggi, molti dei gesti che vengono compiuti anche solo come abitudine (operazioni bancarie, apertura automatica dell'auto, accedere a Facebook, ecc.), celano al loro interno la costante presenza di sofisticati sistemi crittografici. Proprio a causa di questo fatto, è importante che gli algoritmi utilizzati siano in qualche modo certificati come ragionevolmente sicuri e che la ricerca in questo campo proceda costantemente, sia dal punto di vista dei possibili nuovi exploit per forzare gli algoritmi usati, sia introducendo nuovi e sempre più complessi sistemi di sicurezza. In questa tesi viene proposto una possibile implementazione di un particolare tipo di attacco crittoanalitico, introdotto nel 2000 da due ricercatori dell'Università "La Sapienza" di Roma, e conosciuto come "Crittoanalisi Logica". L'algoritmo su cui è incentrato il lavoro è il Data Encryption Standard (DES), ostico standard crittografico caduto in disuso nel 1999 a causa delle dimensioni ridotte della chiave, seppur tuttora sia algebricamente inviolato. Il testo è strutturato nel seguente modo: il primo capitolo è dedicato ad una breve descrizione di DES e della sua storia, introducendo i concetti fondamentali con cui si avrà a che fare per l'intera dissertazione Nel secondo capitolo viene introdotta la Crittoanalisi Logica e viene fornita una definizione della stessa, accennando ai concetti matematici necessari alla comprensione dei capitoli seguenti. Nel capitolo 3 viene presentato il primo dei due software sviluppati per rendere possibile l'attuazione di questo attacco crittoanalitico, una libreria per la rappresentazione e la manipolazione di formule logiche scritta in Java. Il quarto ed ultimo capitolo descrive il programma che, utilizzando la libreria descritta nel capitolo 3, elabora in maniera automatica un insieme di proposizioni logiche semanticamente equivalenti a DES, la cui verifica di soddisfacibilità, effettuata tramite appositi tools (SAT solvers) equivale ad effettuare un attacco di tipo known-plaintext su tale algoritmo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo della tesi è definire un modello e identificare un sistema d’inferenza utile per l’analisi della qualità dei dati. Partendo da quanto descritto in ambito accademico e business, la definizione di un modello facilita l’analisi della qualità, fornendo una descrizione chiara delle tipologie di problemi a cui possono essere soggetti i dati. I diversi lavori in ambito accademico e business saranno confrontati per stabilire quali siano i problemi di qualità più diffusi, in modo da realizzare un modello che sia semplice e riutilizzabile. I sistemi d’inferenza saranno confrontati a livello teorico e pratico per individuare lo strumento più adatto nell’analisi della qualità dei dati in un caso applicativo. Il caso applicativo è caratterizzato da requisiti funzionali e non; il principale requisito funzionale è l’individuazione di problemi di qualità nei dati, mentre quello non funzionale è l’ usabilità dello strumento, per permettere ad un qualunque utente di esprimere dei controlli sulla qualità. Il caso applicativo considera dati di un’enterprise architecture reale ed è stato fornito dall’azienda Imola Informatica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi decenni sono stati studiati sul mar Mediterraneo dei fenomeni con caratteristiche comuni a quelle dei cicloni tropicali, chiamati medicane. L'obiettivo principale di questa tesi è quello di migliorare le attuali conoscenze sui medicane utilizzando un approccio di tipo satellitare per ottenere un algoritmo di detection. Per tale ragione sono stati integrati dati di diverse tipologie di sensori satellitari e del modello numerico WRF. Il sensore SEVIRI ha fornito misure di TB a 10.8μm e informazioni sulla distribuzione del vapor d’acqua atmosferico attraverso i due canali a 6.2 e 7.3 μm. I sensori AMSU–B/MHS hanno fornito informazioni sulle proprietà delle nubi e sulla distribuzione verticale del vapor d’acqua atmosferico attraverso le frequenze nelle microonde nell’intervallo 90-190 GHz. I canali a 183.31 GHz, sono stati utilizzati per alimentare gli algoritmi 183-WSL, per la stima delle precipitazioni, e MWCC, per la classificazione del tipo di nubi. Infine, le simulazioni tramite modello WRF hanno fornito i dati necessari per l’analisi dei campi di vento e di vorticità nella zona interessata dal ciclone. Lo schema computazione a soglie di sensibilità dell’algoritmo di detection è stato realizzato basandosi sui dati del medicane “Rolf” che, nel novembre 2011, ha interessato la zona del Mediterraneo occidentale. Sono stati, inoltre, utilizzati i dati di fulminazione della rete WWLLN, allo scopo di identificare meglio la fase di innesco del ciclone da quella matura. La validità dell’algoritmo è stata successivamente verificata su due casi studio: un medicane che nel settembre 2006 ha interessato la Puglia e un MCS sviluppatosi sulla Sicilia orientale nell'ottobre 2009. I risultati di questo lavoro di tesi da un lato hanno apportato un miglioramento delle conoscenze scientifiche sui cicloni mediterranei simil-tropicali, mentre dall’altro hanno prodotto una solida base fisica per il futuro sviluppo di un algoritmo automatico di riconoscimento per sistemi di tipo medicane.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questo studio si propone di realizzare un’applicazione per dispositivi Android che permetta, per mezzo di un gioco di ruolo strutturato come caccia al tesoro, di visitare in prima persona città d’arte e luoghi turistici. Gli utenti finali, grazie alle funzionalità dell’app stessa, potranno giocare, creare e condividere cacce al tesoro basate sulla ricerca di edifici, monumenti, luoghi di rilevanza artistico-storica o turistica; in particolare al fine di completare ciascuna tappa di una caccia al tesoro il giocatore dovrà scattare una fotografia al monumento o edificio descritto nell’obiettivo della caccia stessa. Il software grazie ai dati rilevati tramite GPS e giroscopio (qualora il dispositivo ne sia dotato) e per mezzo di un algoritmo di instance recognition sarà in grado di affermare se la foto scattata rappresenta la risposta corretta al quesito della tappa. L’applicazione GeoPhotoHunt rappresenta non solo uno strumento ludico per la visita di città turistiche o più in generale luoghi di interesse, lo studio propone, infatti come suo contributo originale, l’implementazione su piattaforma mobile di un Content Based Image Retrieval System (CBIR) del tutto indipendente da un supporto server. Nello specifico il server dell’applicazione non sarà altro che uno strumento di appoggio con il quale i membri della “community” di GeoPhotoHunt potranno pubblicare le cacce al tesoro da loro create e condividere i punteggi che hanno totalizzato partecipando a una caccia al tesoro. In questo modo quando un utente ha scaricato sul proprio smartphone i dati di una caccia al tesoro potrà iniziare l’avventura anche in assenza di una connessione internet. L’intero studio è stato suddiviso in più fasi, ognuna di queste corrisponde ad una specifica sezione dell’elaborato che segue. In primo luogo si sono effettuate delle ricerche, soprattutto nel web, con lo scopo di individuare altre applicazioni che implementano l’idea della caccia al tesoro su piattaforma mobile o applicazioni che implementassero algoritmi di instance recognition direttamente su smartphone. In secondo luogo si è ricercato in letteratura quali fossero gli algoritmi di riconoscimento di immagini più largamente diffusi e studiati in modo da avere una panoramica dei metodi da testare per poi fare la scelta dell’algoritmo più adatto al caso di studio. Quindi si è proceduto con lo sviluppo dell’applicazione GeoPhotoHunt stessa, sia per quanto riguarda l’app front-end per dispositivi Android sia la parte back-end server. Infine si è passati ad una fase di test di algoritmi di riconoscimento di immagini in modo di avere una sufficiente quantità di dati sperimentali da permettere di effettuare una scelta dell’algoritmo più adatto al caso di studio. Al termine della fase di testing si è deciso di implementare su Android un algoritmo basato sulla distanza tra istogrammi di colore costruiti sulla scala cromatica HSV, questo metodo pur non essendo robusto in presenza di variazioni di luminosità e contrasto, rappresenta un buon compromesso tra prestazioni, complessità computazionale in modo da rendere la user experience quanto più coinvolgente.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La tesi da me svolta durante questi ultimi sei mesi è stata sviluppata presso i laboratori di ricerca di IMA S.p.a.. IMA (Industria Macchine Automatiche) è una azienda italiana che naque nel 1961 a Bologna ed oggi riveste il ruolo di leader mondiale nella produzione di macchine automatiche per il packaging di medicinali. Vorrei subito mettere in luce che in tale contesto applicativo l’utilizzo di algoritmi di data-mining risulta essere ostico a causa dei due ambienti in cui mi trovo. Il primo è quello delle macchine automatiche che operano con sistemi in tempo reale dato che non presentano a pieno le risorse di cui necessitano tali algoritmi. Il secondo è relativo alla produzione di farmaci in quanto vige una normativa internazionale molto restrittiva che impone il tracciamento di tutti gli eventi trascorsi durante l’impacchettamento ma che non permette la visione al mondo esterno di questi dati sensibili. Emerge immediatamente l’interesse nell’utilizzo di tali informazioni che potrebbero far affiorare degli eventi riconducibili a un problema della macchina o a un qualche tipo di errore al fine di migliorare l’efficacia e l’efficienza dei prodotti IMA. Lo sforzo maggiore per riuscire ad ideare una strategia applicativa è stata nella comprensione ed interpretazione dei messaggi relativi agli aspetti software. Essendo i dati molti, chiusi, e le macchine con scarse risorse per poter applicare a dovere gli algoritmi di data mining ho provveduto ad adottare diversi approcci in diversi contesti applicativi: • Sistema di identificazione automatica di errore al fine di aumentare di diminuire i tempi di correzione di essi. • Modifica di un algoritmo di letteratura per la caratterizzazione della macchina. La trattazione è così strutturata: • Capitolo 1: descrive la macchina automatica IMA Adapta della quale ci sono stati forniti i vari file di log. Essendo lei l’oggetto di analisi per questo lavoro verranno anche riportati quali sono i flussi di informazioni che essa genera. • Capitolo 2: verranno riportati degli screenshoot dei dati in mio possesso al fine di, tramite un’analisi esplorativa, interpretarli e produrre una formulazione di idee/proposte applicabili agli algoritmi di Machine Learning noti in letteratura. • Capitolo 3 (identificazione di errore): in questo capitolo vengono riportati i contesti applicativi da me progettati al fine di implementare una infrastruttura che possa soddisfare il requisito, titolo di questo capitolo. • Capitolo 4 (caratterizzazione della macchina): definirò l’algoritmo utilizzato, FP-Growth, e mostrerò le modifiche effettuate al fine di poterlo impiegare all’interno di macchine automatiche rispettando i limiti stringenti di: tempo di cpu, memoria, operazioni di I/O e soprattutto la non possibilità di aver a disposizione l’intero dataset ma solamente delle sottoporzioni. Inoltre verranno generati dei DataSet per il testing di dell’algoritmo FP-Growth modificato.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Nel primo capitolo parleremo dell'accessibilità ai siti web siccome con la crescita dei contenuti multimediali e dei contenuti dinamici, non vengono sempre presi in causa le disabilità che una persona può avere nel visualizzare determinati contenuti. Si tratterà di crescita del web 2.0 e nascita del web 3.0. La transcodifica dei contenuti e i problemi che ogni persona in base alla sua disabilità può riscontrare usando apparecchi differenti per l'accesso ai dati. Parleremo dell'evoluzione dell'uso dei siti in versione mobile cosi da fare un paragono con l'usabilità tra desktop e mobile. Nel secondo capitolo andremo ad analizzare tutte le specifiche che siamo andati a prendere in considerazione per lo sviluppo di questa estensione. Guarderemo quali sono le motivazioni che ci hanno portato allo sviluppo di un'estensione di questo tipo. Verranno anche descritte tutte le scelte progettuali prese in via di sviluppo per migliorare l'usabilità e l'utilizzo dei dati raccolti, per fornire un servizio più efficiente all'utente. Nel terzo capitolo andremo a spiegare tutta l'implementazione effettuata per ExTraS con tutte le funzionalità considerate e scelte in base ai problemi più importanti di accessibilità attualmente riscontrati nel mondo del web da persone con diversi gradi di disabilità. Le principali disabilità che vengono prese in considerazione per l'utilizzo di questo addon sono persone che soffrono di ipovisione, daltonismo. L'ultimo paragrafo di questo capitolo descriverà test effettuati con utenti reali e con utenti simulati. Il test con utenti simulati è stato effettuato grazie al lavoro di tesi effettuato da Alberto Fariselli il quale ha integrato ExTraS creando un simulatore basato sul Q-learning.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Attualmente, la maggior parte dei dati che transitano sulla rete appartiene a contenuti multimediali. Più nello specifico, è lo Streaming Video ad avere la predominanza nella condivisione di Internet; vista la crescita che tale servizio ha subìto negli ultimi anni, si sono susseguiti diversi studi volti allo sviluppo di tecniche e metodologie che potessero migliorarlo. Una di queste è sicuramente l'Adaptive Video Streaming, tecnica utilizzata per garantire all'utente una buona Quality of Experience (QoE) mediante l'utilizzo dei cosiddetti "algoritmi di rate adaptation". Il lavoro svolto in questi studi si è voluto concentrare su due filoni distinti, ma allo stesso tempo confrontabili: la prima parte della tesi riguarda lo sviluppo e l'analisi di alcuni algoritmi di rate adaptation per DASH, mentre la seconda è relativa all'implementazione di un nuovo algoritmo che li possa affiancare, migliorando la QoE nel monitorare lo stato della connessione. Si è quindi dovuta implementare un'applicazione Android per lo streaming video, che fosse conforme allo standard MPEG-DASH e potesse fornire le informazioni di testing da utilizzare per le analisi. La tesi è suddivisa in quattro capitoli: il primo introduce l'argomento e definisce la terminologia necessaria alla comprensione degli studi; il secondo descrive alcuni dei lavori correlati allo streaming adattivo e introduce i due filoni principali della tesi, ovvero gli algoritmi di rate adaptation e la proposta di algoritmo per la selezione dinamica del segmento; il terzo presenta l'app SSDash, utilizzata come mezzo per le analisi sperimentali; infine, il quarto ed ultimo capitolo mostra i risultati delle analisi e le corrispondenti valutazioni.